Jestli porad neodstranili problem CloudFlare s tim, ze HTTP2 poskytuji jen smerem ke konzumentum, ne ke zdroji dat.
Takze napr. stranka ktera se nacita >30sec a ma hodne souboru od zdroje (rekneme vetsi "galerie" s dynamicky generovanym obsahem) vypada v tomto nasazeni tak, ze klientsky prohlizec vytimeoutuje pac se ne vse stihne a CF zpusobi DoS na strane poskytovatele dat, pac vysle tisice nezavislych pozadavku po HTTP/1.1 na ubohy apache, ktery nema ani tak sirokou frontu aby pojmul veskere cekajici - a ani za boha jsme neprisli na nastaveni, ktere by dokazalo ty tisice pozadavku rozumne obslouzit (zkouseno zpracovat po jednom / v poctu vlaken kolik je cpu / vsechny naraz). Takze kdyz server nedokaze dodat do 30s celou stranku.. nastava katastroficka situace s CF a prekladem na HTTP/2.
V pripade ze CF tam neni, nebo se jede z prohlizece ktery ma jen HTTP/1.1, problem nenastava - stejna stranka se jenom nace za dyl, nez za 30sec, protoze timeouty jsou sekvencovany - rozumny prohlizec neotevre tisice paralelnich dotazu na stejnou domenu (kvuli tomu se treba davaj nektere assety na subdomeny, at se to nacitani zrychli).