Ze zacatku je tam dost silnych slov.
Myslim, ze by pomohlo, kdyby - autor - nebo nekdo - zkusil tato tvrzeni podporit experimentalne. Nakonec se stejne pocita jen velikost souboru a kvalita (o dobe kodovani nebo narocnosti dekodovani nepadlo slovo). Pokud by experiment ukazal, ze h266 zachovalo velikost a nezhorsilo kvalitu, tak si myslim, ze slova o hlupacich by byla redundatni.
dekuji
Nakonec se stejne pocita jen velikost souboru a kvalita
Velikost souboru je kvantifikovatelná - tu můžete srovnat.
Jakostní parametr je subjektivní, kromě očividných excesů (hrubé artefakty, sekání, ...) záleží na konsensu diváků, co jim přijde nejlíbivější.
Pokud se bavíme o kvalitě kodeku, předpokladem pro porovnání je vstup nekomprimovaných dat.
Myslim, ze by pomohlo, kdyby - autor - nebo nekdo - zkusil tato tvrzeni podporit experimentalne.
Proklamace o efektivitě kodeků se vztahují na kompresi z nezkreslených dat. V domácím labu se to ověřit moc nedá - pochybuju, že má hodně lidí k dispozici 4k video bez komprese. Testem rekomprese h.265 => h.266 experimentálně ověříte leda prd.
Ne, nepočítá. Např. filmy vznikají jako sekvence polí ve formátu JPEG2000 (pouze bezeztrátová komprese), v tomto formátu se promítají i v kinech.
Jakákoliv komprese, i ta mírná, už zahazuje detaily, o kterých je přesvědčená, že lidské oko neocení. Jenže při druhé kompresi se to projeví tím, že chybí detaily tam, kde by byly potřeba (aby pomohli kvalitnější kompresi) a naopak vzniknou artefakty tam, kde být nemají (a druhá komprese je musí vzít v úvahu).
Velikost bitového toku bohužel úplně nevypovídá o kvalitě videa, může stejně tak vypovídat o nekvalitě kodéru. Je to tak vymyšlené schválně, že standardy MPEG definují bitstream a funkce, které musí zvládat dekodér, ale nechává volnou ruku vývojářům v tom, jak daný bitstream vytvořit. Tím je možné kompresi postupně zdokonalovat. Takže zatímco v devadesátých letech bylo na kódování jednoho SD programu do MPEG-2 potřeba třeba 10 Mbps, o 15 let později při stejné kvalitě a stejnému formátu MPEG-2 stačila jen třeba pětina bitového toku.
Proto taky není úplně fér porovávat výkonnost první verze implementace kodéru nového formátu s mnoho let vyvíjenou implementací kodéru staršího formátu. Resp. porovnávat to samozřejmě můžeme, ale nebude to rozhodně vypovídat nic o tom, o kolik je nový formát efektivnější než ten starý.
Naprostý souhlas, od začátku vývoje ztrátových formátů se různě bojovalo s poměrem rychlost komprese vs kvalita.
Rozdíly mohou být zcela propastné, je to věda. Nejen že, ty formáty jsou hrozně variabilní, ale i výpočty jako takové mohou být prováděné s různou přesností nebo být rozdělené do skupin kvůli vícevláknovému zpracování což má docela vliv na výsledek.
První verze koderů často mají jen některé funkce implementované, takže kvalita může časem jít nahoru. Pokud bude použité nějaké extrémní řízení toku (třeba na absolutní kvalitu místo variabilního nebo konstantního) výsledkem může být velmi krátký soubor.