Naprostý souhlas, od začátku vývoje ztrátových formátů se různě bojovalo s poměrem rychlost komprese vs kvalita.
Rozdíly mohou být zcela propastné, je to věda. Nejen že, ty formáty jsou hrozně variabilní, ale i výpočty jako takové mohou být prováděné s různou přesností nebo být rozdělené do skupin kvůli vícevláknovému zpracování což má docela vliv na výsledek.
První verze koderů často mají jen některé funkce implementované, takže kvalita může časem jít nahoru. Pokud bude použité nějaké extrémní řízení toku (třeba na absolutní kvalitu místo variabilního nebo konstantního) výsledkem může být velmi krátký soubor.