Ne, Nvidia s DLSS 3.0 neotevírá Pandořinu skřínku

23. 9. 2022
Doba čtení: 8 minut

Sdílet

Jen-Hsun Huang s GeForce RTX 4090 Autor: Nvidia
Jen-Hsun Huang s GeForce RTX 4090
Nvidia s třetí generací své AI upscalovací technologie DLSS dle některých otevírá Pandořinu skřínku falšování renderingu her.

Nvidia v roli hamižného podvodníka

Lid ajťákový se často dělí na dvě nesmiřitelné skupiny. Jedna volí Losnu, druhá Mažňáka. Tedy pardon, jednou je to AMD × Intel, podruhé zase AMD × Nvidia, potřetí Samsung × Apple, jindy zase třeba Windows × macOS či Chrome × Firefox. Nebo GNOME × KDE, X11 × Wayland, systemd ano × systemd ne a tak dále a tak dále. Ale málokdy se najde nějaký smír. Nvidii zkrátka hráči mohou, Linuxáci ne. Je jedno, zda si za to může sama, nebo se s ní reputace veze. Ale často je reputace spíše negativní. Zaznívají různé argumenty: tu vykradla 3Dfx, která pak zkrachovala a Nvidia ji koupila, aby ukončila soudní spor na samou její podstatu se valící. Jindy zase koupila Ageiu s PhysX, aby zařízla rozumně fungující PhysX na produktech AMD a Intel a přesunula jej na svá GPU. Jindy zase podmínila synchronizační systém G-SYNC přítomností víceméně zbytečného procesoru v LCD monitorech. Málokdy se najde něco, na čem by se celá komunita shodla, že s tím přišla Nvidia a byl to veskrze kladný vývoj včetně samotného pojetí implementace dané věci Nvidií.

DLSS je jen další takovou technologií, na kterou se lze dívat buď tak, že jde o úžasnou revoluční cestu vpřed, ale stejně tak i pohledem, že je to celé jen jeden velký podvod na hráče a de facto falšování benchmarků v recenzích grafických karet. Stejně jako na PhysX, 3D Vision či RTX, i na DLSS v průběhu vývoje této technologie lze najít naprosto protichůdné ohlasy z obou stran. Tak mi dovolte se dnes podělit o názor mně vlastní.

O co se vlastně Nvidia pokouší

Úvodem musím čestně přiznat svůj postoj k téhle kalifornské společnosti. V minulých více než dvou dekádách jsem celkem čtyřikrát používal něco se jménem GeForce, a to vždy tak, že šlo o produkt, který jsem si osobně vybral a zakoupil. GeForce lepší Radeonu v dané době, dalo by se říci. Třikrát to u mě naopak vyhrál Radeon, přičemž ve dvou posledních případech z důvodu podpory na Linuxu. Nvidii právě kvůli jejímu postoji k Linuxu nemám rád, byť mnohé její produkty jsou vskutku dobré, nezřídka lepší než konkurenční Radeony. Když jsem porovnatelné hi-end produkty obou výrobců testoval naposledy, tak jsem oběma udělil zlaté ocenění, to šlo o Radeon HD 7970 a GeForce GTX 680 před zhruba 10 lety.

Hardware nestačící hrám

Veškerý ten humbuk kolem DLSS – či obdobné technologii FSR u AMD / chystané obdobě XeSS u Intelu – stojí na jednoduché argumentaci, ale úvodem si připomeňme, o co s DLSS jde. DLSS neboli Deep Learning Super Sampling je technologický balík na bázi strojového učení, který umí vylepšovat kvalitu renderovaného obrazu (například ve hrách) tak, že výsledek je detailnější a renderován ve vyšším rozlišení. Zjednodušeně řečeno: tam kde by GeForce RTX 4090 danou hru ve 4k v nejvyšších detailech utáhla jen ve 40fps, ji za pomoci DLSS utáhne s 60 fps tak, že se bude renderovat v 2560×1440 s následným AI upscalingem do 3840×2160. 60 fps zůstane zachováno, kvalita obrazu bude při pixel peepingu statických snímků viditelně horší než u nativního 4k, ale v herní vřavě bude z výsledku zážitek stejný jako při nativním 4k. Vlastně větší, protože 40fps místo 60fps.

První generace DLSS byla ještě „taková humpolácká“ s určitými viditelnými chybami v renderingu. DLSS 2.0 věci značně vylepšila, neboť do výpočtu upscalingu obrazu pro vyšší rozlišení zahrnovala i data z okolních snímků, tedy nejen prostorový, ale i časový faktor. DLSS 3.0 jde ještě dále, grafická karta se s ním „hrabe v renderingu herní scény“ daleko více a dokonce provádí i AI-dopočítávání dalších snímků, které na GPU ani nevznikly. Podobně jako když vaše chytrá televize dopočítává neexistující snímky, aby přehrávané video působilo plynuleji.

Podrobnější informace k DLSS 3.0 sepsal Jan Olšan na Cnews v souvislosti s oficiálním představením GeForce RTX 4000.

Problém jménem 4k

Před několika málo lety jsme žili v situaci, kdy nejvyšší běžně používané rozlišení monitoru hráče bylo 1920×1080, resp. 1920×1200. Více typicky ne, byť tu a tam někteří jeli na 27palcových monitorech s rozlišením 2560×1440, případně 30palcových s 2560×1600. Grafické karty s nejvýkonnějšími GPU stíhaly celkem dobře držet tempo vývoje tak, že pro nové a náročnější verze herních enginů byly schopné dávat plynulý výkon (tehdy jsme nebyli tak zmlsaní, tedy šlo o 30 fps a více) v těchto rozlišeních.Jenže pak přišlo 4k, tedy 3840×2160 a vedle toho jsme začali pokukovat po 60fps stabilním zobrazení, resp. po G-Sync / FreeSync, v rozsahu monitorů á la 40–144 Hz.

V tuto chvíli přestaly grafické procesory stíhat tempo. z 1920×1080 při 30 fps se náhle stalo 3840×2160 s vyššími hodnotami fps – nová generace GPU přece musí nabídnou víc než ta předchozí! A do toho si Nvidia vymyslela další (dlužno dodat úspěšný) pokus o unikátní tahák na hráče, tedy GPU-akcelerovaný raytracing. Přišla GeForce RTX 2080 a další karty této generace.

DLSS je tak logickým vyústěním. Rozlišení zvýšilo požadavky na výpočetní výkon GPU o dobrých 100 až 400 %. Požadavek na vyšší násobky fps si vyžádalo cílit na řekněme 200 % původní 30fps hodnoty. Enginy se také staly náročnějšími, řekněme též hrubě +100 % navíc. A do toho ještě snaha či přímo nutnost počítat i raytracingem realizované efekty. Po GPU se tak během dvou-tří let najednou chtěly násobky původního výkonu, a to v době, kdy 250W GeForce RTX 2080 Ti stavěla na 12nm TSMC výrobním procesu GPU, zatímco 350W GeForce RTX 3090 na 8nm procesu Samsung a nyní čerstvá GeForce RTX 4090 poskočila sic na 4nm TSMC výrobu, ale její TDP je 450 W.

Nvidia se hodně snaží, víme, že návrat k TSMC a dobrá pozice na obsazení 4nm linek jí vše stálo miliardy dolarů vyplacené TSMC předem. Ale i tak je to prostě málo. Z 250W karty sice byla nejprve 350W a nyní 450W (a prý dokonce až 660W), ale i dnes je to pro 3840×2160/60fps s raytracingem a plnými detaily prostě málo, málo, málo. DLSS 3.0 není zpovykanost / zbytečnost, je to prostá nutnost. Je to v principu výtečný nástroj, který umožní Nvidii obejít chytrostí technologie fyzikální výrobní limity.

Komu vlastně vadí nedokonalost AI-upscalingu?

Ale je to v pořádku? Doteď jsme byli zvyklí, že když hra renderuje v 1080p, je to prostě 1080p. Dnes jako by 4k rozlišení nic neznamenalo. Nojo, ale tomu tak opravu je. Kdo kdy měl možnost porovnat například 4k záznam z bezzrcadlovky Panasonic GH4 se 4k záznamem z levného telefonu s Androidem, moc dobře ví, že obojí je sice 4k, ale to druhé má reálnou detailnost záznamu spíše na úrovni 2k.

Každý recenzent, který ve svém článku či každý YouTuber, který na svém kanálu bude porovnávat DLSS 3.0 s nativním rozlišením na statických snímcích, budiž považován za ignoranta. Tato technologie necílí na statický obraz (od toho tu máme fotografické nástroje jako Topaz AI), cílí na obraz měnící se co pár desítek milisekund. Jeho cílem není statická  okonalost, ale vjem zapáleného hráče. A pokud toto bude s pomocí DLSS 3.0 implementováno tak, že hráč se 4k monitorem získá svých plynulých až 144 fps v nativním rozlišení displeje, pak budiž.

Nedokonalost nám totiž nevadí. Na filmy koukáme s kompresí prakticky od chvíle, kdy se z filmové emulze přešlo na první analogové páskové kamery a záznamy na kazety typu Betacam / VHS. Nemluvě o kompresních artefaktech formátů rodiny MPEG, předposlední H.265 / HEVC nevyjímaje.

Nedokonalost nám nevadí ani ve hrách. Vždyť veškerá ta GPU rasterizace a vše ostatní snad vyjma onoho raytracingu jsou jen techniky, kterak výpočetně výrazně levněji udělat práci podobnou fyzikálně dokonalému originálu. Nevadí nám to, protože pokud má hra atmosféru, je odpuštěno vše.

I ve zvuku jsme spokojeni s nedokonalostí. Může to být nedokonalost digitální, třeba 256kbit/s AAC či 768kbit/s 5.1 DTS. Mohou to být 25 let staré soubory typu 128kbit/s MP3. Mohou to být záznamy na audio kazetách, kdy málokdo sáhl výše než ke kazetám typu Chrome. Může to být i kompromisní záznam typu Westrex 45/45, tedy klasické gramodesky, limitované mechanickými schopnostmi přenosek. To vše je něčím, na co jsme zvyklí. V roce 1971 nám nevadilo, že Echoes od Pink Floyd není zcela věrné tomu, co muzikanti hráli ve studiu. Stejně tak nám nevadí, že 16bit 44,1kHz stereo záznam Neumannova nastudování Šostakovičovy Leningradské není dokonale přesným odrazem původního provedení této symfonie.

I na nedokonalé systémy jako DLSS si nakonec zvykneme a pokud ne my, tak generace, která dnes tahá kačera po dvorku, s nimi vyroste a budou pro ni stejně věrným odrazem reality, jako pro nás ono eLPíčko Pink Floydů. Protože ostatně finální cíl leží jinde.

Ultimátní cíl tohoto všeho leží dle mého názoru dokonce řádově dál. Jednoho dne budeme takto za pomoci AI technik živit daty nějaké virtuální brýle s 32k rozlišením a 120fps zobrazením. Něco takového ani GPU vyráběné 0,01nm procesem nebude schopné počítat, takže nastoupí dekádami natrénovaná AI jménem DLSS verze třeba 15.0. Dokáže nám poskytnout téměř dokonalý vjem, i kdyby 80% tohoto vjemu tvořily AI-vymyšlené prvky.

bitcoin školení listopad 24

Netvrdím, že to tak je v pořádku. Zcela souhlasím s historiky, kteří zoufale křičí pokaždé, když někdo vezme stařičký kamerový záznam na filmovém pásu s rychlostí 10 fps a prožene jej strojově naučenou neuronovou sítí, která jej okoloruje, přeškáluje do 4k a doplní snímky do 60fps. Toto z historického hlediska v pořádku není, byť je někdy zajímavé se na takové renovace podívat.

Stále platí, že Nvidii nemám rád. Ale DLSS je to poslední, co bych jí vyčítal, právě naopak. Buďme rádi, že tato technologie existuje, protože to nehorší, co o ní lze říci, je skutečnost, že je buď prospěšná, nebo si ji může uživatel vypnout. Ostatně představte si, že Nvidia je vlastně na nás hodná. Kdyby nám vůbec jednoho dne nedala vědět, že něco jako DLSS 4.0 vyvinula, tak by se klidně mohlo stát, že za 1 rok od uvedení nějaké příští generace GPU jedna z IT redakcí při zkoumání přijde na to, že jí na snímcích z her něco nesedí. Nakonec identifikují s určitou mírou jistoty, že Nvidia ve skutečnosti onu hru nerenderuje v 3840×2160 / 144fps, ale spíše v 2560×1440 / 60fps a zbytek dopočítává, ale třeba by většinu hráčů překvapilo, že si toho dodnes nevšimli. Místo toho tu máme detailní popisy fungování dané technologie (dnes DLSS 3.0). Až nezvyklá otevřenost na jinak spíše uzavřenou Nvidii.

Autor článku

Příznivec open-source rád píšící i o ne-IT tématech. Odpůrce softwarových patentů a omezování občanských svobod ve prospěch korporací.