Jako brecet nad tim, ze to ma vyssi spotrebu, kdyz to na vystupu produkuje 2x vetsi fps je ponekud divne.
To si nekdo myslel ze lze zlepsit FPS a nehnout spotrebou?
Jediny co tady lze vytknout je vyssi idle spotreba - ale tam muzou byt i jine faktory, pokud to nebylo mereni provedeno v jednom OS, jen ruzne UI frontendy (treba instalovany pro 2 ruzne uzivatele, nebo updatnuty bez rebootu).
Ale tady nejde o neoptimalnost algoritmu (ze to dela praci, kterou by nemuselo), ale o jinou omezujici podminku:
Problem dual vs triple bufferingu je, ze se renderuje dalsi frame az pote co se buffery vymenili po Vsyncu - tj. kdyz budes stridat buffery co 40ms, ale render time je 42ms, tak celych 38ms se idluje a ceka az bude znova volnej buffer. Tudiz budes mit spotrebu 42/80, neco tesne nad 50% zplne vytizene gpu, protoze se holt nic nedela - nic delat nemuze.