vztah obrazové kvality s počtem Mpix není lineární. 100Mpix neznamená 100M informací. Každou fotku můžeš zvětšit na 100Mpix, ale všichni víme, že jí tím určitě nezlepšíme.
Jsou za mě dva důvody proč se to dělá. (1) Marketing je důležitý a potřebují číslo, které mohou zvedat a zvedat a tím zvedat očekávání kupujících a ochotu utratit více peněz.
(2) Víc Mpix může vést k lepšímu rozpoznání šumu od barevné a jasové informace ze snímače. Je tam možné korigovat spousty různých optických vad či problémů s elektronikou. V praxi to tak asi horké nebude. Stačí porovnat výsledné fotky, skoro to vypadá, že více práce dělá SW než čip.
Ona je to hlavně kolize v terminologii. 600 Mpix v článku jsou hardwarové pixely (co je vyleptáno na křemíku), což nesouvisí s pixely na API snímače a to nesouvisí s bitmapou, která vyleze ze signal procesoru a kterou teprve může uživatel vidět.
iPhone 12 má snímač Sony IMX686, což je 64 Mpix senzor. Po debayerizaci a dalším zpracování (které díky většímu počtu vzorků a tedy lepšímu SNR jde lépe) z toho lezou velmi dobré 4000x3000 bitmapy. IMX686 má víc režimů, mimo jiné umí Quad Pixel, tj. spřáhne matici 2x2 hw pixelů do jednoho logického. Získá lepší světelné parametry, ale díky 4 vzorkům místo 1 má lepší SNR.
Samsung to bezesporu využije stejně. Mají technologii na jemnou litografii, tak proč si neudělat logické pixely se stovkami hw pixelů?
Prosim nesir tyhle blafy od amaterskych leakeru, kteri si vymysli i vodotrysk v hodinkach! iPhone 12 opravdu nema IMX686 snimac, bylo to jen zbozne prani iOvecek.
A takovou (ne)optimalizaci, jak jsi tady popsal Apple rozhodne nedopusti, oni maji na vic, nez aby pouzivali snimac ktery pouziva vetsina cinskych kramu.