Já bych možná doplnil, že macbook s M1 Max sice existuje, ale stojí přes 100kkč. Co proti němu postavit? Třeba nějaký ntb s 8core Ryzenem 6xxx a RTX 3080 Ti? V čem by to srovnání bylo vypovídající, když se tady bavíme i o tom, že na tom Applu si prostě člověk nezahraje ty desítky tisíc her, co na Windows ano?
Tak tady bych se krotil. Tolik her (pokud nepočítám free to play blbiny hotové za 2 dny v Unity3D) ročně nevychází (a většina nových je stejně multiplatformní) a spousta těch starých zas nefunguje v novějších Windows. Cenově je M1 Max sice "max", ale je tu i Pro mezi base a Max. Slušný a výkonný PC notebook je taky přes 50 tisíc - a přitom v mnoha parametrech horší než base Air M1 dost pod 30 tisíc (např. teď v době post-kovidové na konference - nekvalitní mikrofony, nekvalitní repráky, které musí vypnout softwarové vylepšení kvůli lagu, hluk větráku rušící vás a ostatní na drátě, ...). Jinak ani 100 tisíc není žádná pálka, když si vzpomeneme, za kolik jsme kupovali 286ky a pak 486ky, nebo pokud je notebook i na práci (i pouhé české platy v IT vám ho rychle zaplatí).
Já osobně bych se také krotil. Musel bych nejprve u toho macbooku vidět displej a zkusit chod klávesnice, ale tak či onak by mi takový stroj vyhovoval více než jakýkoli "gejming" notebook s windows. Tedy pokud okázale pominu, že nemám rád ntb jako takové. Obecně by Apple mohl být zajímavý zejm s M1 Max desktop strojem a tím 6k displejem. Šíleně drahé, ale věřím, že fotky by se na tom daly upravovat klidně i za 10 či 15 let.
Ten displej je skvělej. V podstatě pokud chceš dělat venku (nejen ve stínu), tak hravě překoná 90+ % PC notebooků i ten softwarově omezenej v Air. A u klávesnice konečně Apple uznal chybu. Trvalo to dlouho, ale nakonec vrátil tu, co funguje normálně. U těch WINTELů je problém Intel iGPU, ta je tragická (ty nejvyšší výkon maj, ale co je to platné, když tam dost her funguje blbě nebo vůbec; koneckonců na ty ovladače dojely i jeho pokusy o dedikovanou GPU). I base M1 má slušnou* GPU (na poměry Intel iGPU), takže utáhne starší Windows AAA hry v emulaci (Windows pro ARM ve VM, v něm jeho emulátor x86).
*) Ona ta GPU v base M1 zas moc výkonná není. Apple použil hezký trik: Ta GPU má mnohem více ROPs vůči ALU než x86 grafiky. Díky tomu vykreslí pixelů jako výkonnější grafiky, ale výpočty ne. Tj. starší hry (s výpočetně jednodušší grafikou) jedou, jako byste měly výkonnější GPU. U nových je to už problém. A nejen ve hrách, projeví se to i ve filtrech ve videoeditačním software (enkódování obstará specializovaný obvod, ale s přidanými efekty - ty jedou přes GPU - se ten base model rychle zadejchá). Tohle řeší pak ty vyšší modely, které maj jen o pár jader CPU víc, ale GPU je násobně větší.
Já vlastně výkon a spolehlivost pro hry neřeším, občas (fakt už jen výjimečně) vytáhnu 11 let starý Skyrim, takže současný Radeon RX 6500 XT už mi asi vystačí navěky. 99,9999% času slouží jen jako zobrazovadlo GUI pro Linux, jestli nějak akceleruje to či ono video je mi jedno, beztak mám většinu věcí v max 1080/x265. Bohužel Intel teď ukazuje, že bude asi nespolehlivý i na jednoduchý iGPU, protože tu podporu odstřihává na můj vkus nějak moc rychle. Fakt nevím, co tam takhle blbnou, že už zařezávaj cokoli <Gen12, i když se ty CPU stále v této době (do)prodávají.
Co se toho notebooku týká, záleží, co děláte. Já používám notebook, co jsem koupil od jedné z firem, pro kterou jsem dělal za tři tisíce, je to nějaká historická i5 a bohatě mi stačí. Ta představa, že na práci nutně potřebujete notebook za sto tisíc je taky zcestná. jsou takoví, to rozhodně ano, ale většina lidí fakt nepotřebuje. Ale mnoho lidí/vývojářů si tak odůvodňuje svůj snobismus.
18. 8. 2022, 14:30 editováno autorem komentáře
Ta potřeba je dost relativní. Ty tvrdíš, že nepotřebuješ výkonnější notebook. Já to vidím tak, že když už u pc trávím většinu svého života, každá pročekaná milisekunda se přičítá k době, co jsem u toho pc seděl zbytečně. A on ten counter potom zatraceně rychle nabývá. Takže se mi vyplatí, dát do HW raději víc peněz, abych prostě na nic nečekal.
Ja bych zustal na te strane u M1(non PRO)
Ani Max nema na RX6950XT nebo RTX3090Ti ve spojeni s Ryzenem 5950X(klidne v ECO modu), kdyz je neco max tak poronavat s max konkurenci ze.
Da se poridit NTB s Ryzen 5700U (15W) s 16gb DDR4 RAM a 512 SSD za nejakych 18t. Tato konfigurace je temer ve vsech aspektech nad M1(26t.), krome 1-jadroveho vykonu a displaye (prijde mi ze na 2560*1600 nema M1 GPU ani nahodou vykon, pokud nepovazuje za ok ze to dokaze zobrazit plochu a prehrat video)
Tela NTB jsou take plne srovnatelna s Applem, s tim ze je tam vetsinou lepsi konektivita a display se da sehnat matny. Ano PC NTB maji aktivni chlazeni, ale daji se pouzivat bez toho aniz by se vetrak hnul. Tedy pokud se bavime o kozumaci obsahu vyjma her, tam samozrejme zacnou aktivne chladit, ale zas tech her co se daji na takovem NTB spustit je kapku vic nez na Apple.
Takze za me je Apple M1 predrazenej nestadartni NTB ktery je srovnatelny s o 1/3 levnejsima PC NTB.
> kdyz je neco max tak poronavat s max konkurenci ze.
I když se TDP liší o stovky wattů a hučí, že div neodletí?
> PC NTB maji aktivni chlazeni, ale daji se pouzivat bez toho
To využívám. Výkon je ale pak samozřejmě zlomek (dost poznat např na načtení YouTube videa ve webovém prohlížeči).
> Takze za me je Apple M1 predrazenej nestadartni NTB ktery je srovnatelny s o 1/3 levnejsima PC NTB.
Good for you, jestli jste macbooka nikdy neměl v ruce. Aspoň zbyde víc pro ostatní - Apple nestíhá vyrábět.
EDIT: Když to čtu pozorně, tak je docela úspěch, že srovnáváte s PC konkurencí jen o 1/3 levnější. Nezapomeňte, že Apple si např dělá vlastní OS.
20. 8. 2022, 14:04 editováno autorem komentáře
Test na Phoronixu nepoužil na M1/M2 hardwarové kodeky (kódování h265) ani akceleraci GPU pro ten Darktable (opensource driver je vyvíjen na macOS, zatím nebyl portován do Linuxu). Pokud porovnáváme hrubý výkon samotné CPU části toho SoC, tak nezapomeňte, že Apple Silicon ho dosahuje při zlomku spotřeby a (v případě modelů s větrákem) neomezeně dlouho (žádný/minimální throttling po nějaké době). Dále při běhu na baterii se výkon nesníží (pokud používáte notebook výhradně na adaptér, nepřemýšleli jste o desktopu?).
Jinak Apple naopak podporuje vývoj Linuxu na M1/M2. Při spuštění počítače automaticky zavede všechen firmware (viz problémy s NVidií na Linuxu, protože nechce dát firmware pro ovládání frekvence/výkonu) před spuštěním OS dle vaší libosti (není to zablokované a je podporován i dualboot, tj. váš OS vedle macOS, nejen jeho nahrazení - můžete si tak užívat v Linuxu, a když je potřeba udělat nějakou práci, tak přebootujete během mžiku do macOS, kde je k dispozici všechen profesionální komerční software). Apple dokonce opravil nějaké bugy, které měly vliv jen na Linux a ne na macOS.
Jinak Apple naopak podporuje vývoj Linuxu na M1/M2.
Podporu dualboot-u, tedy nezamčení bootloaderu bych nepovažoval za podporu Linuxu. To bych považoval za NEházení (některých) klacků pod nohy.
Podporu Linuxu bych viděl jako spoustu příspěvků Apple do Linuxového jádra pro zprovoznění jejich HW. Pokud by nechtěli mrhat vlastním časem na nějakej nezajímavej Linux, tak alespoň uvolnění/zpřístupnění specifikace, aby se nemuselo reverzně inženýrovat.
Ale proti (dřívějšímu) chování NVIDIA se to celé skutečně musí jevit jako podpora.
Mno pro vývojáře ano, ale pro uživatele uzavřený Nvidia driver i pro Linux vždy byl. Apple nedělá ani ty uzavřené drivery...
Jakékoliv snahy simulovat Apple ve vývoji pro M* vidím jako zbytečnost, víceméně ti vývojáři odpracovávají práci, kterou měl udělat, Apple pokud by chtěl získat uživatele z Linuxové komunity a prodat pár těch kousků M1-2... navíc. Ale když je to baví...
A proč vlastně portovat Linux na Apple, stejně to bude používat tak 0.01% uživatelů, tak proč to vlastně testovat? Stejně se ta podpora současným přístupem bez dokumentace nikdy neudělá na 100%. Ani můj notebook po roce stále nefunguje v Linuxu na 100%, protože HP tomu nedává žádnou podporu a to je to složené z běžných součástek. Například Bluetooth pořád blbne (při odpojení napájení přejde do úsporného režimu a občas už to nerozchodí), čtečka otisků prstů nefunguje a sensor otočení taky ne. Jestli bych pro něco hlasoval, tak povinnost výrobce dávat kompletní servisní a vývojovou dokumentaci. U auta z roku 1972 jsme měli kompletní servisní manuál do posledního šroubku. U auta z roku 1999 jsem ho ještě sehnal, ale pro dnešní auta už člověk pomalu nedostane ani uživatelský manuál. Nebo jsme měli věž Grundig a přenosný kazaťák JVC a k oběma jsme dostali komplet schéma zapojení. Dnes člověk nedostane nic a výrobce prdí na jakoukoliv podporu, žádosti o řešení odbývá.
Testy hw kodeků sice znějí dobrře, ale pak by se k tomu měl taky přidat test kvality toho kodeku. Softwarové kodeky jsou sice pomalejší, ale o dost kvalitnější. Navíc při exportu ze střižny zabere spoustu času kompozice a tak můžete mít kodek jak chcete rychlý, ale stejně pak čeká na procesor, až mu dodá data. Navíc tyto kompozice nejsou většinou vívevláknové, protože vše závisí na výsledku předchozí operace a dělat obecnou pipeline je složité, takže zbylá jádra procesoru mají čas kódovat, takže ve výsledku je celý export softwarově v podstatě stejně časově náročný jako při využití hardwarového kodeku. Má to význam snad jen, když si chcete překódovat film nebo pro online kódování kamerového streamu. Pro střih videa to nemá valný význam i když jsou snahy tu kompozici předávat grafickému akcelerátoru (tady to zase vázne při přenosu dat mezi pamětí procesoru a pamětí GPU).
Další věc je - střihá někdo na notebooku? Já tedy ne. Ne že by to nešlo, ale na tom prťavým displeji to není žádný med. A někde ve vlaku už si to nedovedu vůbec představit.
Kvalita je tragická u AMD (Google v cloudu Stadia musí používat separátní čipy pro encoding), ale u NVidia a Apple je dobrá. Samozřejmě pokud máte neomezený časový budget, tak softwarový kodek bude vždycky top. Zpracování obrazu, např. color grading, je dnes taky akcelerované, přes GPU, a tam Apple taky září (kromě base M1/M2, kde je iGPU relativně slabé).
> ve výsledku je celý export softwarově v podstatě stejně časově náročný jako při využití hardwarového kodeku
Tady mi hlava nebere, proč se tedy implementuje HW akcelerace, když jsou to obvody zbytečně navíc?
> Pro střih videa to nemá valný význam i když jsou snahy tu kompozici předávat grafickému akcelerátoru
Opět, proč se např už desítky let vyvíjí hardware pro akceleraci stříhání videa za desetitisíce, když to podle vás stejně rychle zvládne CPU?
Jinak na notebooku se stříhá proto, že to na něj nahraješ v terénu, skoukneš, že ok, pak stříháš doma, aniž bys musel kopírovat nějaké soubory někam na další počítač a otevírat projekt do toho samého místa, a nakonec to můžeš ještě cestou k zákazníkovi a pak u zákazníka doladit. Na stole samozřejmě připojíš ten samý monitor, co bys měl jinak u desktopu (ale mimo stůl je dobrý mít kvalitní interní displej).
A proč vůbec řešíme práci na notebooku? No protože článek je o notebookách. Pokud děláte jen na pracovním stole, s externím monitorem a připojeným adaptérem, tak doporučuju desktop. Tam samozřejmě máte k dispozici výkonné CPU a dGPU. Sice dost žerou, ale pokud nejste omezeni prostorem, tak kvalitní velký case to dokáže uchladit tiše.
EDIT: "tady to zase vázne při přenosu dat mezi pamětí procesoru a pamětí GPU)" -- Tohle práve Apple krásně řeší sdílenou L2 cache. Žádná data se nikam nekopírují. CPU, GPU, NPU a ISP je vidí dohromady.
17. 8. 2022, 15:54 editováno autorem komentáře
> proč se tedy implementuje HW akcelerace, když jsou to obvody zbytečně navíc?
HW encodery jsou tu hlavně kvůli mobilním platformám (kde špatnou kvalitu kompenzuje mnohem vyšší bitrate) a kvůli aplikacím, ve kterých kvalitu nikdo neřeší, např. videokonference. Je obří rozdíl (v zátěži a teplotě) když pustíte Teams nebo Meet na Firefoxu, který nemá VAAPI encoding, a třeba na Chromiu, kde to přes HW encoder jede.
Co je podle vás pořádné řešení? Z mé zkušenosti většina videokonferenčních služeb používá VP8/9 včetně těch rozšířených jako Google Meet nebo Bluejeans.
Diskuse je o hardwarové akceleraci videokonferencí, OpenH264 od Cisca je softwarový kodek, takže pokud chci mít konferenční hovory hardwarově akcelerované, je mi platný jako mrtvému zimník.
Tak jestli používáte nějaké obskurní řešení pro konference, které kašle na aktuální podporu HW kodeků v zařízeních, to je na vás. Ve firmách se používá Teams, a ten s tím nemá problém.
Jinak Firefox používá na desktopu málo lidí, tam můžeme být rádi aspoň za tu softwarovou podporu. Mnohem lepší, než kdyby to nefungovalo vůbec. Desktop v pohodě SW encoding utáhne. A na mobilech používá Firefox jen 1 % uživatelů, takže ten můžete úplně ignorovat.
No, nevím, jestli bych zrovna Google Meet, který je součástí Google Workspace, který používají opravdu mraky firem, nazval obskurním řešením. To samé platí o Bluejeans.
Jestli tedy podle vaší definice platí pořádná videokonferenční služba = MS Teams, tak potom jo. V takovém případě vám musím dát zapravdu, že všechny pořádné služby používají H264. :)
Ne, pořádná služba=používá HW kodeky, které jsou v běžných dnešních zařízeních. Nebo ať si lidi na Rootu nestěžujou, že jejich zařízení ten kodek nemá ;-) Jinak diskuze začala kodeky, ne konkrétními službami (já jsem asi deformovaný tím, že firmy obvykle používají Windows server - i kdyby klienti byly třeba macbooky a iPhony).
EDIT: Byl to Apple, kdo dlouho vzdoroval VP9. Jak už tu bylo řečeno, Android ho umí v HW, PC ho taky umí v HW (je v Intel iGPU - mimochodem kodek zablokovaný na Intel Macs).
18. 8. 2022, 16:57 editováno autorem komentáře
Color grading nechávám filmařům, já točím realitu, takže to nepotřebuji. A barvy se snažím řešit v terénu, jakékoliv korekce jsou vždy už jen korekece vlastních chyb, tak se jich snažím vyvarovat (občas se ale nepovede nbeo to ani nejde). A jinak ty různé přechody a efekty rozhodně akcelerované nejsou, to se v GPU dost blbě programuje. U barev si to představit dovedu, ale to je tak vše.
Na to, abych se podíval, co jsem natočil, notebook možná dobrý je, ale na to mi stačí i ta kamera nebo mobil.Kopírovat nic nemusím, až doma. Když něco stříhám, tak to stejně nemám za pár minut. Teď naposled jsem dělal sestřih z formule a výsledek cca 12 minut mi trvalo sestříhat asi tak 6 hodin. Přes hodinu záznamu jem vyházel. Někde v terénu to rozhodně dělat nebudu. A nevím, proč bych měl připojovat k notebooku nějaké periferie, notebook mám na tahání nebo případně při programování si udělám pohodlí a sednu si s ním do křesla. A bez monitoru. Ten výstup používám jen na prezentace na poradách. Jinak vše mám sychronizované a zálohované přes OpenProject/Nextcloud/SVN, takže vůbec nic neřeším. Když dopracuju na notebooku, přejdu na desktop a mám tam to samé. Je rok 2022 proboha.
Render těch 12 minut trval v1080p50 softwarově necellých 5 minut (ffmpeg/x264). Přes vaapi to trvalo tak 4 minuty, takže za mne žádný rozdíl. A rozhodně nemám chuť používat nadměrné bitrate. Tento přístup je problém dnešního světa - mít to hned, co mně zajímá, že to má mizernou kvalitu a je to 2x takový. Ať si každý připlatí rychlejší internet, že?
Tím nechci říct, že ty hw akcelerátory nemají smysl, ale jak jsem už psal, na live streamy, konference apod. je to super. Ale zase bych nepřeceňoval jejich použití.
> Ten color grading je i o tom, aby ten záznam pro pozorovatele vypadal +- jako by byl na místě i když na to kouká v úplně jiných podmínkách.
To asi těžko, když nevíte, kde na to budete koukat. Color grading má dodat filmu nějakou atmosféru, tedy je to celé posazené třeba do zelené apod. To není korekce barev, tedy vesměs vyvážení bílé. Ale to samozřejmě neznamená, že bílá musí být vždy bílá. Spíš by to mělo odrážet realitu (žluté žárovky spod.)
No ale právě žluté žárovky jsou hezký příklad. Pokud tam fyzicky jste, tak váš mozek barvy opraví. Ale v záznamu to musíte poladit, jinak bude celá scéna žlutá - a všichni ji uvidí žlutě.
EDIT: Podobně když brácha dělal color grading pro pořad na Primě. Natáčelo se venku na poli a pluly mraky. Mozek se přizpůsoboval, ale ve videu je scéna střídavě světlejší a tmavší.
20. 8. 2022, 13:56 editováno autorem komentáře
Pomalé SSD je jen v nejnižší konfiguraci z celé řady. 256 GB na práci stejně není. A výkon té zázračné GeForce spadne na třetinu, jakmile odpojíte adaptér. A co myslíte tím upgrade? V PC notebooku nevyměníte CPU, GPU, RAM (u nových je už LPDDR jako u Apple, a ta je vždy připájená - u ostatních notebooků, pokud koupíte rovnou vymaxovanou), u některých je připájený taky disk. Dokonce u některých velkých značek máte v BIOSu i whitelist, jaké moduly, např WiFi, tam můžete strčit.
Jen drobná technická. V případě PC noťasů stále existuje množství modelů, které mají RAM ve dvou snadno vyměnitelných modulech. Přiletovaný disk u PC noťasů - přiznám se, že na takový noťas jsem ještě nenarazil, ale věřím, že v případě nějakých ultra-tenkých a ultra-kompaktních to může být. Ad. wifi - to samé, nemám zkušenosti na to abych zpochybňoval vámi zmíněný whitelist, nicméně jsem wifi měnil ve starším Lenovu P15s - zcela bez problému.
Naprostá nemožnost cokoliv v Applu vyměnit, přiznám se, že to považuji za velký handicap těch noťasů, i když jinak to jsou bez pochyby nádherné výrobky.
Nehodnotím teď úplně výsledky toho testování, ale stejně je to fantastické, že něco tak výkonného jako M1 dostali v roce 2021 i do tabletu (iPad Pro). Mám ten procesor i v Macbooku, převážně pro Lr/Ps workflow, a je vysloveně radost s tím pracovat. Dávkové konverze 36mpx fotek v RAW jsou bleskové a přitom aktivní chlazení se spouští v opravdu jen krajích případech. Ta efektivita toho procesoru je neuvěřitelná.
Ano, také tomu něvěřím, Ps, 500mpix fotky, práce plynulá, ukládání 5x rychlejší než na stanici s xeonem a přitom se tváří, že má spotřebu lehce nad 1W.
Cestovní batoh na focení se mně zlehčil o 2.5Kg jen výměnou notebooku a ještě jsem tam schopný fotky zpracovávat rychleji než na stolní stanici. Škoda jen slabé podpory externích monitorů nebo problematické podpory 10+Gb/s sítí.
Takové hodně zvláštní porovnání... :D
Vždyt na Asahi Linux chybí spoustu optimalizací na všech frontách.
Proč ty testy nedělají pod OSX?
Nejsem vůbec příznivec Apple, vlastně ho nemám rád. Ale už stroje s M1 mají výkon/watt úplně ale úplně jinde, než všechno co známe. Řekl bych, že M1 je na tom lépe než Zen 4.
Mám tady Air a MacMini s M1 a ten HW je prostě skvostný. Ať na tom děláte cokoli, tak se to pocitově ani trochu nezahřeje a přesto to dává stále obří výkon.
x86 se pasivně rozhodně jen tak neuchladí. Musel by se podtaktovat na takových 800 Mhz/jádro aby to mělo podobné TDP. To ovšem už by byl výkon na hony daleko.
Za to Apple gratuluji a smekám. Když jsem měl M1 nově několik dnů, připadal jsem si jako na HW z budoucnosti.
Takže prosím udělejte testy s výkonem/watt a pak si popovídáme znovu.
Zajímavé je asi, jak se bude dařít Lenovo ThinkPad T14 Gen 3 s Intelem Core i7-1260P vs AMD Ryzen 7 6850U hlavně s ohledem na to, že Intel může mít až 48 GB (ale potom asymetrické a potenciálně tedy ne dual-channel?) paměti, která je o něco pomalejší než těch 32 GB DDR5 u AMD. Spotřeba u AMD je už i podle specifikace výrazně lepší, otázka je, jestli se nebude Intelí ThinkPad teplem zpomalovat. Na druhou stranu, Intel podporuje Thunderbolt a tedy PCIe pro připojení evtl. dalších periferií. U modelu s AMD třeba bude Thunderbolt později - chipset by to měl podporovat, ale otázka je, jestli to je i správně zadrátované a rozchozené ve firmwaru Lenova, které podporu nedeklaruje.
Nakonec je faktorem i dostupnost. Intelí ThinkPad už dostupný u nás je, AMD ne.
Už roky se u většiny notebooků musíte koukat na schopnosti uchladit výkon dlouhodobě a ne jen na papírové parametry. A to ty Intely netopily tolik jako ty nové. Stávalo se, že horší CPU/GPU dokázalo po zahřátí dodávat větší výkon než vyšší model v té samé šasi s tím samým chlazením (agresivní throttling). Pokud to notebook dokáže uchladit, tak počítejte s hlukem, že budete muset mít uzavřená sluchátka (a lidi okolo vás taky).
18. 8. 2022, 18:08 editováno autorem komentáře