Počkat vždyť Intel přijde v září:
Během živě přenášené akce odhalí podrobnosti o průlomové energetické účinnosti nových procesorů x86, výjimečném výkonu jáder, obrovském skoku v grafickém výkonu a bezkonkurenčním výpočetním výkonu umělé inteligence, který bude hnacím motorem této i budoucích generací produktů Intel,
Problém Intelu je, že neměl konkurenci a začal totálně stagnovat. Dalším problémem jsou nasmlouvané dodávky procesorů pro firmy, tohle ještě nějakou dobu pojede samospádem, až to ty firmy začnou měnit za AMD (nebo něco jiného), tak to bude teprve mít Intel obří problém (pokud tedy nepřijdou s něčím novým a skvělým, čemuž nevěřím). Nejhorší je, že v odvětví procesorů je slabá konkurence a pokud jeden výrobce začne převyšovat druhého, tak se inovace zastavují a tím přichází stagnace celého odvětví a zvyšování cen. To samé nastane i u AMD pokud se Intel nevzchopí. Snad s trhem zamává ARM nebo RISC-V.
Moc se v problematice neorientuju, ale myslím, že RISC-V je trochu bublina. Určitě je fajn mít relativně otevřenou architekturu a málo jednoduchých instrukcí, ale momentálně to vidím tak, že:
* S RISC-V experimentuje hodně Čína, protože chce mít něco, co není vázané na západní svět (x86-64, ARM)
* RISC-V je sice v základu jednoduchý procesor co na spoustu věcí stačí, nicméně má hrozně moc rozšíření, třeba proto, aby na tom vůbec mohl běžet moderní OS, instrukce pro floating point, vektorové instrukce, akcelerace šifrování apod. Jinak se to hodí pro nějaký FreeRTOS a průmyslová zařízení
* Veškterá jednoduchost jde do háje, když to má na 2GHz běžet tak dobře jak notebookový procesor: cache, predikce skoků, pipelining při zpracování instrukcí, spuštění několika instrukcí v jednom taktu, synchronizace cache a přístupu do paměti napříč jádry, ...
* Současné procesory (v Čínských SBC) jsou vyráběny levně, starými technologiemi a energetická účinnost je ještě horší než u nějakého ARMu v Raspberry Pi3
Pokud to někdo vidí jinak, rád si upravím názor, protože tomu fandím.
9. 8. 2024, 10:22 editováno autorem komentáře
Jenže na x86 je toho nabaleno taky hodně. Je potřeba si uvědomit, že do x86 se dlouhou dobu investují obrovské prachy aby ta architektura byla tam kde je dnes. Nikdo netvrdí, že RISC-V může v současné době konkurovat x86 ale třeba za 5-10 let to klidně může být, pokud bude x86 stagnovat díky svému náskoku.
Já si hlavně myslím, že lidi, kteří doufají v RISC-V, se mýlí pokud jde o jeho potenciální přínos. Mít royalty free ISA je příjemné pro výrobce mikroprocesorů, ale uživateli to může být jedno. Ostatně ARM i x86 jsou důkazem, že i u proprietární instrukční architektury může být živá konkurence mezi výrobci. Naopak RISC-V sám o sobě nijak nebrání výrobcům používat proprietární mikrokód, mít zabudovaný malware typu Management Engine apod.
Hlavní přínos otevřené architektury je, že komunita vytvářející často za své (nebo z jiných zdrojů než od dodavatele procesoru) vývojové nástroje, operační systémy atd. nemůže být jen tak majitelem architektury zneužitá a i když se jeho přístup stane nemravným, tak díky již nainvestované práci nemít konkurenceschopnou alternativu. Přitom tohoto vnucení světu špatného základu jen Microsoft využil mnohokrát. Donutil firmy používat DOS pro jeho rozšířenost mezi uživateli. Těm co měli na víc než Microsoft vnutil utratit um daleko převyšující návrh celého DOS do vytváření DPMI (DOS Protected Mode Interface), portu BSD TCP/IP socketů nad DOS, pak nad Windows 3.1 atd. A to několikrát opakovaně v různých firmách. Tedy vyčerpal konkurenci a to i včetně IBM na Windows a OS2. Přitom kdyby ten špatný základ nebyl, tak každá z těch firem byla schopná přijít za ty na DOS a Windows vynaložené prostředky na systém o dvě generace před Mcrosoftem. Úplně stejné to bylo ve vývoji procesorů, MIPS, Sparc, Alpha byly daleko před Intelem, ale ve spolupráci s Microsoftem, který slíbil a udělal nedotaženou podporu v NT jak pro Alpha, MIPS, PowerPC atd. a pak ukázal, že nelze používat, stejně tak s POSIX subsystémem pro NT, tak zajistili i včetně akvizicí a slibů (Itanium), že ostatní ztratili trh a vyčerpali se. Nic z toho nebylo u nich vzniklo technickou schopností. Občas někoho s nápadem díky prostředkům přetáhli od jiných, Dave Cutler NT, Anders Hejlsberg C# atd.
Naopak otevřená architektura tento vendor lock-in potlačuje. Luke Wren na základě cizích i svých předchozích projektů navrhl Hazard3 za pár týdnů a již je z něj použitelná alternativa k ARM Cortex-M s veškerým ekosystémem použitelná třeba v RP2350 / Raspberry Pi Pico 2 a i pokud preferujete ARM, tak toto zajišťuje že nemůže žádat nesmyslné výpalné.
Ano, pro velké procesory je ta cesta delší, na roky, ale na druhou stranu možnost experimentování s rozšířeními nad nějakým společným základem (Domain Specific Architectures) umožňuje rychleji zkusit mnoho směrů pro AI, GPU atd, které by jinak měly extrémní počáteční náklady.
Jenomze je treba si uvedomit jednou zasadni vec. Otevrena ISA nedela fyzicke a funkcni cpu. Neobsahuje specifikaci logickych obvodu ani design na urovni jednotlivych elektronickych obvidu ci finalni masky. Toto je kvuli obrim nakladum na takovy vyvoj stejne uzavreno a i casti(chiplety) stejne mohou byt zalicencovane i tretim stranam.
Já jenom podotknu, že problém NT na Alpha, MIPS, PowerPC a dalších nebyl v tom, že by port Windows byl nějak špatný. Naopak fungoval velmi dobře, a workstations na Alpha a PowerPC se reálně používaly. Problém je v tom, že se jich prodávalo málo, nebylo to rentabilní. Ne-Intel PC bylo prostě daleko dražší, a pokud člověk nutně nepotřeboval výkon, který na Intelu nedostal, tak je nemělo žádný smysl kupovat. To z ne-Intel PC (i serveru) udělalo naprosto okrajovou záležitost. Mít OS podporovaný na více platformách, které prakticky nikdo nepoužívá, a jsou z toho jen náklady na podporu těch platforem, je dost na nic.
Pokud jde o DOS a Windows, a jejich kvalitu, tak berte v úvahu omezení HW. Například Windows 95 měly "obrovské" HW nároky. Samozřejmě by se daly použít rovnou Windows NT, ale ty vyžadovaly (ve verzi 4) 16MB RAM, kdežto Win95 vystačily se 4MB. Přitom ani ty 4MB většina PC neměla, a pro zákazníky to byl nesmírně drahý upgrade. OS/2 byla architektonicky lepší než Win9x, ale také chtěla (ve verzi 4) 12MB RAM, a ve srovnání s WinNT nevycházela nijak dobře. WinNT i OS/2 měly problém s dostupností driverů, protože výrobci prostě dál psali drivery (například síťových karet a CD-ROM mechanik - jako fakt) jen pro DOS. Ty ale šlo použít s Win9x. K tomu Win9x měly téměř stoprocentní kompatibilitu se SW pro DOS, což OS/2 ani WinNT nenabídly. Můžete se divit jak chcete, ale tohle jsou prostě aspekty, které tehdy na trhu rozhodly.
> Ne-Intel PC bylo prostě daleko dražší, a pokud člověk nutně nepotřeboval výkon, který na Intelu nedostal, tak je nemělo žádný smysl kupovat.
Ano, vzhledem k výkonu vůbec drahý nebyly. Ale v té době šel výkon všeho rychle nahoru, a jak se Intel začal přibližovat, tak převážily ostatní věci, jako horší kompatibilita s ostatním software. Mimochodem, po FX!32 přišla 32bit emulace i pro ostatní platformy přímo od MS.
Ta ne-Intel PC byla alternativou k drahým unixovým workstations, které si jejich výrobci nechali div ne vyvažovat zlatem. Jenže jak jsem psal já, je to dost malý trh. A jak jste psal vy, výkon Intelu šel nahoru, což ten trh ještě zmenšilo. Nakonec to je i důvod, proč v podstatě skoro vymřely "tradiční" Unixy. Přišly PC servery s Windows NT, byly až směšně levné, na spoustu věcí stačily, a snadno se administrovaly. Pak se rozšířil Linux, a ten přetáhl na Intel ty zákazníky, kteří chtěli zůstat na Unixu.
Emulace je teoreticky skvělé řešení problému, a mé srdce, které bije ve dvojkové soustavě, zaplesá. V praxi je ale emulace pomalá, a má mouchy. Koupíte si řekněme 5x dražší stroj, abyste dostal všechen ten výkon, a poběžíte na něm aplikace v emulaci s nižším výkonem, než na tom 5x levnějším stroji na Intelu, a ještě s občasnými problémy. To není moc výhra. Tím nechci tvrdit, že emulace nemá smysl. Ale praktické přínosy emulace jsou kupodivu menší, než by člověk čekal. Navíc pokud ji budete brát jako "přemostění" na dobu než vývojáři vydají nativní verzi pro cílovou architekturu, tak často zjistíte, že prostě nevydají. Mimochodem na architekturách typu RISC za tím mohou být i problémy s data alignmentem, protože co není správně aligned, to většinou prostě nelze použít. Samozřejmě můžete struktury triviálně upravit, ale pokud je používáte v souborových formátech, tak tím přijdete o jejich kompatibilitu.
Dobrá emulace je 2/3 výkonu (Apple Silicon, Qualcomm Elite, FX!32 na Alpha, ...) a bavíme se o procesorech, kde ten hrubý výkon je dost slušný. V případě přechodu Apple na ARM tak dokonce emulovaný kód byl rychlejší než nativní na předchozí generaci s Intelem. To samé teď Qualcomm Elite, který si dobře vede s x86 notebookovými procesory, a to na něm skoro všechen kód jede emulovaně (ekosystém Windows). A průměrně zvládnutá emulace není 1/5 výkonu, x86 na PowerPC bylo 1/3 nativního výkonu (provozoval jsem Windows na iBook G4 v MS VirtualPC). Pomalé bylo až např. FPU na ARM Cortex, kde narozdíl od Apple Silicon a Qualcomm Elite chybí emulace x86 FPU (stavy nad rámec ARMu, např. výsledek je +oo, -oo apod.). Na Cortexu se musí každá FPU operace obalit doplňujícími testy.
31. 8. 2024, 23:13 editováno autorem komentáře
Pokud jde o výkon v emulaci, tak tam je 1/5 nebo 1/3 hrubým zjednodušením, protože se to liší podle aplikace.
Emulace má smysl, pokud v ní SW běží dostatečně rychle, a zároveň dává ekonomicky smysl pořízení ne-Intel HW. V případě Qualcomm Elite se dá mluvit o tom, že emulace funguje relativně slušně, ačkoliv ve specifických některých případech má problémy s výkonem a/nebo stabilitou. Výhodou je slušná výdrž takového ne-Intel stroje. Bohužel to ale cenově vychází o desítky procent dráž, než srovnatelný výkon na Intelu. Myslím že pokud se HW nedostane cenově pod úroveň Intelu, tak je tu riziko, že to znovu vyšumí do ztracena.
> Pokud jde o výkon v emulaci, tak tam je 1/5 nebo 1/3 hrubým zjednodušením, protože se to liší podle aplikace.
Proto jsme to sami testovali v různých apikacích. Máme doma x86, ARM, Alpha, PowerPC a v práci ještě Itanium.
> V případě Qualcomm Elite se dá mluvit o tom, že emulace funguje relativně slušně, ačkoliv ve specifických některých případech má problémy s výkonem a/nebo stabilitou. Výhodou je slušná výdrž takového ne-Intel stroje.
O tom to je. Výkon stačí čím dál více lidem a naopak využijí bonusové vlastnosti, např. tu výdrž ve střední zátěži. Intel dokáže idlit taky dlouho, ale dnes 10-20 tabů v Chrome a 5 Electron aplikací minimalizovaných v traybaru už není idle zátež.
> Bohužel to ale cenově vychází o desítky procent dráž, než srovnatelný výkon na Intelu. Myslím že pokud se HW nedostane cenově pod úroveň Intelu, tak je tu riziko, že to znovu vyšumí do ztracena.
Srovnatelné notebooky nejsou levnější než ty s Qualcomm Elite a dokonce ty modely oproti předchozí generaci s Intelem zlevnily. Ono taky na výrobu Qualcomm Elite stojí polovinu co Intel a už je ohlášena ještě levnější verze. Tohle je teprve začátek. Doteď na PC/ARM chyběla akcelerace emulace x86, v podobě strong memory modelu a doplňujících typů výsledků ve floating point výpočtech. Předchozí vlna v roce 2017 byly jen Cortexy bez akcelerace emulace a první vlna (Windows RT) dokonce měla zakázáno obsahovat emulaci (v té době měl Intel silné lokty). Přitom všechny předchozí verze Windows (před-ARMové ne-x86) obsahovaly emulátor x86.
> jsme to sami testovali v různých apikacích. Máme doma x86, ARM, Alpha, PowerPC a v práci ještě Itanium
Pěkná sbírka. Já jsem nikdy víc ne-Intel PC pohromadě neměl, takže přímé srovnání nemám.
> Srovnatelné notebooky nejsou levnější než ty s Qualcomm Elite
Co jsem se díval, tak mi Intely zatím levnější připadají. Ale ano, Qualcomm přichází s levnějšími modely, a mimochodem Intel s novou generací CPU. Qualcommu držím palce. Ať to dopadne tak nebo jinak, bude to výsledek tvrdého konkurenčního boje, a to je pro nás zákazníky vždy výhra.
> všechny předchozí verze Windows (před-ARMové ne-x86) obsahovaly emulátor x86
Windows na ARMu (RT) měly jiný cíl. Google přišel s Chromebooky, které toho sice moc neumí, ale zase se snadno používají a spravují. Ve velkém je používají americké školy. MS chtěl využít situace, a uvedl Windows ARM tablety, s tím že to budou stroje podobné telefonům nebo Chromebookům. Aplikace jen UWP ze Storu, a k tomu řada zjednodušení oproti klasickým strojům s Windows, a ořezání spousty legacy features. Ty stroje na trhu naprosto propadly. Dalším krokem proto byly Windows 10 na AMRu, které odstraňovaly většinu omezení, a mimo jiné měly x86 emulátor. Z toho Store-only módu, tzv. S-mode, se daly přepnout na klasické Windows.