Není to už jen souboj AMD/Intel. Už dnes je jasném že Apple Silicon je naprostá špička na laptopu i desktopu a velká konkurence pro Intel i AMD.
Výkonově je minimálně srovnatelná s tím nejlepším co má AMD/Intel na desktopu i laptopu, ale s výrazně nižší spotřebou.
Take on to nebude jen souboj x86 firem, ale i souboj x86 vs ARM.
A co na to RISC-V?
"Apple Silicon" je naprostá špička proto, že jej Apple vyrábí nejpokročilejším výrobním procesem, kterým zatím ani AMD nedělá Ryzeny. A k tomu optimalizuje macOS, zatímco Intel dělá CPU na technologicky nepovedeném procesu a musí mu vše fungovat od Windows 7-8-10-11, přes Linux a BSD až třeba po Solaris. Není to ani tak souboj x86 a ARM? jako spíš souboj o to, kdo bude mít pro svůj produkt nejpokročilejší výrobní proces u TSMC. Víme, že 5nm Zen4 bude dávat minimálně 5GHz all-core Boost.
Chtělo by to i podotknout, že jednoduché operace drtí. OK chápu, máš tam celé nové odladěné a nově odpíchnuté od 0.
Ale... dej tam 3D úlohy a najednou je z toho troska... Dej tomu 3D hry a najednou je to troska. Svévolné využití na internet a počítání a odladěným úlohám je jasné jak to skončí. Něco jako Intel co si kupuje exkluzivitu na svá CPU a je "divné", že to tak je.
A jak říkáš, odladit to na jedno OS, je to nejlehčí co může být.
U tech her je to velmi zajimava otazka. Je logicke, ze na ARM hry zkompilovane pro x86 i 64bitove proste nepojedou tak dobre jako na nativni platforme. Takze pri pripadnem prechodu na ARM proste budou existovat novejsi hry, ktere nebude mozne rozjet na takovou kvalitu. Starsi hry nejspis nebudou mit problem. V rezimu nejake kompatibility samozrejme. Ale podle me se do toho nikomu nechce. Kde to muze prijit a pak se mozna rozsirit jsou konzole, kde ted bezi jak na PS, tak na Xboxu x86-64. Mozna akvizice ARMu Nvidii by tomu mozna taky pomohla, ale z toho myslim seslo (narozdil od AMD a Intelu pro ne neni vyroba CPU hlavni). Jsem docela zvedavy, protoze to je klasicky problem vejce-slepice. Na novou platformu potrebujes dostat programy, ale abys je vytvoril/zkompiloval, tak potrebujes novou platformu. Nejake programy typu Office (a i ty nejsou na M1 ve stejne kvalite) nebudou mit problem, ale hra ve 4K na 120+ fps uz ano. Zda se mi, ze i konzole uz zacinaji narazet na TDP / chlazeni, kdyz vidim, jak je treba PS5 obri radiator.
Myslím si, že se nejedná jen o dostupnost technologie, instrukční sada ARM AArch64 s instrukcemi pevné délky umožňuje vzít 32-bytů a dekódovat osm instrukcí naráz v podstatě s jednoduchým paralelním dekodérem (*1) naopak na straně x86 dekódování i jen 4 instrukcích v jednom hodinovém cyklu je vrcholným uměleckým dílem ať již na straně AMD nebo Intelu. Ano, je zde trace cache pro vnitřní cykly, která dodá až 6 přeložených mikro/makro instrukcí na takt ve vnitřních smyšcách, ale stáel je to málo. Teď se zdá, že se Intel dokáže posunout na těch 6-instrukcí.
U AArch64 si ale trochu myslím, že pro některé úseky kódu je těch 32-bitů na jednoduchou instrukci moc a na druhou stranu adresování je někdy o dost složitější než na MIPS nebo RISC-V a do dispatche pak jde jako dvě mikro opperace. Takže nakonec jednodušší adresování na RISC-V a možnost to komplexnější nahradit dvojicí 16-kódovaných instrukcí může být výhra. Nakonec za zavedení metriky na posuzování návrhu procesorů a kódování instrukcí v Quatitativ Approach dostali páni profesoři Patterson a Hennessy v roce 2017 Turing Award - přitom RISC-V je navržený studentem, spolupracovníkem prof. Pattersona za posuzování podle těchto metrik. Nakonec ARM již SVE i asi na základě jejich návrhu pro RISC-V zavedl. Ale obecně kódový prostor v instrukcích zablokovaný mnoha zbytečnými instrukcemi již těžko uvolní.
Více viz moje starší přednáška z InstallFestu 2021 Vývoj architektur procesorů na příkladech inovací od i4004 k Apple M1 a generacím RISC-V,, je to závěrečné shrnutí a výhledy k předmětu Architektura počítačů, kde letos s výukou přecházíme na RISC-V simulátor (online).
(*1) Ono i po jednoduchém dekódování se z řešení závislostí občas procesorům a i jejich návrhářům pěkně zamotá hlava, viz třeba mé přednášky a záznamy z předmětu Pokročilé architektury počítačů https://cw.fel.cvut.cz/wiki/courses/b4m35pap/lectures/start.
AArch64 je právě ukázka toho, že fixní délka instrukce nemusí být vůbec na škodu. Kód zkompilovaný pro AArch64 není nějak větší než třeba X86. AArch64 je v tomto ohledu celkem promyšlená instrukční sada.
Právě THUMB byl průser - komplikuje to ARM32 dekodér a celkově úspora není nic moc. RISC-V je na tom trochu líp, protože ty 16-bit instrukce jsou navržené celkově mnohem systematičněji, ale na druhou stranu RISC-V je celkem jednoduchý a nemá nějaké praktické instrukce, které má AArch64, takže třeba prolog/epilog ve funkci je u RISC-V zbytečně dlouhý (AArch64 má instrukce pro register pair, takže jedna 32-bit instrukce udělá jakoby 2x load/store, což se u prologu/epilogu funkcí hodí).
Jinak u RISC-V se mi líbí, jakým způsobem je ta instrukční sada navržená a jakým způsobem se navrhují různé rozšíření. Jde fakt vidět, že ti lidi přemýšlí a chcou z toho vytěžit maximum.
Třeba bitmanip: https://courses.cs.washington.edu/courses/cse481a/20sp/notes/bitmanip.pdf
19. 2. 2022, 10:52 editováno autorem komentáře
Ad optimalizacia ovladacov Intel Arc - neviem preco je to vzdy komentovane stylom ze Intel je novym hracom na poli grafik, ved kratky pohlad do wikipedia hovori, ze prva grafika intelu je i740 s directx 5.0 z roku 1998 a presne od toho momentu museli riesit kompatibilitu aplikacii s ich hardverom. Vystriedali uz minimalne 3 rozne architektury na ktore museli stare ovladace preklopit, Arc je skratka len nova architektura firmy ktora robi grafiky 24 rokov.
Ad ceny AMD notebookov, posledne roky vzdy ked hladam optimalne kancelarske modely AMD s rovnakym vykonom ako Intel, tak AMD vychadzaju o 100-200 eur lacnejsie aj v zakladnych aj vo vykonnych modeloch
Je potřeba víc, než jen číst Wikipedii. Třeba se zeptat dobových hráčů, jak "vynikajícím" produktem i740 byla (případně i752). Pak zapřemýšlet, kam se od té doby svět vyvinul. DX5-0 éra, to nebyla GPU, nebyly shadery, nebyl raytracing. A je něco jiného, když na Intel Gen9 běží DX9.0c hra v 1366×768 v nízkých detailech přibližně plynule, než když má v den uvedení běžet nová AAA hra na kartě s DX12+raytracingem, vše v 3840×2160 na plné detaily s novými AA/AF algoritmy atd.Tohle když začalo bejt příliš komplexní, vznikaly programy jako Nvidia TWIMTBP, která si tím zajišťovala, že ty hry poběží na jejích GPU v pořádku. Čili ano, Intel měl i740 už zhruba před čtvrt stoletím, ale od té doby nic, nic, NIC. Prochrápal víc než 20 let, během kterých herní enginy prodělaly vývoj jako od Škody 105 k Enyaqu.
ale Intel si za to moze sam.
mna napriklad pobavilo ze opat po cca 9-11 rokoch tu je IIIO (Intel Inside Idiots Outside)
ich "vykon" a spotreba opat zacinaju byt strasne rozdielne (na rovnaky vykon ako AMD potrebuje Intel 2x vyssi prikon)
Ivy/Sandy Bridge aj Haswell mali TDP priblizne rovnake prikonu (53W TDP = 55W prikon)
momentalne napr. Intel Core i5-10600K (125W TDP) v Idle 72W, bezne 179-180W?
a GPU no Intel s Kodurim si budu musiet zajednat niekoho z nvidie
"napr. Intel Core i5-10600K (125W TDP) v Idle 72W, bezne 179-180W" ... lžete.
10600K nespotřebováv v idle 72W. Možná nějaká na něm postavená sestava, ale to CPU v žádném případě. Je to lež. A jestli 10600K běžně bere 180W? Opět lež, bere tolik, na kolik si nastavíte systém, obzvláště to pak platí pro tyhle odemčené procesory.
Já provozuji TDP65W 10400F a v závislosti na tom, jak to nastavím v BIOSu, tak to baští. Tečka. Podobně byste mohl psát, že Ryzen 5950X je TDP 105W a přitom umí brát i 140W. Ale byla by to zhruba stejná lež.
no neviem najst screenshoty z HW info. spusteny Windows 10 + HWinfo64.
Zostava bola mierne taktnuta (cca 10-11%) CPU, MB + 1x SSD 480GB.
podobne to vyslo guru3D https://www.guru3d.com/articles-pages/intel-core-i5-10600k-processor-review,5.html
Ano "Ryzen 5950X je TDP 105W a přitom umí brát i 140W"
ale nie je to pri browsovani ale pri loade.
Aha, takže z obecné informace o 180W odběru 10600K je najednou sestava, kdy je tento OC model navíc přetaktován o dalších 11%? A pak hovoříte o tom, že 5950X nežere 140W při surfování? No, to 10600K taky nežere, jede hezky v klidu jako moje 10400F. Ta žere 130W (celé PC s 2x SSD a 1x HDD a 40nm Radeonem) taky jen při 100% zátěži CPU, při surfování bere celé PC cca 30W. Takže nejen že lžete, ale i manipulujete? Pročpak to děláte, pane?
Intel se bude plácat na horkém poli ještě dlouho.... Jde o to, že AMD "přečůrala" s tím, že si čipy poslepuje (hlavně Intel se tomu smál a Nvidia jak by smed).
AMD s lepením čipů, nebo vzájemnou kooperaci na poli GPU má dlouho zkušenost (ATI HD 7990), ale tehdy to bylo neefektivní a hlavně žralo to.
AMD se líbí ty čiplety, jelikož může víceméně použít všechny linky ve výrobě co by náhodou dostaly volno a reálně nedůležité věci nevyrábět na drahém monolitu.
Jediné co je asi tak špatného je, aby AMD nezaspalo jako kdysi.. případně zvýšených cen do budoucna. Dnes mimo NTB a servery to začíná být dražší...
Nebyl to Intel, který slepoval dvě Pentia do podoby těch prvních žravých 4core Pentií D, zatímco se AMD patlala s jednokřemíkovými Phenomy X4? Slepovat zkouší všichni už mnoho let. Vždyť i Samsung si pohrává s TSV dobře přes dekádu. AMD to díky TSMC jen vzládla rychleji a efektivněji. Intel to dohání.