Intel jako společnost nelze porovnávat s AMD, protože na rozdíl od AMD nepředstavuje pouze komerční subjekt procesorů a grafických karet. Právě naopak, Intel patří mezi hrstku vyvolených strategických partnerů federální vlády, kde pravidla komerčního trhu neplatí a federální vláda svůj strategický klenot padnout nenechá. Na jednu stranu je to dobře, na druhou se v něm udrží i zbyteční a stupidita DIE.
V oblasti obranných systému přejít nemůže, protože komerční pravidla přestávají platit v okamžiku, kdy se do toho začne míchat bezpečnost a obranné složky, respektive abych byl přesný, těžko svěříte vývoj, výrobu a dodávky SoC pro Minuteman III někomu třetímu. Na jednu stranu víte, že Intel federální vláda a řetězec obranného průmysl padnout nikdy nenechá, ale současně jste svázán omezeními.
Bude-li vůle, změní se komerční část (divize), ale Intel jako takový ne. Vlastně se nemůže zbavit ani ztrátových výrobních kapacit a zkušených lidí, protože ty čipy vyráběné v malých sériích budou potřeba dalších 20-30 let v nezměněné podobě (dotované).
Je to jak rika buldr. Intel neni bezna komercni spolecnost, ale strategicky podnik. Americke rodinne stribro stejne jako zminovany Boeing. Ty vlada usa padnout nenecha. Uz jen proto, ze maji tovarny na cipy ve statech a vime, jak je to s Taiwanem... Vsak taky kousek dozadu dostali tezky milardy usd na rozvoj cipu a AMD? Utrela nos.
Tadnej pruser s fabrikou nebyl, amd se nedarilo, tak podepsalo smlouvu s intelem, ze jim daruji prachy nebo technologie nebo knoh how a jedna z podminek intelu byla aby zavreli vyrobu. AMD kyvlo a misto aby fabriku zavreli, tak ji jen prodali. To jaksi v clanku nezaznelo a dela se z toho halo, ze AMD udelalo razantni krok... neudelalo, bylo donuceno Intelem.
Nemyslím si, že zrovna toto Intel nějak brzdí. Ani ho to nestojí velké prachy. Ty čipy jsou vlastně zastaralé, jejich vývoj už byl dávno zaplacen a výroba zas tak náročná není. Intel nevyrábí jen CPU na nejvyšších procesech, ale spoustu dalších, jednodušších IO, takže tyhle čipy se svezou s totuto jednodušší výrobou.
Článek se mi líbil, souhlasím s ním, popisuje důvody, proč Intel začal padat na kolena víceméně podobně, jakou o tom mám představu i já.
Nicméně, rád bych doplnil, že s Intelem to bude složitější díky geopolitické situaci:
1. Je to jediná konkurence pro TSMC, která je navíc v US.
2. Nechat padnout Intel je strategická hloupost západního světa, protože momentálně výrobní procesy mají domov v Asii, což vzhledem k přítomnosti Číny není moc fajn.
3. No samozřejmě je Intel chlouba Ameriky, nějak se mi nechce věřit, že vláda bude jen tak přihlížet pádu jejich národní modly, na které vyrostlo 21. století ve jménu digitálního věku.
Můj osobní komentář: Intel jsem neměl rád už dlouho a byl jsem jen rád, že existuje konkurence, protože to je vždy dobré. Cca od 7 generace to začalo jít do háje. Poslední trošku normální CPU byl 6 generace a to už vymýšleli ptákoviny se skylake a skylake-x.
Mám doma i7 4790, to celá 4 generace byla za mě naprosto úžasná, hrát se na tom dá do teď.
Intel ve stávající podobě nebudu mít rád a dokud se nezmění samotný Intel, tak se nezmění ani moje stanovisko vůči Intelu. Jen tajně doufám, aby na to AMD teď nezačalo prdět, jako to začal dělat Intel u 8 a hlavně pak 9 generace skrz neexistující konkurenci.
Intel nezkrachuje - je to pořád firma, co umí vydělat peníze a jejich foundry business bude mít zákazníky. I nVidia chce diverzifikovat a vyrábět v Intel fabrikách, dokonce i Apple projevil zájem.
Problém Intelu je hlavně ten, že TSM díky volume mělo obrovskou výhodu a prachy na vývoj a ladění procesu, kdežto Intel přiznal, že jejich fabriky nevyrábí na 100%.
Ale Intel si za to může sám a to co dnes vidíme to je akumulace špatných rozhodnutí za posledních 10 možná i 15 let.
Najednou, když Intel není leader ve výrobním procesu ani ty CPU nestojí za nic. Stačí se podívat na nový Zen5 - AMD drtí Intel v jeho vlastní hře, protože si to může dovolit kvůli výrobnímu procesu, a Intel udělal co? Vzal zákazníkum tu nejzajímavější technologii - AVX-512. Marketingové oddělení má Intel ale skvělé - vymyslel AVX10, prodává ho jako budoucnost, a přitom je to jen polovina AVX-512. Ale to běžný Franta netuší.
To bylo jen první jednu dvě generace. Pozdější už byly ok a na AMD to bylo vždy ok. Kvůli CISC instrukční sadě je problém s dekodérem instrukcí a široký SIMD je právě způsob, jak to obejít. Bez něj je x86 jen legacy ISA, která sice vždy bude mít specifické uplatnění, ale bude čím dál víc hrát druhé housle i na PC (vlastně všude jinde už dávno umřelo). Naštěstí x86 zas zachraňuje AMD, tak snad se OEM pochlapí (zvlášť když budou čelit reklamacím počítačů a serverů s Intelem).
Počkat vždyť Intel přijde v září:
Během živě přenášené akce odhalí podrobnosti o průlomové energetické účinnosti nových procesorů x86, výjimečném výkonu jáder, obrovském skoku v grafickém výkonu a bezkonkurenčním výpočetním výkonu umělé inteligence, který bude hnacím motorem této i budoucích generací produktů Intel,
Problém Intelu je, že neměl konkurenci a začal totálně stagnovat. Dalším problémem jsou nasmlouvané dodávky procesorů pro firmy, tohle ještě nějakou dobu pojede samospádem, až to ty firmy začnou měnit za AMD (nebo něco jiného), tak to bude teprve mít Intel obří problém (pokud tedy nepřijdou s něčím novým a skvělým, čemuž nevěřím). Nejhorší je, že v odvětví procesorů je slabá konkurence a pokud jeden výrobce začne převyšovat druhého, tak se inovace zastavují a tím přichází stagnace celého odvětví a zvyšování cen. To samé nastane i u AMD pokud se Intel nevzchopí. Snad s trhem zamává ARM nebo RISC-V.
Moc se v problematice neorientuju, ale myslím, že RISC-V je trochu bublina. Určitě je fajn mít relativně otevřenou architekturu a málo jednoduchých instrukcí, ale momentálně to vidím tak, že:
* S RISC-V experimentuje hodně Čína, protože chce mít něco, co není vázané na západní svět (x86-64, ARM)
* RISC-V je sice v základu jednoduchý procesor co na spoustu věcí stačí, nicméně má hrozně moc rozšíření, třeba proto, aby na tom vůbec mohl běžet moderní OS, instrukce pro floating point, vektorové instrukce, akcelerace šifrování apod. Jinak se to hodí pro nějaký FreeRTOS a průmyslová zařízení
* Veškterá jednoduchost jde do háje, když to má na 2GHz běžet tak dobře jak notebookový procesor: cache, predikce skoků, pipelining při zpracování instrukcí, spuštění několika instrukcí v jednom taktu, synchronizace cache a přístupu do paměti napříč jádry, ...
* Současné procesory (v Čínských SBC) jsou vyráběny levně, starými technologiemi a energetická účinnost je ještě horší než u nějakého ARMu v Raspberry Pi3
Pokud to někdo vidí jinak, rád si upravím názor, protože tomu fandím.
9. 8. 2024, 10:22 editováno autorem komentáře
Jenže na x86 je toho nabaleno taky hodně. Je potřeba si uvědomit, že do x86 se dlouhou dobu investují obrovské prachy aby ta architektura byla tam kde je dnes. Nikdo netvrdí, že RISC-V může v současné době konkurovat x86 ale třeba za 5-10 let to klidně může být, pokud bude x86 stagnovat díky svému náskoku.
Já si hlavně myslím, že lidi, kteří doufají v RISC-V, se mýlí pokud jde o jeho potenciální přínos. Mít royalty free ISA je příjemné pro výrobce mikroprocesorů, ale uživateli to může být jedno. Ostatně ARM i x86 jsou důkazem, že i u proprietární instrukční architektury může být živá konkurence mezi výrobci. Naopak RISC-V sám o sobě nijak nebrání výrobcům používat proprietární mikrokód, mít zabudovaný malware typu Management Engine apod.
Hlavní přínos otevřené architektury je, že komunita vytvářející často za své (nebo z jiných zdrojů než od dodavatele procesoru) vývojové nástroje, operační systémy atd. nemůže být jen tak majitelem architektury zneužitá a i když se jeho přístup stane nemravným, tak díky již nainvestované práci nemít konkurenceschopnou alternativu. Přitom tohoto vnucení světu špatného základu jen Microsoft využil mnohokrát. Donutil firmy používat DOS pro jeho rozšířenost mezi uživateli. Těm co měli na víc než Microsoft vnutil utratit um daleko převyšující návrh celého DOS do vytváření DPMI (DOS Protected Mode Interface), portu BSD TCP/IP socketů nad DOS, pak nad Windows 3.1 atd. A to několikrát opakovaně v různých firmách. Tedy vyčerpal konkurenci a to i včetně IBM na Windows a OS2. Přitom kdyby ten špatný základ nebyl, tak každá z těch firem byla schopná přijít za ty na DOS a Windows vynaložené prostředky na systém o dvě generace před Mcrosoftem. Úplně stejné to bylo ve vývoji procesorů, MIPS, Sparc, Alpha byly daleko před Intelem, ale ve spolupráci s Microsoftem, který slíbil a udělal nedotaženou podporu v NT jak pro Alpha, MIPS, PowerPC atd. a pak ukázal, že nelze používat, stejně tak s POSIX subsystémem pro NT, tak zajistili i včetně akvizicí a slibů (Itanium), že ostatní ztratili trh a vyčerpali se. Nic z toho nebylo u nich vzniklo technickou schopností. Občas někoho s nápadem díky prostředkům přetáhli od jiných, Dave Cutler NT, Anders Hejlsberg C# atd.
Naopak otevřená architektura tento vendor lock-in potlačuje. Luke Wren na základě cizích i svých předchozích projektů navrhl Hazard3 za pár týdnů a již je z něj použitelná alternativa k ARM Cortex-M s veškerým ekosystémem použitelná třeba v RP2350 / Raspberry Pi Pico 2 a i pokud preferujete ARM, tak toto zajišťuje že nemůže žádat nesmyslné výpalné.
Ano, pro velké procesory je ta cesta delší, na roky, ale na druhou stranu možnost experimentování s rozšířeními nad nějakým společným základem (Domain Specific Architectures) umožňuje rychleji zkusit mnoho směrů pro AI, GPU atd, které by jinak měly extrémní počáteční náklady.
Jenomze je treba si uvedomit jednou zasadni vec. Otevrena ISA nedela fyzicke a funkcni cpu. Neobsahuje specifikaci logickych obvodu ani design na urovni jednotlivych elektronickych obvidu ci finalni masky. Toto je kvuli obrim nakladum na takovy vyvoj stejne uzavreno a i casti(chiplety) stejne mohou byt zalicencovane i tretim stranam.
Já jenom podotknu, že problém NT na Alpha, MIPS, PowerPC a dalších nebyl v tom, že by port Windows byl nějak špatný. Naopak fungoval velmi dobře, a workstations na Alpha a PowerPC se reálně používaly. Problém je v tom, že se jich prodávalo málo, nebylo to rentabilní. Ne-Intel PC bylo prostě daleko dražší, a pokud člověk nutně nepotřeboval výkon, který na Intelu nedostal, tak je nemělo žádný smysl kupovat. To z ne-Intel PC (i serveru) udělalo naprosto okrajovou záležitost. Mít OS podporovaný na více platformách, které prakticky nikdo nepoužívá, a jsou z toho jen náklady na podporu těch platforem, je dost na nic.
Pokud jde o DOS a Windows, a jejich kvalitu, tak berte v úvahu omezení HW. Například Windows 95 měly "obrovské" HW nároky. Samozřejmě by se daly použít rovnou Windows NT, ale ty vyžadovaly (ve verzi 4) 16MB RAM, kdežto Win95 vystačily se 4MB. Přitom ani ty 4MB většina PC neměla, a pro zákazníky to byl nesmírně drahý upgrade. OS/2 byla architektonicky lepší než Win9x, ale také chtěla (ve verzi 4) 12MB RAM, a ve srovnání s WinNT nevycházela nijak dobře. WinNT i OS/2 měly problém s dostupností driverů, protože výrobci prostě dál psali drivery (například síťových karet a CD-ROM mechanik - jako fakt) jen pro DOS. Ty ale šlo použít s Win9x. K tomu Win9x měly téměř stoprocentní kompatibilitu se SW pro DOS, což OS/2 ani WinNT nenabídly. Můžete se divit jak chcete, ale tohle jsou prostě aspekty, které tehdy na trhu rozhodly.
> Ne-Intel PC bylo prostě daleko dražší, a pokud člověk nutně nepotřeboval výkon, který na Intelu nedostal, tak je nemělo žádný smysl kupovat.
Ano, vzhledem k výkonu vůbec drahý nebyly. Ale v té době šel výkon všeho rychle nahoru, a jak se Intel začal přibližovat, tak převážily ostatní věci, jako horší kompatibilita s ostatním software. Mimochodem, po FX!32 přišla 32bit emulace i pro ostatní platformy přímo od MS.
Ta ne-Intel PC byla alternativou k drahým unixovým workstations, které si jejich výrobci nechali div ne vyvažovat zlatem. Jenže jak jsem psal já, je to dost malý trh. A jak jste psal vy, výkon Intelu šel nahoru, což ten trh ještě zmenšilo. Nakonec to je i důvod, proč v podstatě skoro vymřely "tradiční" Unixy. Přišly PC servery s Windows NT, byly až směšně levné, na spoustu věcí stačily, a snadno se administrovaly. Pak se rozšířil Linux, a ten přetáhl na Intel ty zákazníky, kteří chtěli zůstat na Unixu.
Emulace je teoreticky skvělé řešení problému, a mé srdce, které bije ve dvojkové soustavě, zaplesá. V praxi je ale emulace pomalá, a má mouchy. Koupíte si řekněme 5x dražší stroj, abyste dostal všechen ten výkon, a poběžíte na něm aplikace v emulaci s nižším výkonem, než na tom 5x levnějším stroji na Intelu, a ještě s občasnými problémy. To není moc výhra. Tím nechci tvrdit, že emulace nemá smysl. Ale praktické přínosy emulace jsou kupodivu menší, než by člověk čekal. Navíc pokud ji budete brát jako "přemostění" na dobu než vývojáři vydají nativní verzi pro cílovou architekturu, tak často zjistíte, že prostě nevydají. Mimochodem na architekturách typu RISC za tím mohou být i problémy s data alignmentem, protože co není správně aligned, to většinou prostě nelze použít. Samozřejmě můžete struktury triviálně upravit, ale pokud je používáte v souborových formátech, tak tím přijdete o jejich kompatibilitu.
Dobrá emulace je 2/3 výkonu (Apple Silicon, Qualcomm Elite, FX!32 na Alpha, ...) a bavíme se o procesorech, kde ten hrubý výkon je dost slušný. V případě přechodu Apple na ARM tak dokonce emulovaný kód byl rychlejší než nativní na předchozí generaci s Intelem. To samé teď Qualcomm Elite, který si dobře vede s x86 notebookovými procesory, a to na něm skoro všechen kód jede emulovaně (ekosystém Windows). A průměrně zvládnutá emulace není 1/5 výkonu, x86 na PowerPC bylo 1/3 nativního výkonu (provozoval jsem Windows na iBook G4 v MS VirtualPC). Pomalé bylo až např. FPU na ARM Cortex, kde narozdíl od Apple Silicon a Qualcomm Elite chybí emulace x86 FPU (stavy nad rámec ARMu, např. výsledek je +oo, -oo apod.). Na Cortexu se musí každá FPU operace obalit doplňujícími testy.
31. 8. 2024, 23:13 editováno autorem komentáře
Pokud jde o výkon v emulaci, tak tam je 1/5 nebo 1/3 hrubým zjednodušením, protože se to liší podle aplikace.
Emulace má smysl, pokud v ní SW běží dostatečně rychle, a zároveň dává ekonomicky smysl pořízení ne-Intel HW. V případě Qualcomm Elite se dá mluvit o tom, že emulace funguje relativně slušně, ačkoliv ve specifických některých případech má problémy s výkonem a/nebo stabilitou. Výhodou je slušná výdrž takového ne-Intel stroje. Bohužel to ale cenově vychází o desítky procent dráž, než srovnatelný výkon na Intelu. Myslím že pokud se HW nedostane cenově pod úroveň Intelu, tak je tu riziko, že to znovu vyšumí do ztracena.
> Pokud jde o výkon v emulaci, tak tam je 1/5 nebo 1/3 hrubým zjednodušením, protože se to liší podle aplikace.
Proto jsme to sami testovali v různých apikacích. Máme doma x86, ARM, Alpha, PowerPC a v práci ještě Itanium.
> V případě Qualcomm Elite se dá mluvit o tom, že emulace funguje relativně slušně, ačkoliv ve specifických některých případech má problémy s výkonem a/nebo stabilitou. Výhodou je slušná výdrž takového ne-Intel stroje.
O tom to je. Výkon stačí čím dál více lidem a naopak využijí bonusové vlastnosti, např. tu výdrž ve střední zátěži. Intel dokáže idlit taky dlouho, ale dnes 10-20 tabů v Chrome a 5 Electron aplikací minimalizovaných v traybaru už není idle zátež.
> Bohužel to ale cenově vychází o desítky procent dráž, než srovnatelný výkon na Intelu. Myslím že pokud se HW nedostane cenově pod úroveň Intelu, tak je tu riziko, že to znovu vyšumí do ztracena.
Srovnatelné notebooky nejsou levnější než ty s Qualcomm Elite a dokonce ty modely oproti předchozí generaci s Intelem zlevnily. Ono taky na výrobu Qualcomm Elite stojí polovinu co Intel a už je ohlášena ještě levnější verze. Tohle je teprve začátek. Doteď na PC/ARM chyběla akcelerace emulace x86, v podobě strong memory modelu a doplňujících typů výsledků ve floating point výpočtech. Předchozí vlna v roce 2017 byly jen Cortexy bez akcelerace emulace a první vlna (Windows RT) dokonce měla zakázáno obsahovat emulaci (v té době měl Intel silné lokty). Přitom všechny předchozí verze Windows (před-ARMové ne-x86) obsahovaly emulátor x86.
> jsme to sami testovali v různých apikacích. Máme doma x86, ARM, Alpha, PowerPC a v práci ještě Itanium
Pěkná sbírka. Já jsem nikdy víc ne-Intel PC pohromadě neměl, takže přímé srovnání nemám.
> Srovnatelné notebooky nejsou levnější než ty s Qualcomm Elite
Co jsem se díval, tak mi Intely zatím levnější připadají. Ale ano, Qualcomm přichází s levnějšími modely, a mimochodem Intel s novou generací CPU. Qualcommu držím palce. Ať to dopadne tak nebo jinak, bude to výsledek tvrdého konkurenčního boje, a to je pro nás zákazníky vždy výhra.
> všechny předchozí verze Windows (před-ARMové ne-x86) obsahovaly emulátor x86
Windows na ARMu (RT) měly jiný cíl. Google přišel s Chromebooky, které toho sice moc neumí, ale zase se snadno používají a spravují. Ve velkém je používají americké školy. MS chtěl využít situace, a uvedl Windows ARM tablety, s tím že to budou stroje podobné telefonům nebo Chromebookům. Aplikace jen UWP ze Storu, a k tomu řada zjednodušení oproti klasickým strojům s Windows, a ořezání spousty legacy features. Ty stroje na trhu naprosto propadly. Dalším krokem proto byly Windows 10 na AMRu, které odstraňovaly většinu omezení, a mimo jiné měly x86 emulátor. Z toho Store-only módu, tzv. S-mode, se daly přepnout na klasické Windows.
"Intel musí brutálně sáhnout do portoflia, ve kterém se už dnes nevyzná ani to pověstné prase (zejména nové značení desktopových a mobilních CPU je peklo)."
to samé měla Nokia pár let před koncem. Dříve to byla firma s několika modelovými řadami (3xxx, 5xxx, 7xxx, však asi znáte), potom se to zvrtlo a měli spoustu modelů, z nichž prakticky žádný už nebyl tak dotažený do konce a vymazlený, jako v dobách, kdy jich bylo několik a každý přesně vědel na čem dělá a proč.
NOKIA dosla na svou pychu. Jeste pamatuji obchodniho zastupce na nejakem veltrhu ktery rikal. No jasne ze je ten model predrazeny. Ale MY si tu muzeme dovolit. Necekejte ze to zlevni.
NOKIA jsem uz pak nikdy nekoupil a pral jsem si aby mely konkurenci co je vrati zpatky na zem. Bohuzel nepoucili se ani kdyz uz prohravali.
Podle mého názoru Apple těží zejména ze silného marketingu, který staví na „Image“ a „In“ faktorech. V každém filmu i seriálu najdete jejich svítící logo se spokojeností i zázraky. Co vím od známých, tak i jejich děti chtějí Apple, protože jim to zvyšuje sociální statut, kdežto s Dell, HP, Thinkpad jsou pro vrstevníky „nýmandi“.
Ten marketing Apple je tak silný a zakořeněný, že se prodá i 100x předražený hadřík na LCD a ještě mu budou stát fronty.
Jedna věc je marketing a druhá věc je kvalita.
Koupil jsem si macbook kvůli vývoji a ten hardware fakt stojí za to. Jo, je to drahé, stálo mě to 80 litrů (potřeboval jsem alespoň těch 36GB RAM) a kdybych pro to nevyvíjel, tak bych neměl moc důvod to chtít.
Na druhou stranu na baterku to vydrží 10 hodin, když na tom kompiluju větší projekt, tak to je fakt rychlé a ten laptop je studený (žádné zapínání větráku, ale nevim jestli tam nějaký je), má to fakt krásný displey, atd... Když člověk potřebuje vyvíjet pro AArch64, tak Apple teď nemá konkurenci.
Takže já za tím sociální statut opravdu nevidím. A k té ceně těžko říct. Když vidím ty různé laptopy s Windows za 50/60 litrů, které mají FullHD rozlišení, tak ten Apple vlastně neni ani drahý, protože za ty peníze člověk aspoň něco dostane.
Ad drahe... No kdyz ctu ze te MacBook stal 80.000 Kc protoze si potreboval 36GB RAM... Tak sem se podival na Alza ..
Notebook s 64GB RAM zacina na :
37.000Kc (s FHD)
47.000Kc (s 2K)
55.000Kc (s 4K)
A MacBook s 64GB RAM zacina a 117.000Kc
Samozrejmne sem ani jednim smerem neporovnaval dalsi veci jako CPU, baterku, lte/5g modem,...
Úmyslně jsem se zdržel hodnocení, protože jablíčkový fanklub je něco jako rozvášněný dav, kde logika a argumenty neplatí.
Zrovna panel je něco tragického – vysoký minimální jas, vypalující barvy, vysoký kontrast a PWM řízení (15 kHz) s výrazně červeným nádechem. Apple XDR Liquid Retina, nebo jak se ty panely v MBP 14/16“ nazývají. Pro citlivější oči úplná nirvána, kterou podtrhuje jejich logika, kdy se panel upravuje intenzitu podsvícení podle toho, co zrovna zobrazuje např.: při bílém pozadí jako textový dokument hezky pěkně zvedne jas. Černá je pravda černější, jenže ono to má háček v sektorovém řízení oněch Micro LED, kdy se svícení dynamicky mění (asi pro lepší kontrast u sledování videa), jenže pokud si přepneš do tmavého, potom prázdná tmavá plocha září černotou, ale zbytek pracovní plochy pokrývá taková oranžová mlha, což je nejviditelnější u textu (hledej spojení Bloom/Glow) a jediné řešení je upravit kontrast, takže z černé se stává fialovo šedá, jinak se „oranžové mlhy člověk nezbaví“. Technicky vzato 15 kHz je pro oči lepší, než 400 Hz (Dell U3014), ale stále to namáhá oči, ty citlivější to poznají po pár vteřinách. I když to blikání na 15 kHz třeba nevidíš, problém střídání (poměr mezi zapnuto – vypnuto vytvářející jas) a aby se dostali na těch bájných 1100 nitů v HDR a následně zablokovali. Dost nepříjemná záležitost.
MBP ventilátor má a umí se pořádně ozvat, aby udržel zatížený SoC v přijatelných teplotách a nemusel snižovat frekvence. Takže buďto ho nezatěžuješ, nebo kecáš. Pasivně chlazený je MBA, ale tam zase nemůžeš intenzivně vytěžovat SoC.
Spokojenost neupírám nikomu a respektuji potřeby, které máme každý jiné. Jenže Apple prostě staví na marketingu, kde si to lidé pořizují ani ne tak pro vlastnosti, ale právě pro ten společenský statut.
Do kvality se raději pouštět nebudu, protože kvalitu tam má hlavně to lepidlo, co to drží pohromadě. Někdy Ti ukážu pájení chcíplého MBA M1 pod RTG, budeš se hodně divit, kolik voidů (defekt v pájení) a oprav na PCB najdeš. O součástkové základně raději ani nemluvit, to i skrblíci v Dell jsou na tom lépe.
Jak mohou být nejprodávanější zařízení na světě statusem? Vždyť je mají všichni okolo. Možná tak v Česku, ale ve zbytku světa je to spotřebka.
15 kHz vidíš? Já nemám problém ani s 200 Hz. Ten glow v tmavém režimu je logický, když je to microLED a ne OLED, který má ale zas své problémy, např. mnohem horší to blikání. Mně spíš vadí ten červený nádech - klasický Air bez výřezu ho nemá (i proto brácha downgradoval). A těch 1100 nitů není bájných, utilitou jdou zapnout trvale (nebo to bylo někde v půli? trvale maximum ti zničí displej, přirozeně).
Ventilátor se samozřejmě umí zapnout, ale zatímco u konkurence se pouští i v kancelářské práci, na Macu je to umění. Musel by si asi vytížit současně i GPU.
PS: Kvalitu a životnost notebooků Dellu bych nevytahoval.
11. 8. 2024, 07:03 editováno autorem komentáře
To bych neřekl, ale je to takový pocit, ze kterého začnou pálit „suché oči“ prakticky po otevření. Nesnáším to, stejně jako vysoký min. jas, přepálené barvy a kontrast, z toho důvodu jsem nesnášel a nesnáším monitory Dell, raději HP a Eizo.
Když se pak sejde faktická nemožnost vybrat si nový NTB a citlivější oči, přichází na řadu extrémní řešení. Jediný vyhovující NTB – Lifebook U7313 používá PWM (210 Hz), což jsem zjistil okamžitě po zapnutí. Neoriginální vyšel na 180 Euro s dopravou a trocha nadávání poskládat to zpět, ale už nebliká.
Nadávat a kritizovat bych mohl dál, třeba na nefungující Bluetooth, abych byl přesný, ono funguje s iCokoliv, zbytek je už taková loterie, protože Apple si upravil standard po svém (MITM) a „zabezpečil“ tak párování a komunikaci (čti … musíte si koupit iCokoliv) s absencí ISM. Ochylka od standardu způsobuje, že máš problém s A/T rate a latencemi, což způsobuje právě ta jejich „bezpečnostně prodejní implementace“ a certifikovaná měřící technika, IoT (standard BTLE v4.2) s tím mají dost velké problémy, protože PLM vyhodnocuje spojení jako chybná, následované chybou přenosu. Vícekanálové As/Tr spojení zhola nemožné a data např.: měřených sekvencí se cestou někde ztrácí, tedy výsledky (přenesená data) jsou tak neúplná. U velkých polí např.: fotovoltanika se měření dělá prostřednictvím VNC (Virtual Network Computing), tedy vše se připojí do centrální meřící jednotky, ze které potom posíláš data např.: BT přímo do aplikace tabletu, telefonu, notebooku … a když ti jich přijde polovina, moc velkou radost z toho mít nebudeš. S iPhone se ještě přidává PEE (Secure Enclave).
U špuntů do uší to nepředstavuje žádný problém, u měření Chauvin Arnoux, Metrel, Tektronix, Socomec… za pár deétek/stovek tisíc už to problém je. I takové „obyčejné věci“, jako třeba komunikační sety (náhlavní sety s přilbou) tomu vůbec nesvědčí (Kenwood, Motorola, 3M Peltor) v režimu vysílačky, kdy jeden sedí např.: u zmíněné měřící jednotky a dalších X lidí pobíhá po FV farmě. Není se čemu divit, že podpora výrobců je plná stížností na Apple a většina to s nimi dávno vzdala, protože Panasonic a Samsung je jistota. Vrcholem legrace s IOS 17.1 bylo, že přestali fungovat tokeny FIDO2/U2F (poslední dostupný FW 5.2.x), s opravou 17.1.1 prostě odpověděli, že si máte koupit nové, novější.
K tvému závěru – zaplatil jsem ho, mám ho doma (MBP14“M2P) i po blízkém okolí, ačkoliv sám o sobě jsem nikdy nebyl cílovou skupinou Apple. Vysnila si ho lepší polovička, jež ho společně s Iphone používá a je spokojená. Mě prostě zajímalo, co na tom všichni tak hrozně vidí a téměř se k tomu klaní a zejména to, co se nikdy z žádné recenze nedozvím. Pro jablíčkáře jsem nepřátelský živel a podivín.
Tohle napise frikulinovy progros.
Display u macu je na hovno. Mam pracovni m2 (uz je to asi 4ty macbook co msm) a furt aby clovek pucoval nebo steloval aby se neidrazelo svetlo pres ktery nic nevidim.
Leskle displaye jsou zlo.
U predchozi generace jeste otiskla klavesnice na displayi.
Rozumna opravitelnost bez dobre vybavy doma nula. Mozna v praci bych si troufnul.
Vybava RAM v zakladu fakt mizerie. U pracovniho notasu ocekavam 64GB jako zaklad.
12. 8. 2024, 09:49 editováno autorem komentáře
Zas na druhou stranu díky velké rozšířenosti Maců jsou dostupné doplňky, např. matná fólie na displej (existuje dokonce i emulace dotykové vrstvy, ale to jen tak na okraj).
U RAMky správně dodáváte "pracovní". Tam si zvolíte vyšší konfiguraci, protože pracovní stroj se zaplatí. A také Mac má hardwarovou kompresi RAM a není třeba data duplikovat mezi CPU a GPU a koprocesory, takže její kapacita není 1:1 s PC.
12. 8. 2024, 10:17 editováno autorem komentáře
"...Zas na druhou stranu díky velké rozšířenosti Maců jsou dostupné doplňky, např. matná fólie na displej (existuje dokonce i emulace dotykové vrstvy, ale to jen tak na okraj)..."
- Sorry jako, ale tohle je "argument jak noha. Prostě pochvalovat si, že jsou rovnáky na vohejbáky...
To je jako říkat: "Tak zase díky pohlavním chorobám a nechtěným početím je dostupná spousta druhů kondomů."
Taky bych chtěl mat, ale je mi to jedno, stejně mám doma externí screen, klávesnici, atd... Na druhou stranu když si ten mac vezmu ven, tak i vidím co ten displej ukazuje (i přes to, že je lesklý), a toto se nedá říct o hodně laptopech co mají matný screen.
Ale nechci se tu s nikým hádat. Neznám jinou firmu, u které bych si teď mohl koupit výkonný AArch64 HW, až bude na trhu víc možnosti, tak bych asi zvážil něco jiného, co bude mít perfektní Linux podporu, protože stejně preferuju Linux.
Na druhou stranu práce je práce, ten HW se zaplatí za týden.
Osobne nechapu, co ma byt tak krucialniho na Arm64 z pohledu developera.
Pouzivam nyni ThinkPad P15 Gen 2i, ktery jako novy stal 70 litru a veru me x86 nikterak neomezuje.
Co je ale rozdil oproti Macku, ThinkPad je upgradovatelny a opravitelny, zadny slepeny bazmek s naletovanou RAM.
Nyni po par letech mam na tom 128GB RAM, 2TB storage ve dvou SSD discich a to mam jeste jeden M.2 port ze tri nepouzity.
A kdyz chci, rozjedu si na tom demo komplet cely kubernetes cluster nebo postgres cluster s 5 nody.
Na tom stroji jedu Win11 v HyperV modu, a bezne mi tam bezi dalsi 3 linuxove virtualni masiny, k tomu Docker desktop pres WSL.
To co nabizi macek umi levny kancelarsky Thinkpad rady E s AMD CPU za cca 18 klacku a i ten ma k napajene RAM navic jeden volny DDR slot a jeden volny M.2 na SSD na pozdejsi upgrade.
Presne jak pises, ty penize si v pripade pracovniho nastroje vydelam za par dnu, proto nechapu, proc si porizovat jablecny kram s naletovanou RAM a SSD, defacto tablet s klavesnici.
Připájená RAM je vlastnost LPDDR, ne Applu. Ten samý problém mají i PC notebooky o požadované tloušťce, výdrži a výkonu. Apple nekonkuruje ve spoustě kategorií, notebook "cihla" je jen jedna z nich.
No a v čem je zázračný AArch64? Ne každý developer chce čekat na kompilaci. I pasivně chlazený Air dává v kompilaci spoustě x86 počítačů na pr_el. 8 instrukcí za cykl legacy x86 nikdy nemůže mít a optimalizovat přes SIMD tohle nejde.
12. 8. 2024, 20:00 editováno autorem komentáře
Opravit se dá i Apple, je-li známá příčina, není problém danou součástku vyměnit – s pájecí stanicí a zručností jsou některé opravy záležitostí hodiny. Větší opravy se nevyplatí, protože hledat problém je detektivka na dlouhé večery a absence technické dokumentace tomu rozhodně nepomáhá. Samotná výměna např.: kompletně celé napájení u Mac Pro zabere asi 4 hodiny práce, nic ve srovnání s časem hledáním problémů a měřením. Vyměnit RAM a SSD u Mini M1 nezabere ani 2 hodiny času, máš-li správné součástky. Nudíš-li se, uděláš to pro sebe, nebo hodně dobrého kamaráda, ale ostatní s tím vyženeš.
Možná si to prostě pořizují kvůlu MacOS a iOS … ekosystému a hlavně s tím svítícím jablkem jsou všichni štastní v každém filmu.
12. 8. 2024, 20:56 editováno autorem komentáře
S tim aarchem64 to je neco proti cemu nenam zadny argument. Je to vykonne h....o hlavne na edit hudby nebo prezentaci (videa) a hlavne je to max vlazne. Jeste se mi nepovedlo rozvrtet vetraky naplno. A to sni kdyz striham a crowdstrike pusti scan :-/
Ale kvuli nedostatku pameti mi to samozrejme obcas pada na tlamu. Korporat mi klidne poridi della s vice nez 64GB ram ale maca s 64GB ne. Duvod? Cena. Mame limit na apli zelezo. Klidne della pres 100k bych poridil. Mac ne. Mozna kdybych poridil na americkou pobocku.
13. 8. 2024, 20:12 editováno autorem komentáře
Na hudbu má výkon dnes vše, ale potřebuješ malou latenci. Spousta CPU Intel měla bugy, které ji zvyšovaly. Apple kvůli tomu dokonce celou jednu generaci předal Dellu, kde na ty procesory nadávali např vlastníci XPS.
Ohledně RAM, není 64 GB málo? Proč ne 100, 200? A kolik GB/TB jsou zdrojová data? Jak je do počítače nahráváš? Já jen, jestli na tohle není lepší server. Sdílení s kolegy pak může být by default.
>>>Apple tuhle marketingovou strategii jede doteď, a jde mu to čím dál tím lépe. Nový iPhone bude ještě dražší než ten předchozí, a stejně budeme mít rekordní prodeje. Hurá!
Nie je to pravda, apple ešte stále dodáva špičkové telefóny a má na výber viacero radov.
Do tých vyšších sa nevyznám, ale najnižší iphone XR kúpený v roku 2018 ma stál 880 EUR. Slúži mi doteraz. Budúci rok mu končí podpora. Iphone 15 stojí 804 EUR, čo je porovnatelný model s XR. Nie je drahší, je lacnejší.
Kúpil som si tento rok aj backup android, hrá sa to na iphone, UI okopírované. Ale je to celé nedotiahnuté. Na každom mieste narážam na rôzne drobnosti. Zlé spracovanie fotiek, mizerné diktovanie hlasom, nanič aplikácia na poznámky, asistent úplne nepoužitelný, automatizácia udalostí nič moc atď ... Sprvu som bol nadšený, ale android zostane ako backup aj naďalej. (Podotýkam, že je tam vanilla android bez "vylepšení")
Apple skôr vymýšla rôzne ultra profi max rady iPhone. Niekto to asi kupuje, ja si budúci rok zasa kúpim najnižšiu moźnú konfiguráciu z najslabšieho radu.
10. 8. 2024, 21:57 editováno autorem komentáře
Podle mě nepadla jedna důležitá věc a to skomírající x86 architektura. Nebude to podle mě dlouho trvat a majoritu i v počítačích a server bude mít ARM. Důvod proč není konkurence v procesorech je uzavřenost týhle architektury. Nikdo kromě AMD a Intelu nemá šanci cokoliv na tom vydat.
To se s ARMem mění. Apple, Qualcomm a přijdou další.
Do budoucne doufejme i RISC-V.
Na duruhou stranu Intel je právě výjemčný tím že má vlastní výrobu čipů, tzn je to pro USA hodně strategická firma u které se podle mě nestane, že by ji nechali padnout. To to radši nenápadně zasanujou z veřejnýho rozpočtu. Co si ale dokážu představit je, že jí rozseknou na dvě jako AMD. Výroba a návrh jako AMD s Global Foundaries a podporovat budou jenom výrobu.
U out-of-order procesoru je instrukční sada nedůležitá a nemá prakticky žádný vliv na výkon. Vždycky tam musí být překlad na interní kroky a vytvoření virtuálních registrů. Velikost binárek má dneska také zanedbatelný vliv vzhledem k velikostem cache, na to aby měly instrukční sady, které produkují menší nějakou výhodu.
Výkon a spotřeba jsou dneska ovlivněny jenom schopnostmi těch mágů, co navrhují architekturu a použitém procesu.
Ano s runtime překladem lze udělat divy. Do teď to díky extrémním zkušenostem v uncore, sběrnicích paměťových řadičích a optimalizacím v kompilátorech a obecně návrhu SW generacemi nejlepších programátorů šlo pro výkonné procesory do serverů a notebooků udržet. Naopak již před deseti lety snaha přijít znova s 80186 do těch nejmenších embedded zcela selhala na spotřebě a složitosti. To se stalo již předtím na mobilech a tabletech a dnes se to děje v oblasti notebooků (Apple M1+).
Ale i v těch výkonných serverech drahý překlad instrukcí spotřebovává energii a zpomaluje. Pokus o velkou cache překladů na Pentium IV selhal. Překlad na ještě větším na Transmeta Crusoe také. Nelze tedy celý kritický blok programu přeložit a jet třeba z tracecache. Je nutné uvažovat i o tom, že kritická část kódu je větší. Dekódování instrukcí s bytovou granularitou od jednoho do 12 byte je katastrofa a tak Intel sice byl z malé trase cache schopný brát až šest instrukcí na cyklus, ale z hlavní L1I cache jen čtyři a i to s podporou kompilátoru, například dva skoky v zarovnaných 32-bitech jsou asi stále smrt. Není kam dát v cache metadata. Od Sunny Cove pak nabírá z L1I až pět instrukcí, ale ta logika tam musí být brutální, proti tomu M1 vezme 32 bytů a má osm instrukcí bez starostí. Takže i na méně stupňů a tím i s menší latencí při skoku mimo tarcecache atd... Přitom ARM instrukce jsou tříoperandové, je dost regsitrů, v 64-bitech 31 a pre a post inkrementy při adresování. Intel přidal APX REX2, aby tu registry získal, ale kódování je tragédie.
Jak Intel tak RISC-V se upnuli na multimédia, kde jim SIMD pevné délky na algoritmy sedělo dobře. Ale na obecné výpočty je start a konec smyček tragédie. To lidi od RISC-V říkali rovnou a dívali se u svého V rozšíření směrem k vektorovým procesorům Seymoura Craye. ARM jim zavedením SVE dal za pravdu. Jen to zbytečné vyplýtvaní instrukčního codespace již nelze napravit. RISC-V může kombinovat Compressed (16-bit) a standard 32-bit kódování instrukcí a tím často i ty pre a post inkrementy ARMu zvládnout ve shodných 32-bitech a zároveň má již ty instrukce téměř 1:1 s uOPs za dekodérem. Přitom makra pro zkrácení některých sekvencí také zavedli, viz cm.push, cm.pop, cm.popret, cm.popretz, cm.mvsa01, cm.mva01s. Přitom jsou tyto instrukce tvrdě omezené na idempotent memory. U RAMu tím, že ldm neomezil jen na hlavní paměť, tak roky lezla i u safety procesorů errata. U AArch 64 dovolil jen páry.
Obecně, myslím si, že stále přednáška A New Golden Age for Computer Architecture platí.
Zároveň na AI a další to bez Domain Specific Archietcture rozšíření nejde. Takže rigidní x86 s vyčerpaným kódovým prostorem v snesitelně dlouze kódovaných instrukcích je na konci sil a již současné kódování je i na spotřebu i pro velké systémy těžko udržitelné.
Jinak i přes bolístky jako GhostWrite v současných pokusech o výkonový RISC-V jde vývoj dopředu. Pro naše studenty Pokročilých architektur počítačů již můžeme nabídnout od RISC-V International na základě mých aktivit dodaný jeden ze dvou Milk-V Pioneer boxů - 64x T-Head C920 jádro na SOPHON SG2042 čipu, 128 GB RAM, 1 TB NVME a ARM grafika v PCIe 4 x16.
Fotka a trochu obskurní experiment na osahání zde i s trochou nostalgie.
V principu by měl Risc-V compressed ISA trpět stejným problémem jako Intel x86_64, akorát tedy dvakrát menším (a samozřejmě většina instrukcí se bude skládat maximálně ze 2, občas 3 kusů). IMHO když už, tak měli použít spíš něco jako self-correcting UTF-8 - tedy aby bylo jasně poznat, zda je instrukce pokračováním, bez toho, aby znali předchozí část. Cena by byla nízká (třeba jedna hodnota ze čtyř), ale vyhli by se chaosu s nejasným dekódováním.
aarch32 compressed encoding uměl taky a u aarch64 jej zcela zahodili, protože byl nejspíš brzdou.
To, že se o Risc-V říká, že byl tak dobře navržený, že je tu už mnoho let, nemusí být vůbec validní. Aarch64 navrhli úplně nově, na základě aktulních znalostí a je úplně někde jinde. Když třeba vezmu, jak je navrženo kódování immediate pro bitové operace, tak aarch64 to vyřešil geniálně, zatímco Risc-V musí typicky nahrávat jednoduchou masku z paměti nebo přes dvě load instrukce a potom teprve porovnávat.
iMHO půjde Intel podobnou cestou - Risc-V už zkoumali, proprietární aarch64 se jim nejspíš nechce (i když taky už byly signály, že se tomu nebrání). Ale jak se ukazuje, vytvořit úplně novou architekturu dneska už zdaleka není tolik práce, když to bude potřeba. A může tím zahodit celou historii, včetně zbytečně striktního memory ordering.
Spíš si myslím, že "self-correcting UTF-8" je plýtváním codespace. Pokud vezmu třeba 32 byte pro 8 dekodérů, tak za podmínky, že vím, na které šestnáctici bitů začínám (ukazuje PC) potřebuji 16 určit jestli jsou u každé 16-tice nejnižší dva bity nula a pak mít logiku, která těch 16 signálů zpracuje a podle ní přeřadí správně 16 nebo 32 bitů na osm dekodérů. Ano, je to komplikovanější než jednoznačná korespondence u AArch64, ale proti nutnosti posouvat bloky po bytech o libovolné délky je to o řády méně muxů. Zatím 48-bitové kódování nebudu počítat.
Thumb i Thum2 u AArch32 je mnohem méně mocný, neboť procesor se musí do režimu přepnout skokem a pak na dekódování 32-instrukcí opět přepnout skokem, komplikace s nejnižším bytem skokové adresy atd. tedy přepnutí je tak dlouhé, že se na jednotlivé instrukce nevyplatí. Přitom Thumb pak vede na jen dvouoperandové instrukce a snadno přístupný jen subset registrů. Na RISC-V pak může kompilátor instrukci od instrukce zvažovat, jestli raději 3 operandy a trochu delší kód nebo kratší kdy jeden vstup bude změněný. Na výkonné procesory to není u AArch64 takový problém, ale trochu se plýtvá cache, pokud je v původním kódování instrukcí. Na embeded kde stále růst kapacity Flash odpovídá ceně spíš lineárně než u velkých systému, kde je závislost SDRAM spíše logaritmická, tak menší hustota kódu AArch64 vyřazuje a musím používat jinou architekturu Cortex-M. RISC-V obsáhne vše. Ano, compressed dekodér je určitá komplexita, není povinný a celkově se to podle me vyplatí.
Co se týče immediate a post/pre inkrementů atd, tak flexible second operand na ARM 32 kódování měl velký přínos, ale pro komplexitu ho z AArch64 vypustili a je tam jen 12 bitů a méně immediate a jen s možností lsl 12 nebo o velikost operandu. Takže se komplexnosti vzdali, krátce zmíněno v mé přehledové přednášce pro prváky PDF/Video.
Jinak pokud Intel nepřijde s něčím v kódování výrazně chytřejším než RISC-V, tak by se mu měla komunita vzbouřit. Času promarněného na souboje se segment offset, protected bez stránkování. PAE, příšerné kódování atd. již promrhal příliš mnoho. AMD to trochu zkorigovalo při přechodu na x86_64, ale zase se na to lepilo a REX2 je již zoufalost. Moc jsem při zavedení AMD64 doufal, že po letech AMD řekne a teď zapněte tento bit v CRx a nebo použijte tento mikrokód a máte k dispozici i od prvního našeho 64-bit čipu alternativní kódování instrukcí, které nepotřebuje REX a prefixy. Třeba něco jako Am29000, který měli vyvinutý již v roce 1985. Ale asi to tam opravdu neměli. Na správu jsem si představoval, že by to nabízelo třeba něco jako PAL od DEC Alpha. Případně by to bylo přímo v těch microcode instrukcích...
Jinak si představuji, jak v AMD museli ti s představivostí skřípat zuby, když místo svých elegantních architektur, na které ale běžní uživatelé přejít nechtěli, museli dělat na x86 prasárně.
Na toto musím reagovat jako někdo kdo píše AVX-512 pro obživu.
AVX-512 (tedy 128-bit, 256-bit, a 512-bit granularita) je zatím to nejlepší pro co jsem vyvíjel a podle mě ARM SVE i RISC-V V jdou cestou k nepoužitelnosti.
Co je zajímavé na AVX-512 (a obecně SIMD s fixní délkou registrů) je to, že SIMD se dá použít i na věci, které nejsou pole, a dá se počítat s velikostí vektoru. Takže třeba je možné navrhnout algoritmus pro 256-bit SIMD, nebo 512-bit SIMD, který bude dělat kompresi / dekompresi, nebo dekódovat nějaké binární data, atd... U kodeků se bude počítat s tím, že se napíše SIMD algoritmus pro dekódování nějakého tile (třeba 8x8, 16x16, atd...). Ale to není všechno, máš strukturu co má 64 bytes? 2 instrukce ji zkopůrujou.
Toto je úplně jiná kategorie problémů než udělat SIMD "strlen()" nebo zpracování nějakých dat v poli (časté přiklady pro SVE), atd... A AMD nám ukazuje, že AVX-512 je jediná budoucnost x86, protože decode je problém, ale když jsou široké registry, tak decode není až takový problém vzhledem k tomu, kolik dat vhodně navržený kód zpracuje.
Další problém SVE a RISC-V V je ten, že se pro to nedají udělat abstrakce (třeba v C++) tak jak pro kód, kde člověk zná délku registru. Takže člověk musí používat stejné intrinsics tak jak specifikuje ta architektura, což nikdy nebylo něco, co bych chtěl používat napřímo.
Je zajímavé, že třeba čínský Loongarch touto cestou nejde - místo "variable vector width) přidali 256-bit SIMD a to staví tu architekturu do pozice ~AVX2.
> To se s ARMem mění. Apple, Qualcomm a přijdou další.
To nie je tak celkom pravda. Aktuálne beží súdny spor medzi ARM a Qualcomm, kvôli tomu, že Qualcomm si dovolil vo svojom aktuálnom top modeli (Snapdragon X Elite) použiť svoje vlastné (resp. získané akvizíciou) jadrá a nelicencuje (a teda ARM-u neplatí) aj za Cortex, ale iba za ISA.
Takžše ARM sa snaží, aby zabil presne to "a přujdou další".
"pro USA hodně strategická firma"
Pro USA může, ale ten bod kdy se kvůli dluhům a hromadou pýchy zastaví svět... dost brzo blíží... takže půjčka Intelu je vlastně z další půjčky, která se vlastně nesplácí...
Je to dnes pro Čínu, pro umírající USA to za chvilku může být zcela jedno...
A AMD a Global je kapitola sama o sobě... tam toho bylo... a je jen zázrak, že AMD to přežila...
Taky většina firem neumí dělat vlastní jádra CPU (a GPU). V x86 aspoň AMD nabízí svoje jádra v rámci semi-custom divize (PS, Xbox, Steam Deck, ...). Intel nenabízí nic.
Na druhé straně, pokud nepotřebujete maximální single-thread výkon, tak si můžete za babku licencovat Cortexy (běžné SoC, starší serverové ARMy) a nově i Nuvia (novější Gravitony od Amazonu, ...).
> Intel rad umozni vyuzit jejich patenty na x86 a AMD zase rado na x64.
Nevím, jestli tohle dnes platí, ale dřív neplatilo a možná tím Intel zabil konkurenci, která by mohla x86 pomoct. Např. jádra NVidia Denver měla umět i x86, ale nezískali licenci.
12. 8. 2024, 14:20 editováno autorem komentáře
Proč by měl dohánět svou konkurenci? Dle https://cpu.userbenchmark.com/Compare/Intel-Core-i9-14900KS-vs-AMD-Ryzen-9-7950X3D/m2295306vsm2052977
má Intel 21 nejvýkonnějších procesorů a první AMD obsazuje až 22 příčku.
PR rating tu byl už s Athlony XP, tedy už od dob P4 Willamette pro S423 a RIMM, natož od S478 Northwoodu, který přišel až půl roku po Athlonech XP. A ano, lidi se i u P4 nějakým OC zabývali, protože tehdy mělo smysl se OC zabývat bez ohledu na nenažranost CPU, takže lidi se zabývali OC třeba i u původního Athlonu 1400.
Pro úplnost přikládám odkaz na webové stránky údajně zhynuvší Nokie:: https://www.nokia.com/
"Nokia" samozřejmě dál existuje, stejně jako koupíte mraky produktů značky Kodak. Ale u obou platí, že už pod těmi značkami buď vůbec není původní core business, nebo je to čínská skořápka. A u Nokie ostatně už ani ty telefony nebudou, HMD budou prostě HMD. A že "HMDčková Nokia" byly pěkný křápy, sám jsem měl model 5.3 a co jsem tehdy při reklamaci probíral s technikem, to by si fakt "Nokia" za rámeček nedala. Čili: Nokia, ve smyslu, o jakém hovořím v článku, už neexistuje. Stejně jako Kodak ve svém původním smyslu už neexistuje (ano, vím, že stále dělají filmy pro filmový průmysl atd atd atd, ale ... )
To jsou mega bludy autora ktery nerozumi fyzice.
Pretaktovani o 50% neni umozneno fyzikou, ale marketingem, ktery uvolnoval na trh pouze produkty dostatecne rychle, byt proces dovoloval toho vice. Protoze nemuzete z procesu tahat na krev produkty - to vidite jak to dopadne az nyni.
Ukazte mi tedy nejaky AMD cpu, za poslednich 5-10 let, ktery lze pohodlne pretaktovat o +50%. Ze neni zadnej? aha.. ale intel to nezvlad. Tak jisteee.