Mezigenerační rozdíl u Intelu je v poslední době několika málo procent, pak tedy rozdíl "několika málo procent" může mít hodnotu rozdílu jedné nebo dvou generací.
Obecně by dávalo smysl určit nějakou hranici (například rok 2024 mínus 4-5let) a pro tento hardware optimalizovat nová vydání OS.
Pojďme se na to podívat optikou peněz.
Dejme tomu, že server běží 24*365 při spotřebě 0.150kW * 4 Kč za kWh.
Pak to je: 5 256 Kč ročně za provoz serveru
Pokud by byl server rychlejší, práci by stíhal rychleji a jeho spotřeba by tak klesla třeba o 3-5%, to jsou reálně ušetřené peníze. Resp. reálně zbytečně vynaložené peníze, protože máte sice nový HW, ale jeho možnosti se třeba dostatečně nevyužívají.
Nic mi nebrání...samozřejmě, pokud bych vedl tvůj smutný a osamělý život.
Že to je blbost ti je snad zřejmé už jen z toho, kolik lidí se na tom podílelo a kam se jim to povedlo dotáhnout.
Ad vývoj linuxu, to není ani na mně ani na tobě, nicméně lpění na starodávných obyčejích našich, do důchodu odešlých předků, za cenu zvýšené spotřeby elektrické energie, se nijak nevyplácí. Navíc by pořád zůstávala různá LTS vydání, která bys na svém stařičkém hardware mohl provozovat.
Zrušiť podporu starších počítačov by bolo pre Ubuntu podpílenie si konára pod sebou. Lebo zrovna to je jeden z častých use case. Osobne si nebudem kupovať nový počítač, ak starý je ešte dobrý. Ak by som musel zostávať 10 rokov na starých aplikáciach, lebo novšie na tom danom LTS nejdú, tak zvážim inú distribúciu, ktorá moju architektúru podporuje.
Frikulíni, ktorí naháňali jednotky percent zlepšenia výkonu, mali kedysi Gentoo, kde si mohli všetko skompilovať s najšialenejšími prepínačmi.
28. 12. 2023, 11:40 editováno autorem komentáře
No ale určitě najdete někoho, kdo to chce nějaké super Q9650 provozovat.
Stejně tak, po dostatečné době hledání, najdete někoho, kdo nedá dopustit na PIII.
Tak kde je ta rozumná hranice?
Oni se rozhodli pro AVX2 (x86–64-v3), což splní i Xeon E5-2640 v3/v4...
Přichází rok 2024, z mého pohledu je zpětná kompatibilita cca 8-9 let tak akorát pro naprostou většinu uživatelů. Kdo chce provozovat skanzen, může zůstávat u LTS vydání... Proč mít o 3-5% výkonu míň jen kvůli provozovatelům skanzenů a muzeálního HW?
Tohle je ale cesta do pekel, stejných pater jak potkala kernely, kde se na jednu stranu zkracuje podpora, na druhou se nám množí LTS verze a k tomu navíc vznikají superLTS, a výsledek jsme viděli koncem roku v backportovaných chybách.
Co se týče uživatelských stanic, běžně notebooky z 2012 fungují a (po doplnění raměti a výměně disku za SSD) vyhovují s přehledem dodnes. Posouvat hranici takhle moc by dávalo smysl u nějaké bleeding edge distribuce, ale u Ubu? Už teď nezasvěceného dost pletou ty *ubuntu verze.
28. 12. 2023, 12:17 editováno autorem komentáře
Strašit Kernelem je teď módní záležitost.
A že provozujete notebooky z roku 2012?
- takže notebooky bez FullHD displaye, protože v té době to byl hodně velký luxus
- dvoujádra
- vyhřáté po dobu 11-12ti let (2012+12=2024)
- ty notebooky 10-12 let někdo tahal, dával do brašny, měl na klíně, prohýbal
- zato s DVD mechanikou
- balónovou baterií
- větráček se leda svíjí ve smrtelném záchvatu
- některé webové stránky to zabijí, protože Chromium je nenapanané
....ale vám bezchybně fungují a uživatelé jsou spokojení...
To vám gratuluji, ale pořád jste správce skanzenu...
Pane kolego, ten cherry picking je prostě přirozený výběr který si nechcete připustit. Po tehdejších 2jádrech přesně jak říkáte neštěkne ani pe es, a přesně proto mluvím o strojích, do kterých se vyplatí investovat (ram, ssd) i po 12 letech - prostě v té době to byl tuctový gaming notebook.
(a navíc to má i grafiku s CUDA)
... a zrovna je to hračka, na kterou právě teď instaluju docela náročný virtuál, co mi běžel a žral prostředky jinde a potřeboval jsem ho párkrát do měsíce. Mám místo toho vyhodit 15 tisíc, jen abych u Vás nebyl Amish?
>> Po tehdejších 2jádrech přesně jak říkáte neštěkne ani pe es, a přesně proto mluvím o strojích, do kterých se vyplatí investovat (ram, ssd) i po 12 letech - prostě v té době to byl tuctový gaming notebook.
hapči
model name : Intel(R) Pentium(R) CPU B970 @ 2.30GHz
cpu cores : 2
Toto používam doposiaľ a nejak mi to stačí :) Nepociťujem diskomfort pri používaní. Zatiaľ bolo len treba vrčiaci vetrák vymeniť a prepastovať procesor. Údržba spočíva v tom, že občas vyfúkam prach. Dvd mechaniku to samozrejme nemá, LOL :)
Tento prispevok pisem na i7-3520M (Thinkpad T430s / Full HD / 16 GB RAM / 500 GB SSD). "Iba" dvojjadro s ht, ale vyssie taktovane ako vyssie spominany 3610QM. Tiez cherrypicking?
Jednoducho silnejsie konfiguracie ustali test casom. Stale je to dobry pocitac. Dlhe roky to bola lepsia konfiguracia, nez priemerne predavana, len v poslednom obdobi sa rozbehli konfiguracie so 16 GB RAM.
"Tento prispevok pisem na i7-3520M" ...
Jeste loni kdyz sem chtel pro zakazniky pracovni NB (als psaci stroj), tak mi vsude cpali max 8GB ram, a kdyz sem trval na 16, tak to dodavali jako dalsi modul , protoze dodat notes(nikoli za 100k) s 1x16 proste nikdo neumel. A vsadim se ze takovych bude v nabidce hromada stale. Dokonce se vsadim, ze se porad prodavaji uplne nove kousky se 4GB ram.
@CPU A že provozujete notebooky z roku 2012?
Thinkpad T430s, model z roku 2012:
k tvejm bodum:
- FullHD IPS [upgrade z TN 1600x900)
- CPU puvodni i7-3520M 2c/4t (v T430s nejde menit, v T430/W430 ano za 4c)
- kupoval sem repas pred par lety, nevim jak ho kdo tahal, ale pusobi porad bytelne
- v DVD sachte mam 2nd battery ;-)
- balonova baterie? nafoukla? neni
- vetracek je v pohode :-)
- webove stranky ok, webove praso-social-weby nenavstevuji
ke konfiguraci/upgrade:
- SSD 2TB SSD
- 16GB RAM SK-Hynix
- Wifi AC+BT3 => Intel AX200+BT5
- WWAN 3G => WWAN 4G/LTE (Quectel EC25)
sice uz to od prazdnin neni muj primarni NB, ale do te doby byl a vse v pohode stacilo a stacilo by i dale...
btw: reakce ciste na tve narazku nepouzitelnosti nb z 2012, neresim to ze by na tom slo 24.04 pouzivat aktualizovane do 2034... (jak pise nekdo dole a i ja psal pod predchozi zpravickou ;-)
29. 12. 2023, 14:44 editováno autorem komentáře
Skanzen. Byly doby, kde jsem měnil počítač víceméně každý rok, ale s rostoucím výkonem ta potřeba začala klesat. Aktuálně bez větších obtíží provozuji Sandy Bridge i7. Tohle je z doby instalace:
Sun Apr 24 09:35:23 2011 >>> sys-apps/util-linux-2.18-r1
V idle celá sestava žere cca 32W. Jo, mám trošku úchylku na watty, takže to možná vyměním za něco ve stylu Nuc, co žere v idle kolem 10W. V mém případě to asi dává smysl i ekonomicky, ale pro někoho, kdo to používá pár hodin týdně, se to nevyplatí ani na té elektřině a i po těch letech to je výkonnostně docela rozumně použitelná věc. Za mě škoda odepsat jen proto, že to je staré.
Prostě se z vás stal takový IT-Amish, nové věci pro vás jsou moc nové, stará auta byla lepší, moderní doba moc uspěchaná. Nechce se vám řešit nové problémy s novým HW a hůře se vám ohýbá. Jo, taky stárnu, to je normální. Ale pořád mluvíte o skanzenu :-)
Lidí ze skanzenu je hodně a vždy se objeví někdo, kdo by chtěl JEŠTĚ starší hardware.
Já si třeba myslím, že Ryzeny 1 generace (2017) a Xeony V4 (2016) jsou dostatečně dobré. Je možné, že mě potká to samé, co vás. A taky se za pár let posunu do skanzenu...
Ne, příteli, hlavně to dnes není třeba řešit a díky tomu je možné věnovat se zajímavějším věcem než obsesivnímu řešení hardwaru. Podsouváte mu úplný nesmysl.
Taky tu vyvíjím na deset let starém CPU. Ne proto, že by bylo cokoliv modernějšího špatné. Ale prostě ho není třeba měnit. Bez problémů stačí. Před deseti lety to byl podstatný problém, dnes už to nikoho moc nezajímá. Takže lidé jako vy nás celkem nepřekvapivě, pokud se ten váš děsný přístup náhodou dostane do praxe, dost obtěžují. Kvůli vašim obsesím pak musím řešit něco, co vůbec není řešit třeba.
Problém je, že výkon hardwaru dávno utekl tomu, co drtivá většina uživatelů běžně potřebuje. Aplikace se staly hrozně nenažranými co se paměti týká, ale výkon není co se běžného použití týče žádný velký issue už roky. Deset i více let starý hardware stačí dnes i pro kdejaký vývoj pokud je k dispozici dost paměti. Natož pro nějaké kancelářské využití.
Možná proto, hele
Souhlasím, že větší problém je paměť, ale i ten výkon a poměr výkon/ spotřeba je dost zásadní. Mě by rozhodně výkon 10 let starého laptopu podobné třídy nestačil, protože video call a další řada souběžně spuštěných programů je dnes běžná věc a tam je prostě starší hardware poměrně rychle cítit. Je fajn, že na aktuálním hardwaru třeba můžu ve videohovoru rozmazat pozadí a nemusím řešit, že za sebou mám třeba zrovna rozložený hardwaru do laborky, nebo doma třeba koš plný prádla a přesto mi stačí výkon nejen na ten hovor, ale i na to, o čem ten hovor je. Třeba konzultace někde uprostřed nějakého obrovského PDF souboru a souběžně třeba ještě firemní chat, emailový program, prohlížeč s dalšími podklady a klidně ještě třeba běžící záloha nových fotek.
"Všimne" a "stačí" je rozdíl. Když někam napíši nějaké slovo, to slovo tam není pro nic za nic, příteli. Nemluvě tedy o tom, že z případů užití, které jste vypsal spadají do běžného použití cca dva.
Jo a ještě něco: většinu třeba naší firmy tvoří architekti. Nikoliv IT architekti. Stavební architekti. A, světe div se, CPU vůbec neřešíme, používáme normální deset let stará čtyřjádra. Podstatné jsou pro nás výkony GPU. Výkonnější počítač máme pouze jeden sdílený když je sem tam někdě něco potřeba. To jen na okraj pro ilustraci.
Co je a není "fajn" je irelevantní, o tom jsem nemluvil. Protože ještě méně "fajn" je pro většinu lidí neustále řešit výměny hardwaru. Potřebujeme pracovat a ne se rozplývat nad tím, jak je něco "fajn" poté, co jsme strávili další čas v ceně desítek tisíc na osobu reinstalací prostředí za něco, co reálně nepotřebujeme, jen je to prý fajn, říkal Adam.
" I běžný uživatel si rozdílu ve výkonu mezi starším a aktuálním zařízení podobné třídy jistě všimne"
Zcela 100% ne. Zato si vsimne, ze mu zmizely konektory ktere pouzival, zprehazely se mu klavesy, prestalo mu fungovat X, a Y a Z a ...
1080p naprosto vpohode zladaly ciste SW CPU pred 15-20ti lety. Zvlastni ze? Tedy predevsim to, ze totez by dnes nezvladly ani jako slideshow. To je ta optimalizace SW ...
Jo, tak kecalek to je uzasny priklad na zatizeni CPU ... tohle fungovalo uz na 386tkach a CPU se pri tom nijak nezapotil.
U starsiho NB vymeni baterku i negramotna opice, u aktualnich to nedestrukcne nezlada ani oficielni servis.
VM si asi nikdy nevidel. Muzu klidne vytahnout 20 let starej HW, a vykonostne to bude uplne vpohode. Co bude problem je nedostatek ram. Ale ta se da za pivo doplnit. Jedinej rozdil bude v tom, ze to 20 let stary bude nejaky 4U, zatimco dneska to je 1U.
A co je u vás "stařičký hardware"? Jsou snobové, pro které je něco, co je starší tři roky prehistorie. I když snobové... spíš dementi, co si myslí, že jediné, co mě zajímá je neustále jen kvůli jejich obsesi úplně zbytečně řešit nový hardware. Jsou lidé, co pět, co deset, pro někoho to bude klidně dvacet let...
Je to úplný nesmysl. Stávající stav je rozumný kompromis.
Podle mého názoru by životnost hardware měla být minimálně 6-8 let a záruka minimálně 4 roky! Rychloobrátkový HW jen generuje hromady elektroodpadu a někdo na něj musí vydělat.
Aktuální doba obrátky notebooku v korporátu je asi 3-4 roky, pak to ztrácí spolehlivost. To je ovšem málo, protože firma jen dokola vydělává na nový HW. Pak tu máte nábytek, který toho nevydrží o moc víc (různé ty fuj kancelářské židle), dřevotřískové stoly a předem ošoupané zátěžové koberce. Všechno v cyklu vezmeme - spotřebujeme - zahodíme.
A rozumným kompromisem by byla právě x86-64-v3.
Pocitas hezky ale uplny nesmysl. Cena energie je na TCO naprosto nezajimava polozka. A to i v pripadne, ze bys vykon zvednul o rad. Jenze realita je tak, ze se bavime o maximalne jednotkach %. Ano, pro velmi specificke ucely to muze byt nejaka ta desitka, a pokud pouzivas opravdu stary HW (20+), tak muze byt ten rozdil v tom "da se" vs "neda se" pouzit.
Navic to, ze prekompilujes neco pro konkretni CPU (coz udelat snadno muze) vubec neznamena, ze se zlepsi spotreba. Muze to byt klidne presne naopak, protoze se zacnou pouzivat instrukce, ktere mozna zvednou vykon, ale klidne taky i spotrebu.
To je poize jedma z teorii a obyvkle spatna. U nas ve firme se koupi mega drahy server, mega nadimenzovany a 7 let je v provozu - dokud prodejce (Dell, HP) garantuje fily a NBD servis.
Tedy server prvni 4 roky kouka z racku co se venku deje a pak zbyle 3 roky jede na pul plynu.
A proc se to tak dela, protoze firma musi mit provozni naklady aby nemusela platit dane a zaroven nikdo neřekne co bude za 3 roky.
Za 12 let si pamatuju ze nas vysplouchl jeden server - koupil se záměrně slabší, s tim ze za covidu je malo penez. Za rok prisel dodavatel s aktualizaci aplikace, ta se nasadila a server jel po roce na pul plynu a špičkově v noci na 100%. Dodavatel se klepl pres prsty, ze studenty si ma nechat na školní projekty a ne na sw za miliony. No a uz takle rok jede.
To se dalo cekat - ono AVX2 na modernim cpu neprinasi tolik uzitku - je to proste draha sranda - protoze to snizuje maximalne dosazitelne takty.
Smysl by to melo u AVX2 only aplikaci, ktere tyhle instrukce budou vyuzivat velice huste - ne u operacniho systemu, kdy je uziti velice ridke, a rekl bych ze v pripade gcc/stdlib omezene temer na obycejne memcpy/memset. A to jsou spis servisni funce, nez samotne jadro aplikaci.
Co říkáš neodpovídá dosaženému zrychlení.
Ber to tak, že AVX2 je z roku 2013 a nemusíš tedy řešit rozdíly ve vývoji do té doby. PŘÍČINA ZRYCHLENÍ tak bude nejspíš v odstranění hromady obezliček pro "před AVX2" procesory z výsledného kódu a další "na první pohled nepodstatné" záležitosti.
Prostě nemusíš řešit, jestli a kterou subvariantu AVX máš k dispozici, nebo jestli musíš emulovat dolů na SSE/FMA(E), protože máš k dispozici AVX2 a moderní procesor.
Další benefity budou na té straně, že postupně dochází k rozšíření registrů, kdy na starších procesorech prostě nebylo vždy úplně jasné, jestli lze rozšířené registry použít, jestli v CPU vůbec jsou. x86-64-v3 ti jasně definuje: AVX, AVX2, BMI1, BMI2, F16C, FMA, LZCNT, MOVBE, XSAVE
Je pravda, že x86-64-v4 se týká už jen 512 bitových registrů (AVX512F, AVX512BW, AVX512CD, AVX512DQ, AVX512VL) a není jasné, jestli by to vůbec nějaký přínos mělo. Možná asi ani ne.
Nevim kde beres pocit ze to neodpovida zrychleni - proste v beznem kodu je X procent memcpy, a ted je tento kod 2 krat rychlejsi, takze celkovy prinos je X/2 procent vykonu navic.
Zadna distribuce neresi subvarianty ani emulace / nahrazky.
Vzdy je to skompilovany optimalne, vuci urcite urovni architektury. Tj bezne ubuntu bezi na nejakem minimalnim hw, a ta nova rekompilace pod nazvem x86-64-v3 ti vyzaduje hw s AVX2. Ani jedna z techto distribuci neresi runtime detekci.
A dalsi zminena nevyhoda AVX2 je dvakrat vetsi kontext, ktery se musi ukladat pri task switchu (otazka je, zda vzdy, nebo jen kdyz userspace pouzije tyhle instrukce).
Runtime detekciu riesi glibc hwcaps. Pokial v systeme existuju binarky pre jednotlive mikroarchitektury, tak dynamicky linker natiahne tu optimalnu.
Takze nic nebrani mat -v2 pre starsie systemy, -v3 pre novsie a -v4 pre tych zopar, co maju AVX512 a vsetci mozu byt spokojni (okrem builderov, ktori musia skompilovat binarku 3x).
x86-64-v3 je imho mnohem menší problém, než se zdá. Přechod na x86-64-v4 by byl, jelikož Avx512 nemá/nemělo spousta "aktuálních" cpu. Třeba do mobilních cpu je intel nedával a amd se dlouhou dobu avx512 vyhýbal obloukem. Navíc pokud si dobře pamatuji, tak použití avx512 bylo u intelu z počátku hodně energeticky náročné a kolidovalo s turbo boostem, takže možná ten přidaný výkon nakonec z hlediska spotřeby není o moc výhodnější.
U avx512 je tu jeste jista past :-) Platforma dva roky stara, zejo...
Je to nabušený procesor, který si poradí - narozdíl od Cortexů - i s neoptimálním kódem. Takže není třeba moc optimalizovat. Ale i tak je Apple např. hlavním tahounem vývoje kompilátoru LLVM a těží z toho i ostatní zařízení s ARMem. Pokud jde o akcelerátory, Apple má narozdíl od AMD stejně kvalitní SDK jako třeba NVidie, takže pro vývojáře je to radost přidat podporu do svého software. AMD např. dodnes nemá funkční ani výpočty na GPU na většině jejich grafik. Natož nějaká podpora AI nebo enkódování videa.
Kernel typicky nepouziva FPU ani mmx/sse/avx, je to opravdu jen na vyzadani, tam kde to ma smysl (napr. u RAIDu, kdyz se procesuje celej stripe najednou, tak dava smysl to zapnout a resit context switch, protoze typickej stripe ma od 128K do 2M rozmeru.. pro par datovejch bajtu v ioctl treba, to smysl nema)
U jádra se automaticky detekují použitelné instrukce a tam, kde to dává smysl, se automaticky použijí. Třeba ten RAID56 zrovna pouští malý benchmark a vybere ten nejrychlejší algoritmus.
Další příklad je crypto, třeba AES instrukce nebo některé algoritmy používají SSEx, AVXx. A třeba CRC32 používá PCLMULQDQ a SSE4.2, pokud je k dispozici.
Opravdu? V debian-like kruzích se nepohybuji ale distribuce, které používám a kam přispívám (nix, void, gentoo) mají build automatizovaný 100%, CI pipeline po každém commitu do repozitáře vybuildí balíčky pro všechny architektury a všechny varianty (krom gentoo, kde se tento krok odehrává většinou až u koncového uživatele). V Ubuntu tohle někdo dělá ručně?!
Však je to průzkum trhu, jak pracovat se segmentem serverů. Protože v Desktopu doposud platilo, že jakmile skončila podpora woken, šel tam vrazit Linux. Jakmile bude platit, že po ukončení LTS linuxu tam bude možno vrazit wokna (s podporou), tak Linux desktop prohrál. Ale u serveru je to úplně jiná liga, tam si myslím backward je zbytečný.
Hromada serverů, třeba taková desetijádra Xeony V2 (má to v podstatě jádra podobná IvyBridge), jsou ještě použitelné - protože hrozně levně seženeš 256, 512 nebo 768GB RAM a například typicky databáze mohou víc výkonu získat z obří paměti než z rychlého CPU. Ale to by se dalo pokrýt LTS...stejně jako ty staré desktopy.
Ovšem, v době, kdy se za kWh bude platit běžně přes 10 Kč, se bude to "levně" čím dál víc relativní. V novějších generacích se špičkový výkon zas tak moc nezvyšoval (řádově o procenta), ale velmi se zlepšovala efektivita v idle stavech. Pokud máte HPC aplikace, kde _průměrné_ využítí budete držet nad 90%, tak to roli hrát nebude, ale ve většině ostatních scénářů to už vliv bude mít.
Proti tomu ale zase jdou obnovitelné zdroje, můžete mít datacentrum na spotových cenách a např. tyhle žravější clustery nasazovat jen když spotové ceny spadnou pod nulu, protože je nadvýroba. Dtto s vlastními zdroji, mně se například na domě spouští crypto miner když mám dům i auto plně nabito, a stále svítí :-)
Staré servery s V2/V4 procesory jsou obecně dokonce i úspornější než nové Xeonové servery. Server s 2x 28 fyzickými jádry a 56 HT a 512 GB RAM a 12TB SSD storage si řekne o 120-180W v mírném zatížení. Teď jsem jeden takový server pouštěl.
Servery začaly být v době vydání procesorů Ivy Bridge (tj. cca úroveň Xeonů V2) poměrně úsporné!
Pokud máš data v paměti a TĚŽÍŠ Z PŘESUNŮ DAT V PAMĚTI, je starý server nejen úspornější, ale i mnohem rychlejší. A ano, pokud bych něco počítal vypočítat, tak chci server s novým Xeonem...nedej bože Epycem, ten to zvládne při stejném přísunu elektrické energie třeba i za 1/3 dobu.
Bude server těžit z ohromné RAM?
ANO? Pak se MOŽNÁ vyplatí starší železo s ohromou ram.
Je to, co se zpracovává, závislé především na CPU?
ANO? Pak nemá smysl o starším železe příliš uvažovat.
Bude to, co se zpracovává, závislé především na rychlosti Disků?
ANO? Pak lze uvážit server s velkou RAM a dostat maximum dat do paměti.
Takové HDD RAID na řadiči s Cahce a pokrytý i velkou RAM umí být (ve specifických úlohách) rychlejší i než diskové pole z SSD disků! Pokud má HDD k dispozici ohromnou paměti a data se čtou opakovaně, může se stát, že se většina požadavků obslouží z Cache/RAM a HDD je často rychlejší v kontinuálním zápisu.
Jistě, mít neomezené finanční zdroje, namyslel bych si kouzelný NOVÝ server s těmi nejlepšími parametry...
29. 12. 2023, 12:21 editováno autorem komentáře
Stare servery nejsou nikdy uspornejsi ani efektivnejsi.
V1/V2 xeony s DDR3 jsou starej kram, ktery tady adoruje jedine urcity clovek, ktery se je pak snazi udat v bazaru :D Do 120-180W by ses s temi 56C/112T V2 jadry nevesel ani v idle, novej se tam vejde v zatezi.
Rozumne minimum je V3/V4, s DDR4. Jednak jsou tam pameti 2x rychlejsi, jsou taky dostatecne velike.
A to tvrzeni jak je HDD pole rychlejsi nez SSD - mi chcete tvrdit ze HDD ma cache, a SSD cache nema? :D kdyz to porovname na stejnem zeleze a zatezi, tak se OS cache bude projevovat u obojiho stejne, a neni jediny duvod, proc by HDD meli byt rychlejsi. Kor v dobe 12G sas nebo nvme ssd.
Prijde mi, ze celej tvuj prispevek je co slovo to dezinfo.
Ehm ... ty zda se netusis, za kazdy dalsi cisilko u DDR taky znamena nejmin 2x vyssi latenci. A kupodivu vetsina aplikaci naopak funguje lepe s mensi latenci pameti, nez s vetsi propustnosti, kterou nijak nevyuzijou. U DDR5 to doslo tak daleko, ze ten rozdil je i uzivatelsky meritelnej, a stroj s DDR5 je pomalejsi ...
A jak sem rek vejs, pri provozu cehokoli je zajimavy jedine TCO. 5+let starej server z frcu koupim za par drobnych, 10let starej dostanu za odvoz. Kdyz potrebuju jeden, odvezu si tri, a mam support kterej nikdo ani za penize neumi, behem 5 minut ho vymenim.
Nauc se cist, RAM je zhruba o rad rychlejsi nez nejrychlejsi SSD ... Takze pokud si nekdo poridi terovej mechanickej disk a jeho obsah bude drze v terovy ramce, bude to rychlejsi nez nvme.
Podla mňa je toto dnes nezmysel, úplný nezmysel...
pár % výkonu? Však sa pozrime kde všade koľko výkonu vyhodíme... ak chceme robiť takéto optimalizácie, mali by sme začať na opačnej strane. Nie zahodiť starý hardware, ale optimalizovať nový software. Hlavne 2015 nie je až tak stará architektúra... i Windows 10 dokáže bežať na staršom... chápem zahodiť už skutočne staré, ale u operačných systémov a hardwaru by tých 15-20 rokov mala byť rozumná hranica... jasne že podporovať dnes hardware z minulého storočia je nezmysel (U kernelu som bol aj prekvapený čo sa poslednou dobou odstraňovalo, a že tam boli aj veci zo 70-tich rokov čo už dávno malo byť preč). Ale s podporou len x86-64v3 a vyššie by som začal teda experimentovať o 5 rokov pozdejšie. Dnes je to brzo...
Predevsim ten vykon nikoho nezajima (nikdo = miliontina promile). Kdyz se podivam po tom co bezi u zakosu na strane serveru, tak vyuziti CPU je 0,00prd. Na desktopech o tom nema smysl mluvit vubec. To co chybi je ramka. Setrvale a vsude. A prakticky vzdy za to muze neuveritelne nesmyslna rozezranost naprosto vseho.
Ano, presne toto jsem chtel zminit. Vykonove zamerene aplikace davno pouzivaji dynamicky dispatching. Toto se tyka casti, ktere nejsou povazovany za klicove a avx2 instrukce se tam dostanou pres kompiler. Podle me je to absolutni blbost a pokud teda avx2 vyrazne zrychluji nejakou cast kodu, tak by se to melo najit profilerem a dopsat tam dispatching, nez zabijet cpu bez avx2.
Klasika. Vyjde nějaký článek, kde se nic takového nepíše a už se děsí lidi v diskuzích co bude.
Canonical jasně řekl, že si zatím jen hraje s optimalizacemi. Ubuntu 24.04 LTS bude nadále u AMD64 se zpětnou kompatibilitou.
Takže se bavíme o podpoře do roku 2034.
Navíc prvotní testy jsou zklamáním. Dopadly pod očekávání.
... podivej, ty rozdily jsou presne v souladu s tim, co se dalo cekat = pod hranici chyby mereni. Rozdil poznas tak, ze vemes HW, a pustis na tom aplikaci, ktera bezi na hranici moznosti toho HW. Napriklad budes prehravat video, CPU ti pojede na 95+% = to video ti bude lagovat. Kdyz ten prehravac (na zbytku nesejde) prekompilujes primo pro ten konkretni CPU, tak se ti povede to zatizeni stahnout na 85-90% = pojede to.
Tohle je priklad situaci, kdy to muze davat smysl. Ale v realnym svete je mnohem uzitecnejsi ta vlastnost, ze ten system jako celek muzes vzit, a nastartovat na uplne jinym HW.
Tux se zcela vseomecne, nejen na desktopu, ubira do ... I ty windowsy na tom jsou vlastne uz do znacny miry lip. Kdyz nic jinyho, mas na ne 10 let support a nemusis kazdy 2 roky resit, co zas nebude na novy verzi fungovat. Pripadne kterej frikulin ti rekne, ze tvuj 3 roky sterej CPU je nepodporovanej, protoze neumi instrukci XYZ, kterou vubec nikdo nikdy nanic nepouzije, ale rust ji nutne musi mit.
Právě jsem zjistil, že AVX2 má dokonce i i7-5600U, "tikající" v mém Lenovo X250, které považuji za už fakt hodně prastaré.
Myslím, že by tahle změna požadavků nemusela být problematická, protože kolik procent uživatelů reálně stále používá hardware starší než 8 let?
Navíc v různých secondhandech se podstatně novější hardware dá pořídit doslova za pár drobných.
To byste se divil kolik. Právěže dost. Když to tak vezmu, třeba kolem sebe mám přesně jeden stroj mladší deseti let a to můj notebook kupovaný zcela nedávno proto, že tomu původnímu začala odcházet klávesnice. Jinak můj desktop, desktopy i notebooky všech příbuzných i všechny desktopy u nás v kanceláři mají CPU uvedená na trh cca před deseti lety.
On ne každý má obsesi neustále měnit hardware. Ostatně proč by to dělal, když deset let starý stroj pro práci bohatě stačí.
Tady nejde o to, ze deset let stary mid nebo high end cpu to ma, ale problem jsou ruzne pentia a celery, v uspornejsich systemech, ktere to holt nemaj.
Na tom jsem si uz nabyl s gentoo hubu kdyz jsem mel AVX2 zapnuto (protoze prece cokoliv od Haswellu to ma.. no... fakt nema! )
Kdyz koukam u ufona na lowend cpu, maj presne dva v prodeji dnes:
Celeron G5905 [LGA1200] - nema AVX2
Pentium Gold G7400 [LGA1700] - ma AVX2
Hypoteticky LGA1700 celeron? existuje treba G6900 - ten ma AVX2
Takze zaruceny AVX2 prichazi teprve az s lonskou LGA1700 platformou :D
30. 12. 2023, 23:19 editováno autorem komentáře
Odborny komentar:
Optimalizovat kernel kompilaci nema vubec cenu, nebot vubec nic, co jde vypocty optimalizovat nepouziva - naopak, casto je lepsi pouzit mene optimalizaci, coz uz bylo potvrzeno - kernel muzou optimalizovat jen a pouze vyvojari, por. zmenopu parametru TECKA.
To same casto plati i pro zakladni knihovny a I/O aplikace - mene optimalizaci zarucuji casto i rychlejsi beh, nevolaji se uplne zbytecne instrukce jinych casti CPU - proc by melo neco, co nepotrebuje neco pocitat cekat na nejake SSE/AVX atd. ? - je to jina cast a lze ji vyzuzivart partalelene - takze kdyz ji treba bash nevyuzije, nebude na ni cekat a nebude brzdit dalsi apky.
A kde to smyl ma, no prave u aplikaci, treba GIMP, kryptografie, dekodovani videa - darktable to cenu moc nema, ten se snazi vyuzivat GPU, leda by jste vypli GPU a ladili to.
Dale samozrejme vedecke vypocty, fortran atd. - tam vsude ma smyl kompilovat, ale bacha, pokud mate vice stroju, pri optimalizaci vam pobezi jen na tom stroji a novejsim - a zapomente na kompatibilitu AMD vs INTEL - tam je nekompatibilita 100% - vlastne je to pro nej pak uplne jina arch. - rekne neco o ilegal instruction, jine arch etc. --- ja tohle resil sveho casu na universite, pouzivali SW z CERNu - taklze jsme mel auto instalcni scripty - jeden co updaoval vse a v addr. dalsi - a tyhle veci se vzdy kompilovaly pro kazdy stroj zvlas, presneji si to zkopiloval ten stroj sam a kdyz byl upgrade, tak to preplacl znova - jasne, vse v /usr/local
Suma sumarum, celou distribuci kompilovat takto naprosto ztraci smysl - ja bych to udelal tak, ze bych dal jen urcite baliky do jineho repa, podle verzi CPU a clovek co by to chtel by si to naintaloval a ve verzi by bylo na konci pro co to je, tim by to byla jako ze novejsi verze a nekolidovalo by to s originalem, ten by se kdyz tak zakazal - nebo do nazvu baliku, sveho casu tak bezely ve fedora/RHEL freeworld aplikace, treba knihovna pro TTF fonty s patentovanymi algoritmy, pak se pri update updatovaly taky jen ty z freeworld