hodně přibližně to lícuje, jak to řeším v projektech, hodně dlouho jsme zůstávali na 4TB, pak opatrně přešli na 6TB, drželi se stranou 8TB+ a dnes už vesele jezdíme na 16TB a spolehlivost je vesměs dobrá. Samozřejmě v množství stovek, tisíců ks to jsou spíše zkušenosti pocitové než tvrdá data jako od Blackblaze.
Ano, helium.
Nejstarší mají asi rok a půl, z asi 300 ks se jich měnili jednotky ks, v podstatě jsou pernamentně v zápřahu, koukám na jednom clusteru, 1 denní průměr zápisu 28,6 MB/s, čtení 34,2 MB/s přes všechny disky, tj. nejsou to archivní ležáky u kterých se problém pozná až při občasném čtení.
Většina jsou HPE P23863-B21 (což je brandovaný Saegate ST16000NM010G), technologicky a generačně se jedná o shodný kus jako má Backblaze pod ST16000NM001G s poruchovostí 0,88 %, což v podstatě na chlup odpovídá tomu co vidím u HPE P23863-B21.
Ty 10/12/14 jsem úplně přeskočil, neměl jsem dobrý pocit a hlavně ani potřebu, u 8 jsme hodně bojovali s poruchovostí, během několik týdnů odpadávali, tak jsem zůstal u návrhu s 6. Dnes už se situace tak změnila, že 6/8 jsou skoro dražší (reálně, ne v ceníku) než 16, tak jsme se rozhodli předesignovat clustery a nasadit větší disky.
Není to 10 let ale 7,5 roku.
No každopádně uteklo to jako voda (nebo spíš helium:).
Chtělo by to ty 8 let staré disky prověřit jestli ještě fungují. Protože 8 let je hranice, kterou jsem ochoten tolerovat. Jinak je SSD lepší volba.
Pošlete link na >10TB 7200RPM HDD bez helia, SMR, MAMR. Rád bych nějaký koupil.
5. 8. 2023, 14:56 editováno autorem komentáře
To si trocha protirecis kamo, jsi napsal pozadavky a ja ti nabidl matching produkt. Tak kde je zas problem? Ze by jsi jenom kecal?
Prakticky kazdy disk v dane generaci je na "hranici" moznosti. To platilo VZDY, od prvnich do poslednich disku za poslednich 30-40 let. Protoze progress ve vyvoji disku je spolehlive ulozit co nejvice Tbit/in.sq, a pokud se ma jednat o mensi kapacitu nez top model dane generace, tak ma jenom mene ploten, nebo je tam umele omezena kapacita.
Prakticky nikdy neexistoval disk, ktery by nebyl na hranici technologickych moznosti.
A zda disku verit? To probuh kdo kdy veril diskum? Proc asi mame raidy a zalohy?? (a i ty zalohy maji sva pravidla.. off site, jiny model, jina technologie, atd..)
Požadavek je na více než 10TB.
A nabídl jste 10TB. Takže to není matching.
Jasně že když má méně ploten. Tak je méně náchylný na poruchy ložiska.
Omezená kapacita = menší hustota dát = větší odolnost na prachové částice.
Evidentně je nějaký fyzikální strop, kolik se vejde dat na jednu plotnu. Protože výrobcům se tuto metu nedaří překonat už 5 let.
Tak nějak logicky, když výrobce nezvládne 12TB s CMR bez helia. Tak 10TB bude blízko nebezpečné hranici. 8TB vykazuje mírně horší vlastnosti.
A statistiky to potvrzují.
Zatím to vypadá že 16TB s heliem je na tom dobře.
To hermetické uzavření má asi svoje výhody.
8 let by mohli vydržet.
Dále už jen souhlas. Zálohovat. Zálohovat. Zálohovat.
Evidentně je nějaký fyzikální strop, kolik se vejde dat na jednu plotnu. Protože výrobcům se tuto metu nedaří překonat už 5 let.
Myslim ze to prekonavaji v pohode.. 16-18TB meli zhodne 9 ploten / 18 hlav, tj. hustota se zvysila. S 20 TB se zvedl pocet ploten na 10 a hlav na 20, a ty vyrobky pote zas zvysovali hustotu (22 a 24 tb).
Zlepsovani hustoty se delo spis skrze lepsi vystavovaci mechanizmus, ktery ma nyni az 3 segmenty.
Zadna nebezpecna hranice neexistuje. Srovnejte si to s nanometry na cipech.. vzdy jsou mensi a mensi a znamena to ze kazdy node je defakto nebezpecny?? Vubec. Pokud ten disk dodrzuje svoji UBER specifikaci, tak je v pohode.
Proti odcházení disků se používají různé "RAID" a zálohy a ne nové disky. Nicméně i tak, jak je vidět z odkazu, tak 8 let starý disk neznamená, že zítra umře.
Viz z odkazu 8 let staré Toshiby 4TB - 0% poruch (ok, mají jich jen 94), 8 let staré Seagate 6 TB - 1,36% (jen 883 kusů), 7,5 roku Seagate 4 TB už slabších 3,79%, 7 let staré HGST 4 TB 0,45% a 0,74%. Nejvíc tam je téměř 20% u 8 TB u 5 let staré Toshiby, to už je hodně ale i tak. Když budete mít nějaký "RAID" z 5 disků té nejhorší série, tak vám za rok odejde jeden disk. Tak ho prostě vyměníte a jedete dál. Když nebudete mít smůlu na špatnou sérii tak selhání jednotkách procent znamenají, že při menším počtu disků se s poruchou pravděpodobně vůbec nepotkáte.
A co kdyz vam odejde u rebuildu dalsi disk a prijdete o rodinne fotky za poslednich 20let? Statistika u 5ti disku bude jina nez u 10tis disku. Treba ma zkusenost se seagate disky je takova ze z 10ti nas disku ktere jsem kdy v zivote koupil odesli vsechny v prubehu tydne, zatimco wdc gold mi neodesel zadnej. Kamarad ma zkusenost opacnou. Doma provozuji pole na zfs a dalsi pole na apfs a kazdy rok upgraduji abych se vyhnul potencionalnimu problemu. A samozrejme zalohuji.
To vam zrovnatak muzou odejit ty disky relativne nove a rychle po sobe. Ze clovek nakoupi nove rozhodne negarantuje, ze to bude automaticky mene poruchove. Spise nez stari je dobre sledovat pre-fail statistiky toho disku. Vetsinou disk i na svuj planovany odchod do kremikoveho nebe upozorni v dostatecnem predstihu.
to se pleteš, největší šance, že disk selže je právě, když je nový či pár týdnů v provozu. Domácí disky umírají často kvůli ložiskům, protože se musí pořád znovu a znovu roztáčet.
Nové disky mají vysokou hustotu dat, je tam mnohem větší riziko, že se daná část poškodí. Raději si data pravidelně ověřuji než bych spoléhal na to, že každé dva roky koupím funkční disky.
No přesně, mě fascinuje jak tu zdá se nikdo neslyšel o https://en.wikipedia.org/wiki/Bathtub_curve
Rodinné fotografie mám na CMR disku v šuplíku.
Měl bych pravidelně ověřovat že tam jsou?
A co lidská chyba? Disk se při manipulaci může rozbít.
Na druhou stranu sbírku hudby v MP3 jsem vždy přesouval na nový disk. Každé 2 roky. Po 10 letech jsem zjistil že každá třetí písnička nehraje.
Kolegovi se něco podobného stalo s foto.
Jak ověřujete že tam data jsou?
To mám každý měsíc prohlížet 1000 fotek?
Na všech zálohách.
Takže dlouhodobou zálohu je třeba mít na různých úložných technologiích a různých geolokacích.
Helium a SSD se na toto vůbec nehodí. A jestli někdo potřebuje dlouhodobě skladovat víc jak 8TB, tak ho lituji. Protože jen kontrola integrity je horor.
Ad To mám každý měsíc prohlížet 1000 fotek?
:
Na tohle jsem měl v dávných dobách napsanou aplikaci "JustRead", která prostě četla data - a pokud byl disk nečitelný, systém se ozval.
Později jsem přešel na systém spočítat kontrolní součty a jednou za čas zkontrolovat, že se nezměnily. Zvládne to jednoduchý script a ode mne se čeká, že to nezapomenu jednou za čas spustit.
> Jak ověřujete že tam data jsou?
V jedné z minulých prací se tohle dělalo tak, že:
- záloha byl tar.bz2 (dneska bych asi použil squashfs, komprese na nejvyšší nastavení velmi účinná a můžeš ho normálně namountovat a podívat se na nějaký soubor, aniž bys to celé rozbaloval)
- k záloze se pomocí programu par2 vypočítaly samoopravné kódy, které umožňují opravit soubor i když by bylo X % poškozeno
- tohle se dalo na externí disk a každý rok se kontrolovala čitelnost (par2 umí check)
Nevýhoda samozřejmě je složitost inkrementálního zálohování po jednotlivých souborech a rotace těchto inkrementů.
Minimalne 1x az 2x rocne bych disk alespon roztocil aby nezatuhla loziska ci bylo ze smartu / poslechem jasne ze zacinaji tuhnout. To je absolutni minimum co by mel clovek udelat pokud nechce sjizdet dlouhe testy.
I tak ale je mozne za nejaky ne az tak drahy obulus ta data vytahnout. Precijen i fota z rodinne dovolene mohou byt nasobne drazsi nez cena letenky po evrope.
Přesně tohle ale z té statistiky vidět není. Je tam vidět že jsou horší série a lepší série a 8 let není žádné magické číslo kde by se spolehlivost lámala. Máte tam rok staré 16TB s AFR 0,6% ale i 7 let staré 4 TB s 0,45%.
20 let staré auto začně mít problém se vším co je z gumy, s korozí a tak, ale nic takového u disků nehrozí, takže to je špatné porovnání.
Jinak obecně má spolehlivost tvar U. Nejprve odejdou slabší kusy, pak je dlouho spolehlivost maximální a pak začne poruchovost narůstat. Ale velikost toho U záleží na konkrétním výrobku a sérii.
raid 1 přece není záloha, mít vše na jediném stroji je prostě risk. Zvykl jsem si používat SW replikaci a udržuji X živých kopií s průběžnou kontrolou integrity, není nic horší než chtít přečíst hodně stará data a zjistit, že už nejsou.
Velká část běžných lidí dnes už používá cloudy a drží data tam, jen titěrné minimum má doma nějaké uložiště.
velká část běžných lidí dnes už používá cloudy a drží data tam. K tomu mám dvě poznámky:
I několik terabajtů uložíte do cloudu bez toho, aby to stálo milion. Jen už je samozřejmě nemůžete sypat kam vás napadne. Ale zrovna ten Backblaze nebo Wasabi a další jsou dobrý příklad toho, že i to jde levně; zvlášť se současnou cenou elektřiny. Ostatně já mám dvě kopie: právě jak v cloudu, tak doma na rotačních discích. (Většinu času vypnutých.)
Horší je to samozřejmě s desítkami terabajtů.
Celkem triviální kalkulací zjistíte, že od jisté ceny elektřiny opravdu nestojí. Úspory z rozsahu jsou úspory z rozsahu, na to není třeba být atomový vědec. A to nemluvím o tom, když ty zálohy chcete mít na dvou místech tak, aby to dávalo smysl.
Dokud byla elektřina levná, skutečně to vyšlo o dost levněji lokálně. Poslední dva roky byl levnější cloud a teď je to tak nastejno. Disky navíc nestojí stejně. Jednak je skoro jisté, že Backblaze je nakoupí o dost levněji. A na druhou stranu ty moje se fyzicky roztočí dvanáctkrát za rok na den a jinak stojí (a to ještě jen některé) takže se zase neopotřebovávají. Takže ani to není pravda.
Nestoji to vzdy vic, nez vlastni uloziste. Kdyz tedy chcete stavbu DC+zabezpeceni DC+certifikace+obsluhu v 3 geograficky oddelenych lokalitach+nahradni dily do serveru aby bylo tam co vymenit+spravu. Cloud umi i slevy z cennikove ceny, kdyz nejste mali.
Je neco jine, kdyz minimalne 5 lidi na dohled nad DC 24/7 "obsluhuje" 10 stroju a 10 000 stroju. Pri 10 000 se nebudou tolik "flakat", ale jako pri 10 tam byt musi. Stejne jako sitove prvky nebo lidska sprava - pri 10 000 to treba mit vice automatizovane, co zase ubira z nakladu.
Stoji to vzdy vic a nemuze to byt jinak. Opak muze tvrdit leda osoba rozumu mdleho, ktera nezvlada operaci souctu.
Ten disk ktery si koupi provozovatel stoji presne totez, jako kdyz si ho dojdu koupit do nejblizsi garaze. Spis naopak, ten jeho bude o dost drazsi. Proc? Protoze zatimco ja si domu koupim sata disk, ktery pichnu do libovolneho sata konektoru, on bude potrebovat sas, a na to krabici, radic, ...
Za zakazniky pravidelne chodi prave taci nosici vody ... co tvrdi, jak ten cloud je uzasne vyhodny a levny, mam tudiz jiz desitky nabidek. A aby byly srovnatelne, vzdy nechavam nacenovat pouze "hloupe" uloziste, bez jakyhkoli dalsich sluzeb, vcetne toho, z nechci ani zadne zalohovani.
Nikdo to nedokazal nabidnout levneji, nez za dvojnasobek vlastniho uloziste. Typicky se ale cena pohybuje spis na 3-5nasobku. A to podotykam, ze se v te cene nijak neresi takova zbytecnost jako konektivita. V tomto pripade se uz pak nebavime o nejakem soho storage, ale o polich o desitkach az stovkach disku. Jinak receno, typove jde o stejny HW ktery bude pouzivat prave ten provozovatel.
Typicky zvanilove blaboli o uspore z rozsahu, ktera se ale nekona. Protoze kdyz si v cloudu zaplatim 1TB, tak budu vyuzivat 1TB, takze oni to 1TB musi mit, ze? A kdyz si zitra vzpomenu, ze to chci rozsirit na 10TB, tak opet oni musi mit tech 10TB, zitra, ne pozitri.
Stejne tak miluju zvaneni o uspore za lidi. Rekneme ze mam ve svem portfoliju odhadem tisicovku disku ulozist. Rocne to obnasi tak 2 hodiny prace celkem = vymena tak rekneme +-10 disku. A to vcetne toho ze se jdu podivat do administrace ze je pole spokojene. Pricemz zcela pomijim, ze kdyz na to prijde, tak pole pod supportem dodavateli posle report o vadnem disku, a ten posle disk, i pikolika, ktery ho vymeni.
Vidim to i trochu z jine pozice. Jak dlouho bych posilal i z firemni pripojky ctvrt az pul tera dat z dovolene. On totiz ten kabel z cmoudu az ke mne nevede jako dedikovany 10G okruh
Sefove se pak strasne divi ze strihac nebo animator fakt v cmoudu pracovat nemuze. A to jsou jine datove objemy. A urcite jim kazdej den bude postou posilat disky.
Kdy jste naposledy poslali z hotelu pul tera dat? Ja jen ve dvou pripadech. Korea a Japonsko (centrum Osaky).
8. 8. 2023, 20:57 editováno autorem komentáře
@Ratbatcat
Tak si pletete zalohovani s technikou na zlepseni dostupnosti sluzby.
Tech scenaru, ktere ho muzou rozbit, je spousta; selhani dalsiho disku pro rebuildu je sice mozne, a dokonce disky pri rebuildu i statisticky casteji umiraji (kvuli zatezi), ale je to smesne mnozstvi pripadu proti treba lidske chybe. RAID je tu od toho, aby nebyla prerusena dostupnost sluzby. Pro zalohovani dat je tu... zalohovani.
Co je lidská chyba?
Že má někdo všechny data na jednom disku?
Že klikne na odkaz v mailu?
Že člověk škodí druhým? (Dnes za pomocí ChatGPT ale stále za útokem stojí člověk)
Hodně běžných HDD odejde při manipulaci.
Naštěstí v notebookách už jsou jen SSD. A prosazují se už i mezi externími disky. (2,5" HDD končí na 5TB a SSD je brzy prevalcují. U 3,5" to půjde pomaleji)
Jednou jsem řešil ztrátu hesla. O generaci starší model šel prolomit. Ale backdoor výrobce zavřel v nové verzi.
Ale o většinu dat jsem přišel tak že mi kleknul disk.
Něco byla lidská chyba. Hlavně ignorování stáří disku.
Ale většinou se disk prostě zadře sám od sebe.
Většinu dat mi zachránil RAID protože tam těch dat je nejvíc.
Něco šlo obnovit ze záloh. Něco zvládnul obnovit SW na záchranu dat.
Jednou mi selhal řadič RAID. To jen aby to nevypadalo že RAID je všemocný.
Velmi často řeším nečitelné sektory na HDD.
Může být chyba v disku. Ale vzhledem k tomu že se to děje hlavně notebookům, bych tipoval hrubou manipulaci. Ale to většinou postihne jen jeden soubor. Kdežto zadřené ložisko vede ke ztrátě celého disku. A je to nejčastější problém HDD. Obnova je možná. Ale stojí to tolik že to nikdo nedá. Časy kdy šlo prohodit plotny doma na koleni jsou už pryč.
Tak je stáhne ze vzdáleného backupu, který stejně musí mít pokud mu na těch datech záleží.
Protože před živlem, zlodějem, lidskou chybou, ... neochrání ani 10 superspolehlivých disků v RAID1.
Kamarádovi v domácí NASce odešel zdroj a vzal s sebou do věčných lovišť i všechny disky (asi přepětí na 5V).
O oddelenem backupu zadna. Levnejsi nez cmoud ukazaly se pasky s rodinnymi daty v bezpecnostni schrance.
Ale zrovna slusny zdroj ma byt failsafe proti vlastnimu prepeti na 5V vetvi. Tohle se vetsinou stava u zdroju z papiru nebo pokud kamos nema resenu spravne u baraku kaskadu prepetovych ochran.V lete je toho hodne u nadzemaku.
Na druhou stranu i obnova rotacniho disku po odpaleni elektroniky muze byt dobre mozna avsak nikoliv levna. U SSD to misto controlleru muze vzit i flash bunky a to bych fakt nechtel resit.
Z usmazenych bunek fakt dump udelame tezko.
8. 8. 2023, 12:13 editováno autorem komentáře
U 8TB Seagate (teď nemám po ruce typ, ale zcela jistě to je CMR) mne proti 4TB docela zaskočilo, o kolik má vyšší provozní teploty. Udržet ho pod 50st v podstatě nemožné, našel jsem pak i ve specifikacích, že to je očekávané.
Nojo, ale jaksi uchladit se to musí, zvedá to tepelnou zátěž pole jako celku atd...
Jinak funkční dobře, spolehlivost u pár kusů nevypadá zle, ale ta teplota mne tedy fakt nepotěšila :-(
HDD mají svojí optimální teplotu na kterou jsou stavěné. A paradoxně podchlazené (tuším že 18°C, snad tu studii najdu) mají kratší životnost než při provozní teplotě 40°C.
>60°C potom už škodí HDD i SSD.
Ale jestli výrobce navrhl HDD na 60°C, tak by mu to nemělo vadit. Jde o to že při nízké teplotě má ložisko vůli. Ta způsobuje vibrace. A to je cesta do pekla.
Serverovnu chladím na 18 protože tam mám jen SSD. A u těch čím méně tím lépe.
Při 16°C už může kondenzovat voda takže na to pozor. Těch 18 je příjemné i pro obsluhu.
Zas máte nějaké magické číslo. 16°C není žádná magická hranice kde najednou začne kondenzovat vlhkost ve vzduchu na vodu. Rosný bod závisí na teplotě a relativní vlkosti vzduchu a může tedy nastat při jakékoliv teplotě.
Např. tady máte tabulku pro běžný rozsah teplot v interiéru 10-40°C
https://waterleak.co.uk/help-tips/dew-point-chart/
V každém případě u běžícího disku, který si tedy sám topí je to jedno. Ten disk bude vždy teplejší než okolní vzduch, takže na něm nic kondenzovat nebude.
Dokud jsem měl "NAS" s disky na půdě, kde je -5°C až +50°C, tak mě disky odcházeli, ale ne na kondenzující vodu. Od doby co mám "NAS" ve sklepě kde je od +10°C do +20°C tak mě neodešel žádný. Co to dokazuje ? Asi jen to, že disky nemají rádi extrémní horko.
K té kondenzaci máte pravdu. Ale 16°C je pozorováním ověřená hranice. Když je venku 100% vlhkost = mlha. Tak v našich zeměpisných šířkách se nestává že by teplota překročila 16°C. Jo někde u rovníku v pralese je to běžné. Dnes je u nás venku 95% vlhkost a 14°C. A to je už docela extrém. Asi tak.
Kapky se vytvoří na nejstudenějším místě a pak budou po kabelech stékat k elektronice. To je též životní zkušenost. Pak mám jeden hororový příběh. Účetní bylo v létě vedro. Tak otevřela dveře vedle do serverovny a pustila klimu naplno. Kapajici kondenzat cákal na server.
Zpět k HDD a teplotě. Provozoval jsem 2U diskové pole v klimatizované místnosti 16°C. Po 6ti letech první odešli krajní disky o teplotě 22°C a ty uprostřed co měli 40°C vydrželi 9let. Je to vzorek jen 12 disků. Ale velká studie tyto čísla potvrdila. Jen jí nemůžu najít. A už mám SSD. Takže mě to nezajímá.
6. 8. 2023, 08:36 editováno autorem komentáře
Ty vaše argumenty nic moc.
Tabulka ukazující "běžné" hodnoty má políčko pro 40°C a 100% vlhkost. 1) To není běžná hodnota ani na rovníku. 2) Pro člověka to je smrtelná kombinace, protože se nebude moc ochlazovat pocením.
A dokazovat, že diskům nevadí nízké teploty, tím že v mrazu odcházejí častěji než při +10°C. No vzhledem k brzké ranní hodině se to dá pochopit.
Tabulka "překvapivě" ukazuje všechny hodnoty od 10°C po 40°C a vlhkost od 10% po 100%, takže není divu, že ukazuje i kombinaci 40°C a 100%. Údaje pro vaši relativní vlhkost a teplotu si tam musíte nají sám.
V interiéru je u nás běžných 40-80% vlhkosti a tam pro vašich "kritických" 16°C je rosný bod 2,3°C až 12,5°C dle té vlhkosti. Nenapadá mě moc způsobů jak dokázat aby běžící disk při okolní teplotě 16°C měl 2,3°C až 12,5°C aby na něm něco kondenzovalo.
To že na disky nebo servery může kapat voda odjinud, je ovšem jiná věc. To ale souvisí s blbých technickým řešením případně poruchou, ne s teplotou. To že kabely vedoucí někam kde je zima mohou přivést kondenzát co vzníká jinde až k serverům se stát může. Proto je dobré mít na kabelech ohyb před vstupem do racku, který vytvoří nejnižší místo jinde než v tom serveru (a ještě lepší je uzavřít tu trubku či husí krk kterým ten kabel vede aby tam žádný kondezát nevznikal).
Těm disků na půdě nevadilo těch -5°C, protože v casu bylo tepleji, ale těch okolních +50°C kdy samotné disky pak atakovaly +70°.
Při 16°C v serverovně a 70% je rosný bod 12,5°C => nic se na disku kondenzovat nebude. Při 12°C v bytě a stejné vlhkosti je rosný bod 6,6°C a opět na disku kondenzova nebude. Snažíte se okecat situaci která u serveru či "NAS" nemůže nastat dokud nebudete mít v serverovně relativní vlhkost 100% či více. A v takovém případě budete mít větší problém než jen mokrý disk.
Kondenzovat voda vám bude jen na disk, který přinese v zimě zvenku do vyhřátého interiéru.
Bože.
Sice nechápu proč to řeším.
Nic o kondenzaci vody na HDD jsem nepsal.
To bylo obecné doporučení pro teplotu v serverovně.
Takž se do toho zbytečně zamotavám.
Protože někdo neumí číst ani základní text, natož odčítat hodnoty z tabulky. A takovým je těžké psaným textem něco vysvětlovat.
Ale zkusím to ještě jednou a naposledy.
Když budu mít 22°C a 70% vlhkost a klesne teplota na 16°C tak vlhkost dosáhne 100% a vše studené se orosí. Včetně ploten HDD když budou vypnuté. Po návratu z dovolené zapnu disky a kvůli vodě se nevytvoří vzdušný polštář mezi hlavičkou a plotnou a hlavička či plotna se může poškodit.
V praxi se nic nestane, ale teoretická možnost tam je.
Po návratu z dovolené zapnu disky a kvůli vodě se nevytvoří vzdušný polštář mezi hlavičkou a plotnou a hlavička či plotna se může poškodit.
Tento problem resi He disky, takze kondenzovat bude jenom voda na deskach.. a kdyz takovou vec po navratu z dovolene zapnete, tak vam odejde zdroj, zakladovka, pameti, grafika, disky a mozna i cpu :D
U sebe problem nemam.. IT veci nevypinam, jen notas/tablet a monitor se uspava.
Výhody He jsem tu už psal.
Desky jsou od dob i386 lakované.
Ještě se mi nestalo aby něco vyzkratovala vlhkost.
Je to snad u každé elektroniky v návodu. Že před zapnutím se mají nechat vyrovnat teploty s okolím. Kvůli vlhkosti.
Uspany notebook/tablet buď má nulový odběr. A bude mít teplotu stejnou jak okolí.
A nebo bude mít nějaký odběr do doby než se mu vybije baterie. Nechat běžet NAS/MMC když ho nepotřebuji = Plýtvání elektřinou.
Gratuluji! Puvodni diskusi o discich jsi dokazal nahradit diskusi o rosnim bode. A i kdyz odjedes na dovolenou a teplota ti klesne na 16C a vlhkost budes mit na 100% (odkud by se tam vzala je jina vec) tak se ti voda v uzavrenem HDD neobjevi. Pro tvou predstavu, mam par pocitacu ruzne po svete, 100% vlhkost a ze by jsem nekdy vyleval vodu z HDD se mi nestalo. Dokonce se mi nestalo ani ze bych vyleval vodu z pocitace.
Já tu diskuzi neotocil. Jen řeším ideální teplotu pro provoz HDD. A nelze obecně říct že čím méně tím lépe.
" se ti voda v uzavrenem HDD neobjevi"
V uzavřeném heliovem disku se neobjeví.
Ale v běžném HDD se dovnitř dostane se vzdušnou vlhkostí a při změně teploty může kondenzovat.
Po zahřátí se zase odpaří, takže vylevat ji nemusíš.
PC pro obsluhu stroje v rovnikove Africe jsem už řešil. A výrobce stroje měl požadavek na odolnost proti vlhkosti.
Elektronika má ráda konstantní teplotu. Obzvláště po tom co zavedli hoRoHS ve snaze omezit olovo.
Ideální teplota v serverovně by měla být konstantní. A čím menší, tím lepší. Jenže méně než 16°C = problémy s vlhkosti. Když jsem tam měl 16°C tak mi to každou chvíli někdo zvedl na 24°C protože mu tam byla zima. I já jsem si nechával otevřené dveře = výkyvy teplot.
M$ experimentoval se servery na dně oceánu +4°C. A měl dobré výsledky. Ve sklepě +10 to je fajn. OK.
Ale za mě je ideál 18°C. Těch pár stupňů navíc nevadí. Důležitější je aby to nekolísalo. A pro HDD je ideální prý +20°C, tak aby provozní byla kolem 30°C. Ale to naštěstí nemusím řešit. Kapacita SSD mi stačí. Jestli vám HDD fungují v zimě při +10 a vlete +20, tak tomu věřím. Je to lepší než výkyvy 10° každou noc/den na půdě. To nedělá dobře ani elektronice a ani jemné mechanice v HDD.