Tahle vaše historka se dá něčím doložit, nebo jste si jí vymyslel? Pokud já vím, btrfs funguje jinak. btrfs nedovolí v normálním režimu připojit souborový systém, který nesplňuje pravidla daná administrátorem – takže například nepovolí připojit souborový systém s nastavením RAID1, pokud je k dispozici jenom jeden funkční disk. Protože na jednom disku prostě RAID1 nelze provozovat, požadavky správce tedy nejde splnit. Správce to tedy musí vyřešit, a má dvě možnosti – buď doplní disk, aby byly splněny podmínky pro provoz RAID1, nebo určí, že souborový systém má být v režimu single, tedy stačí, když existuje jen jedna kopie každého datového bloku. Pokud vám vadí, že u jiných RAID systémů se automaticky zvolí druhá varianta a správce je o tom jen informován někde v logu, zatímco u BTRFS to musí správce aktivně zvolit, je to váš problém.
Patrně se vám to plete s degraded režimem připojení souborového systému, což je opět vědomý zásah administrátora, který souborový systém připojí ve speciálním režimu umožňujícím opravu RAIDu, který nesplňuje zadaná pravidla. Asi není úplně šťastný ten název „degraded“, protože se to evidentně lidem plete s degradovaným RAIDem z jiných systémů. Tohle je spíš administrátorský režim, podobný třeba single-user režimu linuxových distribucí. Připojit BTRFS v tomto režimu bylo dříve možné jen jednou, aby se tím podtrhlo to, že jde o speciální administrátorský režim, který slouží jen k opravě problému, ne k běžnému provozu. Dnes už toto omezení pokud vím neplatí, lidé zřejmě rádi provozují souborový systém v režimu opravy v běžném provozu, jako by se nic nedělo.
Tak treba https://seravo.fi/2015/using-raid-btrfs-recovering-broken-disks
Pokud je to fixnute tak neni co resit. ;)
https://btrfs.wiki.kernel.org/index.php/Status
Degraded mount: applies to raid levels with redundancy: needs at least two available devices always. Can get stuck in irreversible read-only mode if only one device is present.
Muzete to obhajovat jak chcete, tohle je proste facepalm.
Muzete to obhajovat jak chcete
Proč mi to podsouváte? Já jsem pouze vyvracel vaše bludy pramenící v lepším případě z toho, že nerozlišujete různé provozní stavy souborového systému.
tohle je proste facepalm
Souhlasím. Když si uvědomím, jaká posloupnost kroků musí proběhnout, aby k tomu došlo, věděl bych i adresáta toho facepalmu. Bral bych to jako takové mírné varování pro dotyčného správce, že tentokrát skončil jenom se souborovým systémem v read-only režimu, ale pořád má všechna data – ale když bude dělat takové vylomeniny, příště může dopadnout hůř.
Filip Jirsák 23.08 11:49
u jiných RAID systémů se automaticky zvolí druhá varianta a správce je o tom jen informován někde v logu
uz ponekolikate opakujes toto, ackoliv si byl upozornen ze to je lez, proc umyslne lzes?
mdadm ve vychozim nastavani ma nastaven email monitoring, tedy kdyz vypadne disk a raid se prepne do degradovaneho rezimu, jsem o tom behem nekolika vterin informovan emailem...
Jaká lež? Mdadm automaticky přepne do režimu bez redundance (data jsou jenom na jednom disku), a správce je o tom jenom informován. Nezáleží na rozhodnutí správce, jaký způsob řešení zvolí, prostě jenom dostane informaci. Jestli je ta informace v logu, monitoringu nebo v e-mailu je v kontextu diskuse úplně jedno, podstatné je, že rozhodnutí nedělá správce, je o něm jenom informován.
@Filip Jirsak Jestli je ta informace v logu, monitoringu nebo v e-mailu je v kontextu diskuse úplně jedno,
to neni jedno, je to velky rozdil oproti tomu co si psal predtim:
správce je o tom jen informován někde v logu
rozdil je v tom ze pres vychozi email notify u mdadm se o tom dozvim okamzite... ze zrovna ty s uchylkou na slovickareni ignorujes tento rozdil...
Zatímco když se to zapíše do logu, ten slízne monitoring a pošle to na e-mail, takže se to dozvím okamžitě. Já tedy mezi „okamžitě e-mailem“ a „okamžitě e-mailem“ žádný rozdíl nevidím. Podstatné na tom sdělení ale vůbec nebylo to, kdy a jak se to dozvím, ale to, že se jenom dozvím výsledek, ale to rozhodnutí už za mne udělali tvůrci toho RAID systému. V případě BTRFS je naopak na správci, jestli se rozhodne to řešit snížením nároků na duplikaci dat tak, aby to šlo splnit se současným počtem disků, nebo zda vymění nebo přidá disky, aby bylo možné zachovat požadované nároky.
nevim co resis ty, ale ja reagoval na tve o mdadm:
správce je o tom jen informován někde v logu
coz je lez, protoze spravce se to od mdadm v jeho vychozim nastaveni dozvi okamzite z emailu
pokud by spravce mdadm chtel z nejakeho podivneho duvodu nesmyslne pri restartu nebo pri rucnim sestaveni nepovolit automaticke sestaveni pole pokud by melo vypadlej disk, staci pridat parametr: --no-degraded
ovsem povazuju za normalni/vhodne, aby pri vypadku disku z raid1 bylo pole nadale provozuschopne, pripojene a to v rezimu rw, spravce je o stavu informovan okamzite a nez vymeni disk (pokud nema spare disk kdy se to resi automaticky) tak i v pripade (ne/)planovaneho restartu ma stale k dispozici degradovany raid1 v rezimu zapisu...
to ze slovickaris o tom ze "degradovany raid1" nesplnuje to aby data byla na 2 diskach, je jen uchylka, "degradovany raid1" je raid1 v degradovanem rezimu, nestane se z toho najednou kvuli Jirsakovi non-raid disk, nezmizi lusknutim (Jirsakova) prstu z disku mdadm/raid metadata, proste jde o raid1 v degradovanem rezimu a muzes se stavet na hlavu, nic s tim neudelas ;-)
coz je lez, protoze spravce se to od mdadm v jeho vychozim nastaveni dozvi okamzite z emailu
To není pravda, protože mdadm nemá křišťálovou kouli a nevím, kam (a přes co) má ty emaily posílat. Výchozí nastavení (alespoň v debianu) je root. Root může být přesměrován v aliases na reálný email, ale ten tam musí někdo nastavit a musí fungovat lokální smtp server, který je schopný to odeslat na příslušný email admina.
Jinými slovy, dostat email od mdadm není rozhodně nic automatického, naopak je potřeba to nastavit a otestovat.
Navíc ne všechny servery musejí mít nutně schopnost odeslat email a mdadm, stejně jako btrfs, je potřeba monitorovat jinak.
ovsem povazuju za normalni/vhodne
Já považuji za vhodné, aby si lidé přečetli návod k tomu s čím pracují a co si dávají na servery. Už od roku 2011 čtu diskuse o tom, co si dotyčný o btrfs myslel a ono je to přitom jinak a může za to btrfs.
Btrfs, stejně jako všechno ostatní na tomto světě, má nějaké vlastnosti a je potřeba o nich vědět a připravit se na ně. Chování při ztrátě redundance je jeden z těchto aspektů. To, že jiné projekty řeší redundanci a její ztrátu jinak neznamená, že je to tak správně.
@Tomas Crhonek 24.8 14:56
není pravda, protože mdadm nemá křišťálovou kouli a nevím, kam (a přes co) má ty emaily posílat. Výchozí nastavení (alespoň v debianu) je root.
je to pravda, mdadm to automaticky posila na mail, ze je vychozi root je irelevantni, pokud to nekomu nevyhovuje muze si mail na ktery mdadm posila zmenit...
to ze spravce musi mit zprovoznene odesilani mailu je take irelevantni, protoze to jiz davno ma zprovoznene i kdyby mdadm nepouzival, je to jako bys psal ze nelze spusit mdadm protoze neni nainstalovana libc, ze nelze nainstalovat libc protoze neni nainstalovane Linux jadro ;-)
Já považuji za vhodné, aby si lidé přečetli návod k tomu s čím pracují
pokud si prectu navod dozvim (nebo v minulosti dozvedel) ze raid1 bude pri degradovanem rezimu mozne pripojit automaticky i po restartu, pri neplanovanem vypadku atd? pokud ne, je to v rozporu s tim co sem psal ze povazuji za normalni/vhodne ;-)
btrfs funguje jinak, než si zřejmě myslíte. BTRFS RAID1 funguje se dvěma disky bez problémů a nikdy to nebylo jinak. Pokud je správce nemehlo, tak samozřejmě může souborový systém poškodit nebo i přijít o data, ale to platí u všech souborových systémů a u všech úložišť, i když odolnost proti chybám správce asi bude různá.
Já tvrdím, že ten problém, o kterém je celou dobu řeč, byl v tom, že ve speciálním administrátorském režimu určeném pro vyřešení situace, kdy počet disků neumožňuje splnit pravidla RAIDu definovaná správce, bylo možné souborový systém připojit pouze jednou. Pokud správce tento režim nevyužil k nápravě (buď přidání disku nebo zmírnění pravidel RAIDu, např. převod na režim single) – v drtivé většině známých případů proto, že na to kašlal a nevěděl, k čemu ten režim slouží, teoreticky k tomu mohlo dojít ale třeba i kvůli výpadku napájení a restartu počítače během řešení – nemohl znovu připojit souborový systém v tomto speciálním administrátorském režimu, nemohl souborový systém připojit ani v běžném režimu zápisu (protože nebylo možné splnit definovaná pravidla, např. že každý blok bude zapsán alespoň na dva disky), takže zbyla jen možnost disk připojit v režimu pouze pro čtení.
Ale klidně se s námi můžete podělit a svůj názor na to, v čem byl problém. Zejména bude zajímavá ta část, jak to, že drtivá většina lidí, kterým odešel disk v dvoudiskovém BTRFS RAID1, prostě vyměnila disk nebo snížila RAID na režim single a dál bez problémů s BTRFS fungují.
pro ty mene chapave, napr.:
http://nd03.jxs.cz/260/518/47bcfcdcf1_56680750_o2.jpg
Zalezi na tom o akom distre je rec ked pride na BTRFS. Na Debiane skusane viac ako rokom ma BTRFS velmi nepresvedcilo (boli nejake "oops" pri odmountovani) a celkovo mi to prislo nehotove. Na inych distribuciach moze byt situacia ina. Podla toho kto si to ako opacuje a priohne.
Synology na tom staví svůj business u dražších NASek, takže bych si troufl to označit za produkčně nasaditelné. Samozřejmě je nutné sledovat status, ne všechny vlastnosti jsou tam rock stable.
https://btrfs.wiki.kernel.org/index.php/Status
Ale tak to platí o všem.
Nelibi se jim smutna pravda o jejich betafilesystemu ktery je tak skvely ze check radsi nepoustis protoze by u pouziti snapshotu mohl trvat mesice, balance vlastne taky nemuzes kvuli mnozstvi snapshotu udelat, ale kazdy ti bude tvrdit jaky je to skvely fs ve kterem muzes mit miliony snapshotu... o dalsich polofunkcnich vecech dle wiki nechteji nic slyset a v nejhorsim ti reknou ze potrebujes vice skilled admina nez kdyz mas md, lvm, ext4 nebo zfs nebo cokoliv jineho. Slovami klasika - jsou to picusove.
Mě by jen zajímalo, čeho těmito komentáři chceš dosáhnout. Myslíš, že lidi přestanou používat to co jim vyhovuje jen proto, že to někdo napsal na fórum? Urážkami?
Je skvělé, že v linuxu máme na výběr a každý admin si může vybrat FS podle situace i podle toho, co mu víc vyhovuje. Na každé nasazení se hodí něco jiného. Pokud se mě někdo zeptá na moje osmileté zkušenosti s provozem BTRFS, rád mu je bez obalu sdělím, případně odkážu na vlastní web. Nikomu nic nenutím, jen předávám informace.
Ono totiž, nic na světě není dokonalé. I ty zmíněné md lvm ext4 zfs mají svá zákoutí, o kterých je dobré vědět. LVM sice podporuje snapshoty, ale jejich merge trvá neůměrně dlouho a navíc to LV nelze používat (celkem logicky). ext4 například nemá (stejně jako všechny fs staré generace) checksum dat. md neví, které bloky jsou zapsané a při synchronizaci dělá celý blok device, na kterém může být jen pár GB dat. zfs neumělo do letošního roku odebrat vdev (už to umí, ale je to zatím jen pro opravu konfigurace; už je to i ve FreeBSD 11.2) nebo například nelze smazat dataset, pokud má nějaké snapshoty nebo clony.
Pokud něco z toho admin dopředu neví, tak se může dostat do velmi nelehké situace při použití kteréhokoliv z těchto systémů.
Jinak check ani balance skutečně potřeba není. Balance se postupně integruje do btrfs (podobně jako v minulosti například autovacuum u postgresql) a patrně zůstane jen pro konvert různých typů redundace, a check u ostatních fs zkontroluje stejně jen integritu samotného fs, ale o datech stejně nic nevíte. Od toho jsou checksumy. Tzn pokud je disk nabořený (a smart třeba mlčí), tak to stejně poznáte v logu nebo ve stats. Ono totiž je mnohem pravděpodobnější, že se dřív naboří data, než struktura fs.
Je to velká firma, co prodává NASy po stovkách tisíc kusů a nemůže si dovolit, že lidi přijdou o data.
LULz... https://forum.synology.com/enu/viewtopic.php?t=11985
Staci se podivat do status wiki a udelat si nazor. Nepotrebujes raid5/6? Nepotrebujes stovky snapshotu fs? Nevadi ti performance issue pri reflinkoch? Pak je btrfs vyborna volba. https://btrfs.wiki.kernel.org/index.php/Status
Ty seš teda dobrej hater. V BTRFS není problém desetisíce nebo statisíce snapshotů. Performance issue při reflinku myslíš co? Z logiky věci může být na disku souvisle uložen jen jeden soubor a další "reflinky" při zápisu budou mít bloky rozházené po disku, ale tohle na lineárním prostoru bloků nelze vyřešit jinak. Pokud někdo ví co dělá, tak jsou reflinky perfektní věc a pokud někdo potřebuje ty soubory často měnit, ať udělá jejich skutečnou kopii, nebo ať to edituje na SSD.
A proč bych to měl dělat? Mám tady 20tis snapshotů, FS funguje skvěle a od roku 2010 jsem check nepotřeboval (protože ve starších verzích ani nebyl, což bylo předmětem mnoha haterů). Balance jsem používal naposledy s filtrem -dusage=0
, abych vynuloval prázdné grupy. Což už je taky nějaký ten rok vyřešeno přímo v btrfs.
Pokud někdo chce používat quoty, tak si jistě tuto vlastnost pohlídá.
JJ, protože na všech ostatních FS se dělá check pravidelně ;-).
Takže reality check. Některé distribuce už hodně dávno (2008) vypnuly pravidelnou kontrolu ext3 (počet připojení / čas od posledního checku) a spoléhaly se jen na nalezení chyby během provozu (potom nastavily flag pro check během dalšího přípojení). Ext4 bylo upraveno tak, že se check (po chybě) dělal jen na oblasti, která byla používaná, protože check celého FS zvláště u velkých polí trvá fakt dlouho. fsck.xfs vracel automaticky jen nulu, tj během mountování při bootu i při nastavení flagu ve fstabu prostě nic nekontroloval.
Takže většina i starých fs se na pravidelný (pokud jej tedy měly, krom extX snad nikdo) check vyflákla a stačí jim jen check během mountování, kdy driver posoudí stav.
Ja jsem takovy btrfs hater, ze se doma kazde rano modlim hodinu za spadnuti vsech btrfs raidu, za dlouhotrvajici balance u vice nez 100 snapshotu, za co nejvice bugu v btrfs kodu. A kdyz to nezabira, tak vecer obetuji nevinnou divku a modlim se aby otehotnela a narodil se vyvoleny co btrfs bude hejtovat vic nez ja.
Jo a v noci premyslim nad tim jestli to ten Jirsak mysli vazne ohledne btrfs raid 1 nebo je proste sulin jako vetsina z nas. ;)
Po 5ti letech a nekolika vypadcich elektriny natvrdo presne 0 zavad fs. Stejna doba jiny HW ale totozne podminky (v jedne mistnosti) ext3+4 ... v obou pripadech opakovane fs poskozen, v jednom pripade neopravitelna destrukce.
Takze si vyber sam.
Jo a pozor, na tom btrfs bezi ten nestabilni R5.
Pokud využijete vlastnosti jako neomezené snapshoty, send, receive apod., tak ano. Pokud to chcete používat jen jako jiný FS ze staré generace, tak to smysl nemá.
Btrfs se výborně hodí na věci jako správa verzí velkých binárních dat. Uděláte si snapshot vaší xTB subvolume a v průběhu práce na datech pořizujete další snapshoty. Klidně desítky nebo stovky. Každý z nich je zapisovatelný a dále snapshotovatelný, takže klidně můžete vytvářet strom různých stavů původních dat. Je to skvělé na testování. Po ukončení práce tam ty snapshoty necháte nebo selektivně promažete. Na rozdíl od některých jiných systémů lze vymazat i zcela původní subvolume.
To, že je to nespolehlivý zmetek se dozvíte pouze od lidí, kteří neví, s čím pracují a dají btrfs na nevhodné nasazení. Třeba pro těžký databázový provoz se příliš nehodí (ale lze vypnout COW pro datový adresář databáze a potom je to trochu rychlejší). Dále se nehodí pro malé disky. Btrfs má alokační grupy velké 1GB, tzn pokud někdo udělá test na 8GB disku, tak velice rychle zapláče. Je to pro TB disky.
Zkrátka, je potřeba vědět, kde a proč to chcete nasadit a potom vám odvede skvělou službu.
https://btrfs.wiki.kernel.org/index.php/Status
Jirsak ti to vysvetli...
Pochybuji ze nadelas nejakou paradu tim, ze pridas mensi disk. Teoreticky to muze fungovat do te doby, nez se zaplni.. ale co pak? Pujde system do RO, nebo se po pridani disku snizi kapacita na N-nasobek nejmensiho?
"Nebo mi ukaz, jak udelam snadno a trivialne zrcadlo pres 3 disky ktery bude ale obsahovat 2 nikoli 3 kopie tehoz"
Koupis si HW raid ktery umi RAID-1E :-) (nebo si doimplementujes tu hruzu do mdadm)
Nepochopil jsi ho. Jde o to, že můžeš mít třeba RAID1 nad 2TB, 3TB a 4TB diskem a jeho kapacita bude (2+3+4)/2 = 4.5 TB. A disky můžeš libovolně přidávat a odebírat (tam samozřejmě musí platit zbývající kapacita > obsazené místo) a ono to na ně bude distribuovat jenom nové bloky / přehazovat ty co jsou potřeba - na rozdíl od MD, kde se musí udělat kompletní reshape.
Půjde to udělat a budete mít k dispozici 1 TB. Když pak ten 1 TB disk vyměníte za 2 TB, budete mít pro data 2 TB, když místo toho přidáte další 2 TB disk, budete mít 3 TB atd. Nebo třeba můžete k tomu 12 TB disku dát 12 jednoterových disků a budete mít 12 TB. Prostě je to flexibilní a BTRFS využije dostupné disky a zařídí, aby každý datový blok byl uložen alespoň na dvou z nich.
pokud je rec o RAID1 tak nemis byt demagog aby si pouzival termin jako "obecny", protoze RAID1 je RAID1, nic jako obecny neexistuje...
"BTRFS RAID1" znamena (v pripade NEpouziti RAID1) ze BTRFS nepouzije RAID1 i presto ze tomu RAID1 rika... pokud by BTRFS zacalo rikat manualovym strankam "BTRFS Filesystem" znamena to ze je to Filesystem nebo ze pojmenovana neco spatne?
Taky se mi ten nápad příliš nezamlouvá, ale výhody to nesporně má. Pouze filesystem může vědět, které bloky (extenty) jsou využité a které jsou prázdné. Při (re)synchronizaci RAIDu tak může synchronizovat pouze bloky, které jsou využité, což celou operaci až násobně urychlí. Při uvolňování bloků může zase zavolat TRIM, aby řadič věděl, že daný blok je prázdný a smí si s ním udělat, co sám uzná za vhodné.
Například takový, že můžete vzít tři 1TB disky, udělat na nich RAID1 (tedy vše je zapsané aspoň na dvou discích) a dostanete kapacitu 1,5 TB v RAID1. Kdybyste použil klasický RAID, kde se zrcadlí celé disky, budete mít kapacitu jenom 1 TB a k tomu jeden zbytečný disk.
Další výhodou je třeba to, že souborový systém ví, kde má zapsaná data a kde je jen smetí, a nebude to smetí synchronizovat na nový disk v případě výměny disku.
Tri disky jen se dvema kopiema (3T -> 1.5T) je zcela nestandadni RAID-1E. To uz muzete rovnou pouzit RAID5 a mit dokonce 2TB.
ad kde jsou data - mdraid to vi priblizne take - ma bitmapy (tedy vi co se zmenilo - predpokladam ze nevyuzivana cast disku se nikdy menit nebude). A jakykoliv hw raid zvladajici trim tuhle informaci dostane podobne.
Ten RAID1 se třemi stejnými disky byl jen příklad, jak jde s disky „kouzlit“, netvrdil jsem, že je to nejlepší využití těch disků. Můžete mít tři různě velké disky, BTRFS to opět sám poskládá, aby data byla vždy aspoň na dvou discích. A nemusíte čarovat s LVM a nějak to ručně skládat po oddílech.
Trim se pokud vím používá na větší oblast, než je jeden blok, takže mdraid se to dozví teprve tehdy, když se vyprázdní souvislá řada bloků.
to ze si obecny RAID1 neprovozoval, neznamena ze kdyz pouzijes BTRFS RAID1 kde ale nebudou vsechna data mirrorovana na vsechny disky, ze pouzijes RAID1, ale ze pouzijes neco cemu BTRFS rika RAID1 ale pritom to neni RAID1... muzes tomu rikat RAID1E, ale rozhodne ne RAID1 protoze to definici RAID1 NEsplnuje...
taky je rec o tom ze RAID1 je jenom 1, opakovanim toho ze BTRFS rika RAID1 necemu co NENI RAID1 z toho pravdu neudelas...
Tohle je RAID1: https://cs.wikipedia.org/wiki/RAID#/media/File:RAID_1.svg
Cokoliv jineho NENI RAID1, tedy BTRFS RAID1 je ve zkutecnosti RAID1E:
https://en.wikipedia.org/wiki/Non-standard_RAID_levels#/media/File:RAID_1E.png
Jaky vyznam ma michat RAID do filesystemu? Jezi se me z toho chlupy.
Krom již uvedeného (libovolný počet libovolně velkých disků) je to taky ochrana dat.
BTRFS dělá checksum bloků, takže pokud z jednoho disku přečte data a checksum neodpovídá, tak to může načíst ještě z vedlejšího disku a pokud checksum odpovídá, tak ví, že tato data jsou správná. (A může to potom zapsat i na ten první disk a tu chybu opravit.)
Zatímco na klasickém mirroru se bloky vrací tak jak jsou a když jeden z disků vrací špatný blok, tak to md nepozná (nekontroluje data proti druhému disku ani nemá checksum bloků) a stejně nepozná, který z disků obsahuje správná data. Navíc staré systémy souborů nedělaly ani checksum na data, takže ani starý fs nepozná, že md vrátil špatný blok. (Dnes tuším třeba XFS má alespoň checksum pro metadata.)
Brtfs som vytvoril pri instalacii ubuntu, nic specialne, ziadne vylomeniny. Stacilo vsak par krat spusit npm install, ktory vytvara strasne kvanta malych suborov a btrfs sa rozdrbalo na sracky, vycerpali sa nejake metadata bloky, filesystem isiel do readonly a ani standardny proces uvolnenia tych blokov nesiel spustit, lebo na to ich musi byt nejake percento volne. Ked sa mi to stalo treti krat tak btrfs letelo prec.
Oprava, nie read only, ale volne miesto 0 bytov pritom obsadene miesto bolo len v nizkych desiatkach percent kapacity. Vychodiska boli mozne len dve - bud data odkopirovat na cisty filesystem alebo nieco zmazat aby sa uvolnili metadata na tolko ze moze prebehnut balance. Sialene.
Tomu se dá samozřejmě předejít tím, že se monitoruje stav souborového systému a pokud se zmenší volné místo pro některý druh dat, spustí se rebalancování dřív, dokud je ještě volné místo. BTRFS prostě není souborový systém, který se jen nainstaluje a dál se o něj není potřeba nijak starat – kladem jsou možnosti, které má, což je ale samozřejmě vyvážené většími nároky na údržbu. Je to jako porovnávat Škodu 100 a dnešní auta – ta dnešní jsou mnohem bezpečnější, levnější, ekologičtější, výkonnější a pohodlnější, ale už je neopravíte doma v garáži šroubovákem, sadou běžných klíčů a kleštěma.
ctvrty odkaz na googlu:
http://marc.merlins.org/perso/btrfs/post_2014-05-04_Fixing-Btrfs-Filesystem-Full-Problems.html
jak uz bylo receno vyse, btrfs ma vyssi naroky na administratora. opravdu se vyplati precist si k nemu dokumentaci nez ho clovek zacne pouzivat.
btrfs jsem kdysi používal, pak ho opustil, po letech se k němu vrátil a jsem spokojený. Mám ho na všech desktopech a zatím přežil i to nejhorší zacházení mých dětí. Jsem nadšen potenciálem tohoto fs.
Jediná věc, která mě trápí, je, že vůbec netuším, jak tento fs opravit v případě havárie. Z minulosti mám zkušenost, že každý pokus o opravu vedl k ještě horšímu stavu. Takže dnes zálohuju, v případě nehody vím, že nejlepší je zkopírovat celý fs pomocí dd a jen s ním si hrát.
(jsem jen laik uživatel)