Ale ten Time Management je ukázkou jemného humoru dělného lidu.
Ruský mužik a nebo emerycký prgoš. Chcecht, však oba jednou jsou.
Pěkně jsem se nasmál - podíval se do plánovače. Ano - dneska to u mne vypadá stejně.
:D :D :D nebo spíše :-( ?
Všem přeji příjemný a nezasr.... den :-)
Tak to vypada velice dobre, je jen par funkcnich distribuovanych a scalovatelnych FS.
vezmemem starecky:
Coda ... nefunkcni, dobre navrzeny FS, dnes jiz se zadnym potencialem, moc to nelze skalovat, nezvlada to velke objemy dat ... jen projekt
AFS ... velice provereny, pomaly, ale zato max spolehlivy FS, narust vykonu neni linearni, ale pomaha, hlavne pri velkych vzdalenostech na pomalych linkach bezva vec.
Dnes: lustre ... skveli FS, jehoz hlavni nevyhodu je absence redundance dat ;-(( ... muze vypadnout index, ale kazdy nod musi byt zajisten RAID a nesmi cely vypadnout, jinak vypadavaji data, nutno rict, ze jenom par dat, jenze nikdo nevi ktere ;-(( ... lustre nedela s bloky, ale se soubory, tedy nerozklada ... nevuhoda je prave nemoznost pristupovat k datum paralelne a nemoznost replikace, nebo "sitoveho" RAIDu (obrazne receno)
Pak je jeste jeden, kde si nevzpominam na nazev.
pNFS je skvely, data ze zapisuji na X NFS, ale cist je lze paralelne, hlavne kdyz je hodne klientu.
DChache ma dobre reference v cernu, co jsem pochopil, ma replikace, redundanci, vybornou skalovatelnost a jako client bude stacit pNFS ... coz je skvele vazeni ;-)) ... tohle si budu muset zapamatovat, ma to budoucnost !
jinak veci jako GFS z RH, tak v 6.0 je priserne pomala, 6.1 je lepsi ... ale porad to neni tak skalovatelne jako sitove FS, GFS je dimenzovan na SAN, popr. iSCSI, kdy vice serveru sdili jedno pole.
Jinak jeste k AFS/CODA ... oba neuznavaji posix a maji uplne jina prava, coz dela trochu problem, ono to totiz ty prava pak preklada, samozrejme oba potrebuji specialni klienty.
Jojoj DCache je fajn v CERNu jsem s nim delal a funguje dobre. Skoda, ze nebyla ve stejnem stavu ve chvili, kdy jsem potrebovali distribuovany fs a museli si napsat vlastni ( pro http://nangu.tv ) :)
Jen pro doplnění. Zrovna si totiž s těmito věcmi hraji. CEPH - je záležitost pro velké množství nodů. Pro dva až tři nody doporučují jeho autoři používat GFS2, nebo OCFS2. Zrovna dnes jsem narazil na jednu takovou subjektivní prezentaci v níž autor porovnává tyhle dva clusterové souborové systémy. Jako lepší mu vycházel OCFS2. A vzhledem k tomu že se mi ho (na rozdíl od GFS2) podařilo relativně bezproblémově rozjet, tak bych s tím i souhlasil. Rychlost při práci se soubory na OCFS2 mám zhruba stejnou jako když pracuji s lokálními disky.
CEPH by podle mě byl naprosto vynikající věc pro linuxové učebny na školách, neboť by umožnil plně využít potenciál dnešních PC. Přitom by to bylo naprosto elegantní, neboť by na HDD nemusely mít nic než clustrová data - systém by se totiž mohl zavádět bezdiskově.
OCFS je dobry kdyz funguje. Cca 2 roky zpatky jsem ho nasadit na 10 stroju pripojenych na EMC AX4-5 pole a kazdych ~14 dni se stalo, ze nektere masiny pri vetsi zatezi (read opraci) vydeli jen do urcite urovne adesaru a pak je to vyradilo z clusteru. Bug jsem nahlasil, ale protoze na tom delal jen jeden clovek ktrery byl ocividne zavalen bugy musel jsem to odpiskat. Takze spolehlivost nebyla nic moc.
Jen tak pro úplnost, existuje více projektů s názvem remake (všechny co jsem viděl se snaží opravit make).
To je zajímavé, jak se mnoho projektů snaží "vylepšit" SVN... ale i tak jsem neviděl že by tak dostalo featury které by nebyly v GITu.