Za mě díky! Zase užitečný článek s dobrým poměrem detailu a přehledu.
oVirt s sebou to multipathd tahá jako závislost. Docela mě to překvapilo, když jsem chtěl jakkoliv měnit něco s disky. Hodil se mi ale soubor /etc/multipath.conf, kde je možné přidat sekci blacklist {}.
https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/7/html-single/DM_Multipath/index.html#ignore_localdisk_procedure
Jako iSCSI storage jsem testoval DRBD jako failover. Proto jsem multipath nepotřeboval (resp. nevím o tom, že bych jej měl potřebovat :-)). Díky ale za objasnění.
Jinak NFS je při failover trochu sviňucha. Při malých zápisech se v době failoveru a se standardním nastavením se může stát, že spojení vypadne. Možná by to šlo pojistit něčím jako conntrackd. Nemá někdo tip, jak na to?
To co jsem testoval bylo NFSv4 s volbou "hard", tedy standardní hodnoty.
NFSv4 jistě lze realizovat jako vysoce dostupný. Dokonce v podverzi 4.1 na to byl kladen větší důraz a vzniklo rozšíření pNFS. Jestli jsem to správně pochopil, o stav (protože NFS 4 je stateful) se částečně stará klient (logické, protože klient je jeden, zatím co storage uzlů případně vícero).
Čím víc se NFS zabývám, tím víc mi to přijde jako černá magie. Taky jsem zatím nenašel opravdu dobrou publikaci, která by taky fungování NFS 3 a 4 vysvětlila, ale zároveň byla praktická (tedy s reálnými příklady a konfiguracemi).
Jenom rychle: pravdepodobne mluvime o testovani multipathu. Mame dve cesty od targetu a obe jsou initiatorem prijimany jednou sitovkou. Neni to idealni nastaveni, ale pro potreby clanku to staci.
Pokud na initiatoru shodime sitovku, pres kterou je pripojeno iSCSI, selzou nam samozrejme obe cesty.
Takze selhani jedne cesty muzeme nasimulovat tim, ze na targetu shodime jednu ze dvou sitovek, poskytujicich iSCSI.
Odpovidam na Vas dotaz?
Fajn clanek jen par hnidopiskych poznamek:
1) LUNy se mapuji a ne zonuji (zonuji se wwn nebo FC porty)
2) Multipath je bezny hlavne na FC zarizenich paac tam nejde ha vykryt bondingem/teamingem jako na ethernetu (iscsi)
3) To jak jedna cesta bude vypadat zalezi na danem driveru. Nekde tedy vidite opravdu vice zarizeni (/dev/sda, /dev/sdb, /dev/sdc etc - tak se chova standartni linux driver) z nichz se pak vytvori jedno vysledne, jiny driver Vam muze vytvorit rovnou /dev/sda, ktery uz je vysledkem vsech cest. Zalezi na multipath i/o driveru, kterych je pozehnane a pokud chcete mit drivery k vice storage zarizenim muze to byt ve finale problem.
Jinak super clanek, tesim se na dalsi dily.
taky si neodpustim jedno hnidopichnuti :)
Multipath se take pouziva, a dokonce treba i v "singlepath" konfiguraci, kvuli i/o bufferu.
A/nebo, pokud chcete skladat z vice lokaci, tak vam jenom bonding nepomuze. Tenresi jenom posledni hop. Napr. z relativne blizko (radove kilometry) vzdalene serverovny s, zase relativne, rychlym propojenim (nn x 10 Gbit) to muze jit pokazde dosti odlisnymi cestami.
No, implementaci multipathu tu je vicero, ale snad jedina vicemene (ano, ani ta neni 100%) funkcni je od Veritasu. Ta linuxova je takova ... parkrat uz jsem musel nod rebootovat i mohutnem cviceni. Ja nevim, jako lepsi nez nic, ale do produkce kde fakt zalezi na dostupnosti, bych asi priplacel ...
Ale jak jsem rekl, lepsi nez nic ...
f.