Za mě díky! Zase užitečný článek s dobrým poměrem detailu a přehledu.
oVirt s sebou to multipathd tahá jako závislost. Docela mě to překvapilo, když jsem chtěl jakkoliv měnit něco s disky. Hodil se mi ale soubor /etc/multipath.conf, kde je možné přidat sekci blacklist {}.
https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/7/html-single/DM_Multipath/index.html#ignore_localdisk_procedure
Jako iSCSI storage jsem testoval DRBD jako failover. Proto jsem multipath nepotřeboval (resp. nevím o tom, že bych jej měl potřebovat :-)). Díky ale za objasnění.
Jinak NFS je při failover trochu sviňucha. Při malých zápisech se v době failoveru a se standardním nastavením se může stát, že spojení vypadne. Možná by to šlo pojistit něčím jako conntrackd. Nemá někdo tip, jak na to?
To co jsem testoval bylo NFSv4 s volbou "hard", tedy standardní hodnoty.
NFSv4 jistě lze realizovat jako vysoce dostupný. Dokonce v podverzi 4.1 na to byl kladen větší důraz a vzniklo rozšíření pNFS. Jestli jsem to správně pochopil, o stav (protože NFS 4 je stateful) se částečně stará klient (logické, protože klient je jeden, zatím co storage uzlů případně vícero).
Čím víc se NFS zabývám, tím víc mi to přijde jako černá magie. Taky jsem zatím nenašel opravdu dobrou publikaci, která by taky fungování NFS 3 a 4 vysvětlila, ale zároveň byla praktická (tedy s reálnými příklady a konfiguracemi).