Každé kopírování znamená downtime serveru. lineární dd je několikanásobně rychlejší, než seekovací tar či xfsdump.
Navíc na největším fs máme storage pro backuppc, které pro aplikační deduplikaci používá hardlinky. Za ty roky jich na těch 9TB vyrobil hodně set miliónů. To se blbě xfsdumpuje za rozumný čas. Zato záloha na externí pole synchronizací sw raidu1 se sledováním změn writeintent bitmapou trvá na normálních SATA 7k2 discích hodinu. Tohle pole zvětšujeme postupným nahrazováním disků za větší a nasledným resizem filesystému, nic se nekopíruje. Ostatní pole jsou na raid10, tam bohužel linux zatím resize neumí, takže dd na větší + xfs_growfs.
Jo, snapshoty se budou hodit.
> Každé kopírování znamená downtime serveru. lineární dd je několikanásobně rychlejší, než seekovací tar či xfsdump.
A to nemůžeš mít ty storage online současně? Nejdřív to zkopíruješ, což může trvat libovolně dlouho, a pak to vypneš a pustíš rsync, který přenese jenom změny, což je rychlé.
S těma hardlinkama je to pakárna a je to hlavní důvod, proč jsem zálohy přemigroval na btrfs, protože tam snapshoty na rozdíl od vytváření hardlinků nemají takový overhead.
>A to nemůžeš mít ty storage online současně? Nejdřív to zkopíruješ, což může trvat libovolně dlouho, a pak to vypneš a pustíš rsync, který přenese jenom změny, což je rychlé.
Jasně, i tohle někdy dělám, když není potřeba držet hardlinky. Dřív se ale do pole někdy nevešel dvojnásobek disků, takže byl nutný provoz částečně degradovaného (část disků z pole A se použilo v poli B), tudíž bylo potřeba zkrátit dobu přechodu - proto dd. Jindy, když byla obě pole OK, šlo použít dlouhé cp + opakovaný a finální rsync.
Samozřejmě nejraději postupně zvětšuji/přidávám do pole disky a nechám raid, aby si to celé zařídil za běhu. To bohužel u raid10 zatím nejde, veliká škoda...
>S těma hardlinkama je to pakárna a je to hlavní důvod, proč jsem zálohy přemigroval na btrfs, protože tam snapshoty na rozdíl od vytváření hardlinků nemají takový overhead.
V backuppc slouží ty hardlinky k deduplikaci jednotlivých souborů. Ale snapshoty se budou samozřejmě hodit, až je zastabilizují.
Vždy mě pobaví spojení "velmi stabilni" s XFS. Přitom XFS je jediný fs, který mě historicky připravil opakovaně o data.
Když si zavzpomínám, tak např bug s multi-core systémy. Pod větší zátěži způsoboval neobnovitelné poškození FS.
Ne, diky. Mám svá data rád :)