Nechtěl jsem nikoho urazit. Jen konstatuji že pokud jsem za chod nějaké technologie odpovědný, tak si o tom mám minimálně elementární vlastnosti nastudovat. Jestli si můj názor vezmete k srdci a dovzděláte se, nebo to budete brát jako útok či urážku, je Vaše osobní právo na interpretaci této informace.
V článku se řeší ZFS na VPS. Ale samozřejmě úplně stejně můžete realizovat velké pole s kapacitou stovek TB nebo i více. Jinak ze zkušenosti ta degradace výkonu obvykle ( ne ve všech případech ) přichází až po překročení 90% ( prakticky je to o tom, jak moc se na pole zapisuje ). Prostě pokud nasazuji kamkoliv filesystém s Copy On Write, tak je toto obecná vlastnost a když na začátku počítám sizing a ekonomiku provozu, tak s tím musím počítat. A naprosto prakticky ... vzhledem ke kompresi a případně deduplikaci, tak reálně uložím více dat než na standardní filesystém. Takže to nakonec neni tak černé.
Toto je například můj backup server:
compressratio 1.97x
compression zstd
Takže reálně ušetřím skoro polovinu kapacity a i když bych jako hard lmit bral 80% kapacity pole, tak jsem pořád hodně v plusu. Zrovna u serveru se zálohami bych se ale nebál překročit ani těch 90%, protože dopad na výkon v tomto konkrétním případě žádný nebude.
Ale jsou situace, kdy komprese ani deduplikace nepomůže prakticky vůbec. Typickým příkladem jsou šifrovaná a/nebo již zkomprimovaná data.