Nemam s deduplikaci zadne zkusenosti a jedna vec mi nejde do hlavy – napr. u image virtualniho stroje se muze docela lehce stat, ze se stejna data trochu pohazeji, nebo posunou (vlivem nejake fragmentace nebo tak) – a deduplikace (na urovni bloku) je v cudu, prestoze tam stejna data jsou.
Mate nekdo zkusenosti s tim, jak to vpraxi funguje? Dik.
Pokud vim tak chunky maji nejakou velikost napr. 4kB. A pak se porovnavji ruzne hashe techto chunku. Velikost je natolik mala, ze tam sice dochazi k nejakym stejnym datum,ale zase tak hrozne to neni. Pri deduplikovanych zalohach (2 mesicni retantion time OS,DB,FS i image virtualnich stroju) jsme se byli schopni dostat pod 10% mista potrebneho pro zalohu. Nekdy v docela blizke dobre by snad mel umet deduplikaci i VMware. Navic se nehodi jen pro zalohy,ale napr. cteni je z deduplikovaneho FS rychlejsi.