budu psát jen k tomu důležitému:
- deduplikační poměr a malá firmička: ten samozřejmě není garantovaný. Jsou data, která jdou deduplikovat poměrně špatně, ale smysl deduplikace je právě v zálohách "živých" velkých dat (minimum jsou ty stovky GB), ideálně od více uživatelů, ve kterých se tento efekt jednoznačně projeví. Nejde o to, že vyprodukuješ týdně 900GB dat, ale že s nimi nějakým způsobem pracuješ. I ten můj příklad ukazuje, že zcela nových dat byly za týden jen cca 3GB - jenže deduplikovaných! Kdybys to řešil na úrovni souborů, klidně to mohlo být těch 21GB v inkrementální záloze, protože změna v souboru mohla být jen minoritní.