
Fragmentace cerstve stahnutych souboru
Je normalni, kdyz se prave stahnuty soubor velky 3MB "roztristi" na 50 fragmentu? Disk ma podle OO Defrag 0,04% fragmantaci a presto se kazdy stahnuty soubor takhle "tristi".
Zalezi na souborovem systemu a zalezi na tom, kolik je na disku volneho mista.
NTFS a 15GB volneho mista
Jeste prozrad, jakym zpusobem to stahujes.
Nektere stahovace si predem alokuji celkove misto (vytvori prazdny soubor a pak do nej "dotahnou" data). Nektere to nedelaji a proste postupne stahovanim zvetsuji velikost souboru. V tom druhem pripade ti pak nepomuze sebechytrejsi souborovy system, protoze na zacatku nezna velikost souboru a nemuze jej umistit do dostatecne velkeho volneho mista. Takze pak nastane presne to, co jsi popisoval - dojde k fragmentaci.
Stahuju to Operou a ta to taha postupne. I kdyz se to predem nealokuje, tak prece kdyz nic jineho s diskem nedelam tak by se to melo ukladat normalne porad za sebe, nebo ne?
Ale zalezi na tom kde zacne ukladat. Kdyz nevi kolik toho bude, umisti to klidne do prvni mezery (volneho mista pro zapis) mezi jine soubory a kdyz je toho pri zapisech vice, zapisuje na nejblizssi volne misto, ktere bude opet vetsinou nedostatecne velke. Proto dochazi k takove defragmentacu u jedineho souboru.
Pro 'predejiti' tohoto problemu by jsi musel dat i defragmentaci volneho mista, tj. program setrese data k sobe a volne misto vytvori jako celek, ale jednodussi je alokovat velikost souboru pred vlastnim zapisem, coz nektere download manazery umi i kdyz jednou to volne misto v celku take dojde a pak stejne pomuze jen ta defragmentace volneho mista.
Dalsi reseni je defragmentacni nastroj pro jeden soubor, ale na ten co jsem narazil, psali v podpore jen o max velikosti disku 80G, tak nevim, ani jsem ho radeji nezkousel.
Pokud potrebujes defragmentovat jeden soubor, staci jej prejmenovat, zkopirovat a puvodni smazat. Tohle reseni funguje bez ohledu na velikost disku a bez naroku na specialni nastroje
jj, ale na NTFS, na FATce to nefunguje.