Ennnnnnnnnn laat losssssssss.... https://github.com/jrz/container-shell (instant container met chroot op current directory)
Compression gebruik je in principe als je ruimte gebrek hebt of als je data over een replication link wil gooien met minder bandbreedte.
How To Use File Compression in Windows XP
Best practices for NTFS compression in Windows
volgens mij kun je hier uit opmaken dat de uncompressed files naar je pagefile gaan. hogere iops dus.If a program modifies data through mapped sections in a compressed file, the program can produce "dirty" pages faster than the mapped writer can write them.
[ Voor 43% gewijzigd door Razwer op 18-09-2009 10:34 ]
Newton's 3rd law of motion. Amateur moraalridder.
Dat lijkt me een beetje dom zoals maxima het zegt
http://www.cnwrecovery.co.uk/html/ntfs_compression.html
Als compressie niet meer dan 1 cluster minder oplevert, wordt er niet gecompressed.
Als ik een file open dan leest hij hem -> 3 IO reads bijv
Die data wordt in memory gedecompressed (volgens mij?)
Als je het bestand dan wegschrijft, wordt hij eerst gecompressed, en dan weggeschreven.
Ik zie echt alleen maar voordelen op IO vlak gezien dan.
Ok bij VMs is IO vaak schaarser dan cpu (bij mij iig).
--
effe je linkies lezen
Ennnnnnnnnn laat losssssssss.... https://github.com/jrz/container-shell (instant container met chroot op current directory)
Newton's 3rd law of motion. Amateur moraalridder.
Maar een page hoeft niet perse op disk te worden opgeslagen.. Dat regelt je VMM allemaal
Ennnnnnnnnn laat losssssssss.... https://github.com/jrz/container-shell (instant container met chroot op current directory)
Ik zal nog even kijken of ik het ook kan testen met CrystalDiskMark.
ATTO test zonder NTFS compression:
ATTO test met NTFS compression:
[ Voor 7% gewijzigd door Otherside1982 op 18-09-2009 13:18 . Reden: fixed labels van images ;) ]
Need more data. We want your specs. Ik ben ook maar dom. anders: forum, ff reggen, ff topic maken
En als je een oplossing hebt gevonden laat het ook ujb ff in dit topic horen.
edit: anderzijds vind ik de geposte atto bench met (?) ntfs compression er erg instabiel uit zien. vooral in vergelijking tot zonder. Dit zal vast te maken hebben met beschikbaar RAM.
[ Voor 21% gewijzigd door Razwer op 18-09-2009 12:19 ]
Newton's 3rd law of motion. Amateur moraalridder.
Maar ik ben ontwikkelaar, en dan heb je met veel text files te maken. Die comprimeren wel goed.
Leuke bench other
Over defragmenteren weet ik niets eigenlijk icm compressie.
Met textures op videokaarten is het toch eigenlijk ook hetzelfde? Texture compression bestaat zodat je minder IO hebt.
Ennnnnnnnnn laat losssssssss.... https://github.com/jrz/container-shell (instant container met chroot op current directory)
• een vreemde terugval bij blocksizes 128 tot en met 1024 bytes
• geen read bij blocksize 1024 bytes
ATTO schrijft wellicht inderdaad enkel 0 bytes, gezien de enorme verschillen. De verschillen zijn wel zo groot dat ik vermoed dat de NTFS compressie toch wel een verschil kan maken. Ik ga toch nog eens een paar andere testjes proberen draaien.
Wanneer je ram dus vol loopt gaat ie naar de pagefile schrijven en *poef* daar gaat de performance.
*denkt hardop*
Als je een bepaald block zou kunnen allokeren (alloceren? engels, nl gemixte woorden, bah) voor compressed files zou de snelheid wel verhogen, komt dan op neer dat je een soort buffer maakt. Ik vraag me af of daar iets voor te schrijven valt (ben geen programmer).
Newton's 3rd law of motion. Amateur moraalridder.
Naar een map metntfs compression: 1 minuut en 10 sec, 21mb/s
Naar een map zonderntfs compression: 25 sec, 60mb/s
Lijkt me duidelijk dus.
-
Hier de test, met grafiekjesThis test was by no means exhaustive, but I think I was able to capture a good cross-section of the files people have on their systems and what sort of performance to expect. As for answering the question: "Should I use NTFS compression?", the answer is a resounding: "It depends."