Heeft defragmentere van een SSD zin?

Pagina: 1
Acties:

Onderwerpen


Acties:
  • 0 Henk 'm!

Anoniem: 158282

Topicstarter
Ik heb al een half jaar zo'n lekkere snelle SSD van intel.

Ik gebruik heb alleen voor mijn C, waar windows op staat.

Heeft het defragmenteren van zo'n SSD nou wel zin? Ik denk zelf eigenlijk van niet, omdat je een access tijd van 0,1 ms hebt, en het dus niet uitmaakt dat de naald (?welke naald), op en neer moet om de data te lezen!

Graag jullie meningen!

Acties:
  • 0 Henk 'm!

Anoniem: 301603

nope heeft geen zin, verkort zelfs de levensduur :'(
welke ssd heb je trouwens?? ( * Anoniem: 301603 wilt er ook wel een :9~ >:) )

[ Voor 49% gewijzigd door Anoniem: 301603 op 09-08-2009 18:41 ]


Acties:
  • 0 Henk 'm!

  • Oguz286
  • Registratie: Juni 2002
  • Laatst online: 23-02 10:10
Dit is echt al tig keer besproken in Het grote SSD topic ~ Deel 4

Nee, het defragmenteren van een SSD heeft geen zin en nog erger, het is zelfs schadelijk voor een SSD omdat je onnodig en veel schrijfacties veroorzaakt.

Acties:
  • 0 Henk 'm!

  • Icekiller2k6
  • Registratie: Februari 2005
  • Laatst online: 08:17
Neen, het defragmenteren van een SSD heeft geen zin. (persoonlijke mening)

Inderdaad er is geen naald.. maar dan nog.
http://sysmannews.com/story/32501
http://www.ghacks.net/200...uld-you-defragment-a-ssd/
http://forums.storagereview.net/index.php?showtopic=25228

Volgens sommige (links hierboven) kan het wel zin hebben voor het schrijven omdat het dan aan één stuk een bestand kan doorschrijven (betwijfel het zelf sterk maar ok)


volgens sommige is defraggen zelfs negatief, omdat je onnuttig writes doet waardoor de SSD sneller verslijt:
If you did defragment your Solid State Disk you can rest assured that you did not harm it in any way. It is just that this process is not needed and that defragmentation causes lots of write processes which means that the drive will reach its write limits sooner.
edit:
pff was ik lekker lang aan het uitschrijven ...

[ Voor 3% gewijzigd door Icekiller2k6 op 09-08-2009 18:42 ]

MT Venus E 5KW (V151) P1 HomeWizard | Hackerspace Brixel te Hasselt (BE) - http://www.brixel.be


Acties:
  • 0 Henk 'm!

  • RnB
  • Registratie: September 2005
  • Laatst online: 09:32

RnB

Je was goed op weg met je assumptie, jammer dat je dan toch dit topic maakt, je had google desnoods kunnen gebruiken voor ondersteuning.
Meningen heb je niet nodig, want het is een feit dat je er niets mee opschiet.

Acties:
  • 0 Henk 'm!

  • djexplo
  • Registratie: Oktober 2000
  • Laatst online: 12-05 14:03
Nee defragmentatie is niet nodig. Bij dure SSD's zal de SSD over bepaalde veel gebruikte data zelf een efficiente cache mapping structure leggen, waardoor de SSD zelf trager word als je door defragmentatie die "waardeloos" maakt.

Zie ook, http://www.tomshardware.co.uk/forum/page-246283_14_0.html

Als je Windows Vista of 7 gebruikt kan je beter ook de automatische defrag op die drive uitzetten. ;)

[ Voor 14% gewijzigd door djexplo op 09-08-2009 18:51 ]

'if it looks like a duck, walks like a duck and quacks like a duck it's probably a duck'


Acties:
  • 0 Henk 'm!

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 05-06 15:38

Ultraman

Moderator Harde Waren

Boefje

Omdat Flash geheugen over het gehele medium is defragmentatie van minder belang op SSDs dan op conventionele schijven. Echter kan defragmentatie, naar mijn mening, wel degelijk nuttig zijn op een SSD. Alleen behoef je dit minder regelmatig te doen dan met schijven. Tevens is het niet bevorderlijk voor de levensduur, dus dit bijvoorbeeld maar eens per maand of per 2 maanden doen hakt daar ook veel minder in.

Windows maakt gebruik van het NTFS bestandsysteem, welke is geoptimaliseerd voor conventionele schijven en niet voor SSDs. Data wordt op SSDs vaak opgeslagen in blokken van aanzienlijke grootte. Bij schrijfbewerkingen, voornamelijk met veel kleine bestanden, wordt vaak echter ook vrije ruimte in zo'n blok meegeschreven. Waardoor de vrije ruimte al snel gefragmenteerd raakt. Wanneer vervolgens data naar zulke gefragmenteerd stukjes vrije ruimte geschreven moet worden neemt de snelheid waarmee dat gebeurd sterk af. En dat is zonde van de SSD, welke je juist voor de snelheid aanschaft.

Door dergelijke fragmentatie ga je tevens wegschrijven over verschillende blokken, waardoor onnodig veel blokken gebruikt worden bij zo'n operatie. Dat heeft weer een negatief effect op de levensduur.

Dit soort 'probleempjes' zijn inherent aan het bestandsysteem dat gebruikt wordt. Dus gebruik je NTFS op een SSD, dan denk ik dat eens in de zoveel tijd defragmenteren een nodig kwaad is. Ik denk dat een zekere parabool met een ideaal maximum, een sweet spot of een lesser of two evils, bestaat tussen niet defragmenteren, waardoor je fragmentatie van je free space oploopt en schrijfacties meerdere blokken gaan gebruiken met gevolgen voor de levensduur, en wel defragmenteren waarin alles op een rijtje wordt gezet maar wel weer met een aantal erase-write cycles tot gevolg.

Ook is er interne fragmentatie, maar dat wordt aangepakt door het nieuwe TRIM command binnen de ATA interface.

Wat nodig is een bestandsysteem welke geoptimaliseerd is voor SSDs. Binnen de Open Source wereld zijn er al verschillende bestandsystemen welke aangeven beter te zijn voor Flash geheugen en ook SSDs. Omdat ik zelf geen SSD heb heb ik daar nog nooit mee getest, dus ik kan er weinig over zeggen. En er zijn er best een aantal, zoals JFFS2, YAFFS2, LogFS.
Maar ook bestandsystemen welke van nature minder fragmenteren, bijv door het gebruik van extents voor het alloceren van ruimte voor bestanden zoals onder Linux Ext4 en het aankomende btrfs.
Voor wie Linux gebruikt zijn er dus al opties om rekening met je SSD te houden.

In het kort: Defragmentatie is een stuk minder nodig, maar niet overbodig.

Als je stil blijft staan, komt de hoek wel naar jou toe.


Acties:
  • 0 Henk 'm!

  • RnB
  • Registratie: September 2005
  • Laatst online: 09:32

RnB

Ultraman schreef op zondag 09 augustus 2009 @ 20:22:
Omdat Flash geheugen over het gehele medium is defragmentatie van minder belang op SSDs dan op conventionele schijven. Echter kan defragmentatie, naar mijn mening, wel degelijk nuttig zijn op een SSD. Alleen behoef je dit minder regelmatig te doen dan met schijven. Tevens is het niet bevorderlijk voor de levensduur, dus dit bijvoorbeeld maar eens per maand of per 2 maanden doen hakt daar ook veel minder in.

Windows maakt gebruik van het NTFS bestandsysteem, welke is geoptimaliseerd voor conventionele schijven en niet voor SSDs. Data wordt op SSDs vaak opgeslagen in blokken van aanzienlijke grootte. Bij schrijfbewerkingen, voornamelijk met veel kleine bestanden, wordt vaak echter ook vrije ruimte in zo'n blok meegeschreven. Waardoor de vrije ruimte al snel gefragmenteerd raakt. Wanneer vervolgens data naar zulke gefragmenteerd stukjes vrije ruimte geschreven moet worden neemt de snelheid waarmee dat gebeurd sterk af. En dat is zonde van de SSD, welke je juist voor de snelheid aanschaft.

Door dergelijke fragmentatie ga je tevens wegschrijven over verschillende blokken, waardoor onnodig veel blokken gebruikt worden bij zo'n operatie. Dat heeft weer een negatief effect op de levensduur.

Dit soort 'probleempjes' zijn inherent aan het bestandsysteem dat gebruikt wordt. Dus gebruik je NTFS op een SSD, dan denk ik dat eens in de zoveel tijd defragmenteren een nodig kwaad is. Ik denk dat een zekere parabool met een ideaal maximum, een sweet spot of een lesser of two evils, bestaat tussen niet defragmenteren, waardoor je fragmentatie van je free space oploopt en schrijfacties meerdere blokken gaan gebruiken met gevolgen voor de levensduur, en wel defragmenteren waarin alles op een rijtje wordt gezet maar wel weer met een aantal erase-write cycles tot gevolg.

Ook is er interne fragmentatie, maar dat wordt aangepakt door het nieuwe TRIM command binnen de ATA interface.

Wat nodig is een bestandsysteem welke geoptimaliseerd is voor SSDs. Binnen de Open Source wereld zijn er al verschillende bestandsystemen welke aangeven beter te zijn voor Flash geheugen en ook SSDs. Omdat ik zelf geen SSD heb heb ik daar nog nooit mee getest, dus ik kan er weinig over zeggen. En er zijn er best een aantal, zoals JFFS2, YAFFS2, LogFS.
Maar ook bestandsystemen welke van nature minder fragmenteren, bijv door het gebruik van extents voor het alloceren van ruimte voor bestanden zoals onder Linux Ext4 en het aankomende btrfs.
Voor wie Linux gebruikt zijn er dus al opties om rekening met je SSD te houden.

In het kort: Defragmentatie is een stuk minder nodig, maar niet overbodig.
Okay, dat over de levensduur kan ik uiteraard niet testen, maar snelheidsverlies is niet bestaand op mijn systeem. Ik heb nu 8 maanden een MTron 3525 en hij is nog even snel als toen ik het net in mijn systeem zette. En dat terwijl ik al vele gigabytes heb geschreven.
Enig verschil in snelheid merk ik bij een volle schijf, maar dat heeft niets met fragmentatie te maken.

Wel even erbij zeggen dat ik dit ook echt gebenchmarked heb. ;)

Acties:
  • 0 Henk 'm!

Anoniem: 158282

Topicstarter
Je was goed op weg met je assumptie, jammer dat je dan toch dit topic maakt, je had google desnoods kunnen gebruiken voor ondersteuning.
Meningen heb je niet nodig, want het is een feit dat je er niets mee opschiet.
Je mag toch wel wat vragen?, daar is het forum toch voor...?

[ Voor 66% gewijzigd door Anoniem: 158282 op 10-08-2009 20:47 ]


Acties:
  • 0 Henk 'm!

Anoniem: 158282

Topicstarter
Dank voor jullie meningen!, ik denk ook wel dat het beter is om het toch om de zoveel tijd te doen, maar zeker niet te vaak.

Idd maar snel hopen dat er een filesysteem komt die speciaal voor SDD is, want het word de toekomst, dat is zeker. Ik ben igg erg tevreden met die SDD, maakt mijn systeem echt vlink stuk sneller!
Pagina: 1