Het grote SSD topic ~ Deel 6 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 67 ... 78 Laatste
Acties:
  • 613.556 views

Onderwerpen


Acties:
  • 0 Henk 'm!

  • job
  • Registratie: Februari 2002
  • Laatst online: 19:17

job

Verwijderd schreef op zaterdag 13 november 2010 @ 13:42:
Heb een extrememory 128gb ssd aangeschaft en netjes w7 geinstalleerd.
Heb met de sleutel die ergens in dit topic staat de trim nagekeken en die staat op 0, die werkt dan neem ik aan?
Even een oude post van mezelf: job in "Het grote SSD topic ~ Deel 6"

Trim heb je als:
1. het os het ondersteunt (en aanstaat.. wat je dus met dat commando op kan vragen).
2. de sata drivers het ondersteunen (standaard windows achi drivers supporten in elkgeval achi) en achi in de bios aanstaat.
3. je ssd het ondersteunt (te controleren met crystaldiskinfo).

Alleen als aan al die 3 voorwoorden wordt voldaan werkt trim.

[ Voor 3% gewijzigd door job op 13-11-2010 14:14 ]


Acties:
  • 0 Henk 'm!

  • GeforceDDQ
  • Registratie: Februari 2002
  • Laatst online: 22-02 12:08
Ik heb voor de vergelijking ook eens HDtune gedraaid, op zowel de OCZ vertex 2 als de raptors in raid0, wat opmerkelijke resultaten gaf.

De raptors in raid0 tonen nu opeens een veel hogere waarde voor read in mb/sec:
hdtune_raid 0

De OCZ vertex 2 laat echter hetvolgende zien:
hdtune_vertex

Verre van de mooie strakke (en vooral rechte) lijn die sommige anderen hier posten. De waardes lijken mij ook niet echt bij een SSD horen.

Heb ook het BIOS als met de nieuwste versie geflashed, nieuwe SATA kabel gebruikt bij aansluiting en het enige wat anders is met de andere HDD's is dat de SSD schuin gemonteerd zit momenteel, wat mij geen kwaad lijkt te kunnen aangezien er geen bewegende delen in zitten.

Aangezien die raptors nu wel fatsoenlijke resultaten laten zien, lijkt het mij dat de controller niet naar de ziekte is, maar degelijk functioneerd. Waarom dan echter bij de SSD niet? Of issie stuk? :+

[ Voor 10% gewijzigd door GeforceDDQ op 13-11-2010 16:04 ]

301SQN


Acties:
  • 0 Henk 'm!

  • Dark
  • Registratie: September 1999
  • Laatst online: 17:26

Dark

who tweaked the light?

Waar hdtune lager aangeeft staan data, zo te zien dus 2 partities op een 40gb schijfje.

hdtune 255 hier:
Afbeeldingslocatie: http://i55.tinypic.com/2qbyicm.png

Acties:
  • 0 Henk 'm!

  • Philflow
  • Registratie: April 2006
  • Laatst online: 06-12-2023

Philflow

Philflow wijzigde dit (47%)

GeforceDDQ schreef op zaterdag 13 november 2010 @ 15:35:
Verre van de mooie strakke (en vooral rechte) lijn die sommige anderen hier posten. De waardes lijken mij ook niet echt bij een SSD horen.
Een strakke lijn krijg je alleen als er geen data op staat ;)

ATTO en CDM (3 x 50MB!) zeggen veel meer over hoe je performance is.

Acties:
  • 0 Henk 'm!

Verwijderd

OzBoz schreef op zaterdag 13 november 2010 @ 02:09:
[...]


Ik vind je Raptors in RAID0 ook al tragisch. Ik heb net ook ff CrystalDiskMark over twee simpele 1TB WD drives gegooid die in RAID0 staan maar haal toch wel hele andere scores. http://oscar.maakt.nu/hd_benchmark3.jpg

Wel raarde waarde die tweede van rechts trouwens. Wat betref de Vertex 2, die score is ook heel erg laag. Maar kan niet echt vergelijken want daar heb ik er ook 2 van in RAID0 staan, http://oscar.maakt.nu/hd_benchmark.jpg en http://oscar.maakt.nu/hd_benchmark2.jpg (beiden vergelijking met mijn WD's in RAID0) Hoe dan ook zijn je scores droevig, maar ook die van de Raptor voor mijn gevoel.

Nog even mijn RAID0 vertex 2 schijven door crystaldiskmark geduwd, maar allemaal zulke andere waarden dan andere benchmarks. Maar als ik kijk naar de bovenste 4 dan zou die van jou voor mijn gevoel zeker de helft moeten halen. http://oscar.maakt.nu/hd_benchmark4.jpg
Leuke tests , dat verschil in iops met kleine files tussen hd en ssd is gewoon een factor 100 , van 60 naar 6000+ . Eigenlijk is een ssd meer als een hd , doet me meer denken aan hoe een parallele computer zou kunnen werken. Eigenlijk is het een soort parallele harde schijf _/-\o_

Moet je kijken hoeveel irq de usb op de ICH10 in beslag neemt onder windows XP 32 bit :o
Afbeeldingslocatie: http://www.plaatjesupload.nl/bekijk/2010/11/13/1289670082-790.jpg


Dit is met usb disabled, cmos clock kan nog uit ,windows audio kan nog uit

Afbeeldingslocatie: http://www.plaatjesupload.nl/bekijk/2010/11/13/1289670160-030.jpg

Acties:
  • 0 Henk 'm!

  • Philflow
  • Registratie: April 2006
  • Laatst online: 06-12-2023

Philflow

Philflow wijzigde dit (47%)


Acties:
  • 0 Henk 'm!

  • harmageddon
  • Registratie: Januari 2002
  • Laatst online: 16-09 10:53
Ik heb nog geen resultaten gezien van de Intel 120GB X25-M dus dan zal ik ze maar even posten :)
Heb de disk vandaag binnen gekregen (is mijn eerste ssd)
Afbeeldingslocatie: http://www.renkers.com/CrystalDiskMark.PNG

Aap!


Acties:
  • 0 Henk 'm!

  • GeforceDDQ
  • Registratie: Februari 2002
  • Laatst online: 22-02 12:08
Philflow schreef op zaterdag 13 november 2010 @ 17:28:
[...]

Een strakke lijn krijg je alleen als er geen data op staat ;)

ATTO en CDM (3 x 50MB!) zeggen veel meer over hoe je performance is.
Oh...dat verklaard een hoop :+ Het is echter wel 1 partitie :)

CDM
CDM Vertex
ATTO
ATTO_vertex

Dusch...CDM liegt?

301SQN


Acties:
  • 0 Henk 'm!

  • Philflow
  • Registratie: April 2006
  • Laatst online: 06-12-2023

Philflow

Philflow wijzigde dit (47%)

CDM gebruikt random data die Sandforce niet kan comprimeren. Vandaar de lagere performance. Maar in zowel CDM als ATTO is je write performance laag. Wat voor chipset/moederbord/controller is het?
harmageddon schreef op zondag 14 november 2010 @ 00:39:
Ik heb nog geen resultaten gezien van de Intel 120GB X25-M dus dan zal ik ze maar even posten :)
Heb de disk vandaag binnen gekregen (is mijn eerste ssd)
Nette write performance voor een Intel.

[ Voor 32% gewijzigd door Philflow op 14-11-2010 07:19 ]


Acties:
  • 0 Henk 'm!

  • GeforceDDQ
  • Registratie: Februari 2002
  • Laatst online: 22-02 12:08
Philflow schreef op zondag 14 november 2010 @ 07:18:
[...]

CDM gebruikt random data die Sandforce niet kan comprimeren. Vandaar de lagere performance. Maar in zowel CDM als ATTO is je write performance laag. Wat voor chipset/moederbord/controller is het?
Het gaat om een Asus Crosshair III Formula, met de SB750 southbridge (en AMD 790FX north).
Heb zowel IDE als AHCI als RAID modus geprobeerd met zowel de MS drivers als de AMD drivers. Hetzelfde resultaat.

Draai nu RAID met AMD drivers, NCQ en write-cache ingeschakeld. Zaken als C1E support staan op disabled. SSD tweaks voor windows 7 uitgevoerd.

[ Voor 11% gewijzigd door GeforceDDQ op 14-11-2010 10:40 ]

301SQN


Acties:
  • 0 Henk 'm!

  • Philflow
  • Registratie: April 2006
  • Laatst online: 06-12-2023

Philflow

Philflow wijzigde dit (47%)

GeforceDDQ schreef op zondag 14 november 2010 @ 10:25:
[...]
Het gaat om een Asus Crosshair III Formula, met de SB750 southbridge (en AMD 790FX north).
Heb zowel IDE als AHCI als RAID modus geprobeerd met zowel de MS drivers als de AMD drivers. Hetzelfde resultaat.

Draai nu RAID met AMD drivers, NCQ en write-cache ingeschakeld.
In Atto ziet het er nog redelijk uit. In CDM is 48 MB/sec sequentiele write wel erg laag. Ik zou het eens vergelijken met andere mensen die een zelfde setup hebben.

Acties:
  • 0 Henk 'm!

  • Dark
  • Registratie: September 1999
  • Laatst online: 17:26

Dark

who tweaked the light?

GeforceDDQ schreef op zondag 14 november 2010 @ 01:47:
[...]
Oh...dat verklaard een hoop :+ Het is echter wel 1 partitie :)
misschien eens 'free space consolidation' doen met perfect disk, om de data weer een beetje bij elkaar te krijgen.: http://www.ocztechnologyf...572&viewfull=1#post567572

Acties:
  • 0 Henk 'm!

  • _Arthur
  • Registratie: Juli 2001
  • Laatst online: 22:05
GeforceDDQ schreef op zondag 14 november 2010 @ 10:25:
Het gaat om een Asus Crosshair III Formula, met de SB750 southbridge (en AMD 790FX north).
Heb zowel IDE als AHCI als RAID modus geprobeerd met zowel de MS drivers als de AMD drivers. Hetzelfde resultaat.
Toevallig een ander systeem bij de hand waar in je je SSD eens kan testen? Dan kan je zaken gaan uitsluiten welke het probleem kunnen veroorzaken.

Acties:
  • 0 Henk 'm!

  • Arfman
  • Registratie: Januari 2000
  • Laatst online: 22:42

Arfman

Drome!

Arfman schreef op zondag 07 november 2010 @ 13:23:
Clean Windows 7 install, SSD Toolbox, verder niets gedaan aan RST drivers of andere SSD gerelateerde taken, behalve de Toolbox aangeraden tweak. Best nette score toch?

Intel 80GB G2 SSD, E8400 @ 3.6GHz, 4 GB RAM.

[afbeelding]
Had C1E nog aanstaan in het BIOS :X
Afbeeldingslocatie: http://rally.arfman.net/arfman/cdm%2014112010.png
Scheelt toch wel iets. Daarnaast is dit met 100MB blocks gedaan, maar ik vermoed dat dat t.o.v. 1000MB blocks niet zoveel uitmaakt.

DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |


Acties:
  • 0 Henk 'm!

Verwijderd

Arfman schreef op zondag 14 november 2010 @ 16:35:
[...]

Scheelt toch wel iets. Daarnaast is dit met 100MB blocks gedaan, maar ik vermoed dat dat t.o.v. 1000MB blocks niet zoveel uitmaakt.
Aan de score is die al te herkennen als zijnde intel ssd , al de 80 GB intels zitten wel dicht bij mekaar kwa benches :)

Defragmentatie na 5 maanden gebruik is wel erg ,er is ook nog de defragmentatie op het level wat windows niet kan zien, Defragmenteren met een ssd en wordt niet aan bevolen , dat laat maar zien hoe anders een ssd is als een hd.

Rood zijn gefragmenteerde bestanden :(
Afbeeldingslocatie: http://www.plaatjesupload.nl/bekijk/2010/11/14/1289743282-660.jpg

Acties:
  • 0 Henk 'm!

  • Dark
  • Registratie: September 1999
  • Laatst online: 17:26

Dark

who tweaked the light?

defragmenteren op zich geeft niks, het is alleen dat defrag op een schema onnodig veel writes kan geven... meen ik ergens op ocz forum gelezen te hebben... men raadt aan perfect disk 11's free space consolidation manual te gebruiken omdat die bekend weinig writes nodig heeft.

het is ook maar de vraag wat de klassieke diskmap nog betekend bij een ssd natuurlijk ;) want de plaating van data is natuurlijk anders dan op hdd... maar je krijgt iig een mooier plaatje ;) heh met consolildate...

[ Voor 28% gewijzigd door Dark op 14-11-2010 19:12 . Reden: bijgewerkt ]


Acties:
  • 0 Henk 'm!

  • Arfman
  • Registratie: Januari 2000
  • Laatst online: 22:42

Arfman

Drome!

Verwijderd schreef op zondag 14 november 2010 @ 18:40:
Aan de score is die al te herkennen als zijnde intel ssd , al de 80 GB intels zitten wel dicht bij mekaar kwa benches :)
Klopt, Intel 80GB SSD G2, een jaar oud nu ongeveer. Vorige week dus helemaal leegemaakt en Windows 7 er weer fris opgezet.

DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Dark schreef op zondag 14 november 2010 @ 19:08:
het is ook maar de vraag wat de klassieke diskmap nog betekend bij een ssd natuurlijk ;) want de plaating van data is natuurlijk anders dan op hdd... maar je krijgt iig een mooier plaatje ;) heh met consolildate...
In mijn ogen lijkt het zelfs voordeliger dat data gefragmenteerd (niet gedefragmenteerd) is op een SSD omdat bv. data die op meerdere chips staat parallel aangesproken zou kunnen worden itt. als het allemaal op dezelfde chip zou staan (opeenvolgend). Maar feitelijk zou dat dan intelligent gefragmenteerd moeten worden om rekening te houden met hoeveel chips er zijn en hoeveel kanalen de controller heeft.

Acties:
  • 0 Henk 'm!

Verwijderd

dat kan, maar dat is zowel een voordeel als nadeel:
http://www.anandtech.com/show/2829/5

met write performance wil je zo min mogelijk fragmenten (ivm het wissen van de flash cellen als er niet genoeg vrije ruimte is, ofwel write amplificatie), maar het lezen gaat sneller als de data op zoveel mogelijk verschillende flash cellen staan.

[ Voor 58% gewijzigd door Verwijderd op 14-11-2010 23:39 ]


Acties:
  • 0 Henk 'm!

  • mux
  • Registratie: Januari 2007
  • Laatst online: 03-09 11:04

mux

99% efficient!

Verwijderd schreef op zondag 14 november 2010 @ 18:40:
[...]


Aan de score is die al te herkennen als zijnde intel ssd , al de 80 GB intels zitten wel dicht bij mekaar kwa benches :)

Defragmentatie na 5 maanden gebruik is wel erg ,er is ook nog de defragmentatie op het level wat windows niet kan zien, Defragmenteren met een ssd en wordt niet aan bevolen , dat laat maar zien hoe anders een ssd is als een hd.

Rood zijn gefragmenteerde bestanden :(
[afbeelding]
Meerdere mensen hebben het inmiddels al gezegd, maar even ten overvloede:

Fragmentatie van je bestanden op een SSD is helemaal prima! Geen enkele reden om je SSD te defragmenteren!

Youtube: PowerElectronicsBlog - Plank2 (4W computer)


Acties:
  • 0 Henk 'm!

  • Audione0
  • Registratie: April 2009
  • Laatst online: 21:37

Audione0

Strijdt der titanen

Ik dacht dat fragmentatie juist slecht was. Of iig voor de levensduur..?

Ryzen 9 7950x3d / Asus Strixx x670E-E / Noctua NH-DH15 / 64GB Corsair Dominator 6000 / Crucial M500 – Samsung 990pro / MSI RTX 4070TI Super Gaming X Slim / Corsair RM1000x / Alles in een Fractal Define 7 Black gepropt


Acties:
  • 0 Henk 'm!

Verwijderd

Audione0 schreef op maandag 15 november 2010 @ 08:09:
Ik dacht dat fragmentatie juist slecht was. Of iig voor de levensduur..?
Je bent in de war met defragmenteren

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Audione0 schreef op maandag 15 november 2010 @ 08:09:
Ik dacht dat fragmentatie juist slecht was. Of iig voor de levensduur..?
Defragmenteren is slecht voor een ssd omdat zo'n programma enorm veel schrijft naar de flashcellen waardoor deze veel sneller slijten dan nodig.

Een gefragmenteerde SSD is, itt bij een HDD, geen probleem omdat de leessnelheid en toegangssnelheid van een SSD zo hoog ligt dat je de fragmentatie niet merkt.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Dark
  • Registratie: September 1999
  • Laatst online: 17:26

Dark

who tweaked the light?

Defrag op zich is niet evil ofzo hoor... defrag op een schema 1x per week zou te veel writes kunnen geven op de lange duur... maar je hoeft dus echt niet bang te zijn dat er iets faalt als je 1x defrag doet.

Of het zinvol is, dat is dus een 2e vraag ;) waar over te theoretiseren valt, want zo'n disk map zegt natuurlijk weinig over de echte organistatie van de data op de SSD.

edit:
van de vertexen las ik dat die gewoon alle cellen om beurten gebruiken, dus defrag heeft dan idd weinig zin...

[ Voor 13% gewijzigd door Dark op 15-11-2010 11:02 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Als het idd door de chipset al zelf intelligent geplaatst wordt, dan heeft het helemaal geen zin meer nee.

Acties:
  • 0 Henk 'm!

  • _H_G_
  • Registratie: September 2002
  • Laatst online: 15:46
Heb een keer slechte ervaring gehad met "defrag /x" Had toendertijd wat mindere performance, en daar ik toch een destructive flash van plan was heb ik wat geëxperimeerd. In theorie had het moeten werken, maar de mindere benchmarks werden alleen minder. AS Cleaner had bijvoorbeeld wel resultaat, wat volgens mij hetzelfde zou moeten doen (de vrije ruimte beschrijven met 0xFF).

Een gewone defrag had ik voor de gein ook gedraaid. Dat ging trager en trager tot ie helemaal niks meer deed (verdween ook uit schijflijst, maar na reboot was ie er weer). Dat was wel firmware 1.1 ofzo en 90% in gebruik (wat uiteindelijk schijnbaar de oorzaak was):

Denk niet dat het tegenwoordig nog een probleem is. Firmware 1.6 met Intel RST driver draait als een tierelier. Maar dacht: ik zeg het maar even voordat iemand gaat experimenteren zonder back-up ;)

Acties:
  • 0 Henk 'm!

  • Speedy-J
  • Registratie: November 2000
  • Laatst online: 31-07 11:44

Speedy-J

AMD Enthusiast

Ik heb hier 2 corsair nova V64 in raid 0 gezet,het zijn niet de snelste ssd's maar voor de prijs gaat hij niet verkeerd denk ik :)

Afbeeldingslocatie: http://uploadpic.org/storage/originals/thumb_dnf922essfn4e98j2u2ffrujfs.png

Ryzen 7 5800@4.7GHz|Asus prime X570 pro|16GB G-Skill trident z rgb|Gigabyte rtx 2070 super|Custom WC van EK|chietech dragon|Corsair 750w rm x


Acties:
  • 0 Henk 'm!

  • Dark
  • Registratie: September 1999
  • Laatst online: 17:26

Dark

who tweaked the light?

_H_G_ schreef op maandag 15 november 2010 @ 11:34:
Heb een keer slechte ervaring gehad met "defrag /x"
...
Een gewone defrag had ik voor de gein ook gedraaid. Dat ging trager en trager tot ie helemaal niks meer deed (verdween ook uit schijflijst, maar na reboot was ie er weer). Dat was wel firmware 1.1 ofzo en 90% in gebruik (wat uiteindelijk schijnbaar de oorzaak was):
...
Maar dacht: ik zeg het maar even voordat iemand gaat experimenteren zonder back-up ;)
Idd die 90% vol was het probleem gok ik zo ... dat is zelfs op hdd al vrij weinig werkruimte voor defrag... op een ssd heb je het dan over een paar gb als speelruimte...

Acties:
  • 0 Henk 'm!

  • _H_G_
  • Registratie: September 2002
  • Laatst online: 15:46
Dark schreef op maandag 15 november 2010 @ 12:32:
idd die 90% vol was het probleem gok ik zo ... dat is zelfs op hdd al vrij weinig werkruimte voor defrag... op een ssd heb je het dan over een paar gb als speelruimte...
Ik had het over defrag /x heh, niet defrag. Sorry, zelf niet goed opgeschreven. Het was beide problemen.

Misschien boeit het niet eens meer wat defrag /x doet. Zo te zien zijn er bijna geen problemen meer met degradatie. Zelf draai ik geen raid, anders zou ik het nog wel uitproberen of deze defrag met as cleaner helpt, i.p.v. secure erase.

[ Voor 32% gewijzigd door _H_G_ op 15-11-2010 12:49 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Dark schreef op maandag 15 november 2010 @ 10:57:
Defrag op zich is niet evil ofzo hoor... defrag op een schema 1x per week zou te veel writes kunnen geven op de lange duur... maar je hoeft dus echt niet bang te zijn dat er iets faalt als je 1x defrag doet.

Of het zinvol is, dat is dus een 2e vraag ;) waar over te theoretiseren valt, want zo'n disk map zegt natuurlijk weinig over de echte organistatie van de data op de SSD.

edit:
van de vertexen las ik dat die gewoon alle cellen om beurten gebruiken, dus defrag heeft dan idd weinig zin...
Beste is gewoon alle adviezen opvolgen en niet doen , zelfs trim doe ik hooguit eens per week .
Als je trim niet meer helpt zou je een secure erase kunnen doen, dat is ook de manier voor een raid setup zonder trim . Gewoon dual boot maken , booten buiten je raid om op een andere disk ,backup maken van de raid array . De schijven uit uit de array verwijderen en als aparte schijven initaliseren en sucure erasen.Daarna raid weer opbouwen en image terugzetten .Omdat een ssd zo snel is zal het niet veel tijd in beslag nemen :)

Acties:
  • 0 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 00:26
Secure erase om je SSD handmatig te trimmen? Bij een secure erase denk ik aan diverse passes random bytes erheen schrijven en vervolgens nog een keertje met null's erover. Om een SSD compleet te nullen is die laatste pass op zichzelf al goed genoeg en hebben die random passes alleen maar nadeel.

Acties:
  • 0 Henk 'm!

  • _H_G_
  • Registratie: September 2002
  • Laatst online: 15:46
secure erase is toch een speciaal commando wat die ssd's snappen? De Sandforce gooit dan bijvoorbeeld ook z'n Durawrite gegevens weg en begint weer als zijnde schoon. Nullen schrijven naar een Indilinx SSD werkt iig averechts (dan moet je FF schrijven of pages als unused te krijgen).

Acties:
  • 0 Henk 'm!

  • Dark
  • Registratie: September 1999
  • Laatst online: 17:26

Dark

who tweaked the light?

@ systeemherstel boven:
Ja ben ik met je eens hoor... wat ik enkel probeer te zeggen is dat je niet echt bang hoeft te zijn dat als je 1x defrag doet dat het stuk gaat... dat geen zin heeft en alleen extra writes veroorzaakt is verder wel duidelijk, lijkt me...

imagen/secure erase werkt idd erg goed... zo is mijn diskmapje ook heel net geworden, pd11 consolidate->idle time @ logon->image->secure erase vanuit alt os->image restore... images met acronis home 2011.

edit: reden dit te proberen had ik al genoemd, dat was dat de seq. write niet boven de 85 kwam waar ik 140 op een nieuwe had...

edit2: idd niet de hdd secure erase methode van meerdere writes om de hdd's met zekerheid te wissen... het is het ingebouwde secure erase command van de sandforce controller waar ik het over heb. Dat is in een flist gebeurd...

[ Voor 28% gewijzigd door Dark op 15-11-2010 13:00 ]


Acties:
  • 0 Henk 'm!

  • oscardt
  • Registratie: Juli 2000
  • Laatst online: 15-09 23:04
harmageddon schreef op zondag 14 november 2010 @ 00:39:
Ik heb nog geen resultaten gezien van de Intel 120GB X25-M dus dan zal ik ze maar even posten :)
Heb de disk vandaag binnen gekregen (is mijn eerste ssd)
[afbeelding]
Ziet er goed uit! kan je ook een ATTO benchmark draaien?

Acties:
  • 0 Henk 'm!

Verwijderd

Dark schreef op maandag 15 november 2010 @ 12:55:
@ systeemherstel boven:


dat geen zin heeft en alleen extra writes veroorzaakt is verder wel duidelijk, lijkt me...
Het lijkt me niet :)
Defragmenteren is niet alleen schrijven , windows gaat schuiven met bestanden om alles weer aaneengesloten te krijgen .Of er dan alleen maar geschreven wordt of ook overgeschreven is nog maar de vraag .

Acties:
  • 0 Henk 'm!

  • Dark
  • Registratie: September 1999
  • Laatst online: 17:26

Dark

who tweaked the light?

:) zo kan je het ook bekijken idd... het is ook maar de vraag of er echt data verplaatst word of dat het enkel naar buiten zo gepresenteerd word ...

Acties:
  • 0 Henk 'm!

  • stevens20
  • Registratie: Maart 2009
  • Laatst online: 14-09 22:21
Defragmenteren is in principe toch niet nodig met SSD?

Ahhh wachten duurt lang! Donderdag middag om 15:00 besteld en nu nog niet binnen! :(
Nu maar hopen dan mijn vertex2 120gb morgen een beetje op tijd binnen komt want dat is mijn laatste vrije dag! Daarna moet er weer aan school gewerkt worden!

https://www.flickr.com/people/137281057@N05/


Acties:
  • 0 Henk 'm!

Verwijderd

Dark schreef op maandag 15 november 2010 @ 18:50:
:) zo kan je het ook bekijken idd... het is ook maar de vraag of er echt data verplaatst word of dat het enkel naar buiten zo gepresenteerd word ...
Windows X heeft voor defragmenteren een aantal procent vrije ruimte nodig ,waarschijnlijk om gefragmenteerde bestanden aaneengesloten te maken en dan terug te zetten in de orginele locatie .
Met dat terugzetten heb je kans op overgeschreven files ,die cels bezet kunnen houden ondanks trim.
Dat gebeurt eigenlijk ook met de pagefile als je die gebruikt . Zo is mijn pagefile afgesteld op 2 GB op HD maar windows gebruikt iddle rond de 300MB en met wat browsers open en een spel rond de 700MB .Zit een grote variatie in omdat ik weinig Ram heb en een grote page nodig heb :)

Bestandsfragmentatie

Totaal aantal bestanden = 21.651
Gemiddelde bestandsgrootte = 343 kB
Totaal aantal gefragmenteerde bestanden = 11.001
Totaal aantal overtollige fragmenten = 133.099
Gemiddeld aantal fragmenten per bestand = 7,14

Volumefragmentatie
Totale fragmentatie = 43 %
Bestandsfragmentatie = 87 %
Fragmentatie van vrije ruimte = 0 %

Fragmentatie van wisselbestand
Wisselbestandsgrootte = 0 bytes
Totaal aantal fragmenten = 0


MFT-fragmentatie
Totale grootte van MFT = 29 MB
Aantal MFT-records = 25.800
Percentage van MFT dat in gebruik is = 88 %
Totaal aantal MFT-fragmenten = 2

Acties:
  • 0 Henk 'm!

  • Bartjuh
  • Registratie: Oktober 2001
  • Niet online

Bartjuh

Hej

Dark schreef op maandag 15 november 2010 @ 10:57:
Of het zinvol is, dat is dus een 2e vraag ;) waar over te theoretiseren valt, want zo'n disk map zegt natuurlijk weinig over de echte organistatie van de data op de SSD.
Volgens mij is het hele idee achter defragmenteren dat je de cellen met data van bestanden netjes geordend achter elkaar plaatst (dus fysiek op de harde schijf) zodat de koppen van de harde schijf in één sweep een bestand kan lezen en niet continu heen en weer hoeft te bewegen met rotational latency e.d.

Lijkt me totaal niet van toepassing op een SSD. Volgens mij kan het alleen maar slecht zijn voor de SSD omdat het aantal writes wordt verhoogd, en ik zie geen positieve effecten.

Acties:
  • 0 Henk 'm!

  • lampekap06
  • Registratie: Juni 2006
  • Laatst online: 18:50
SSD's bestaan uit blokken van 512k, die op hun beurt bestaan uit page van 4k. Dus theoretisch gezien kunnen al je kleine bestandjes gefragmenteerd over de hele ssd staan, waarbij elk block van 512k maar deels gevuld is. Deels, dus heb je vrije schijfruimte. Maar als je wil schrijven, zul je eerst de content naar een vrij block moeten verplaatsen in de gereserveerde ruimte, om vervolgens de bestaande + nieuwe data te schrijven. Dat is langzamer. Dus theoretisch gezien kan het vervelend zijn als al je data hevig gefragmenteerd is, vooral bij weinig schijfruimte.

Acties:
  • 0 Henk 'm!

  • Pinin
  • Registratie: Januari 2004
  • Laatst online: 12-07 10:28

Pinin

Historie | Luxe | Duurzaam

1. Kan iemand me uitleggen waarom het beter is om windows indexing te disablen met een SSD?
(zou het graag aan willen voor bijv. outlook bestanden te doorzoeken)
2. Klopt het dat partitie al ge allignt is bij een win 7 install

www.casarodriguillo.com


Acties:
  • 0 Henk 'm!

  • Jrz
  • Registratie: Mei 2000
  • Laatst online: 00:15

Jrz

––––––––––––

Pinin schreef op maandag 15 november 2010 @ 20:16:
1. Kan iemand me uitleggen waarom het beter is om windows indexing te disablen met een SSD?
(zou het graag aan willen voor bijv. outlook bestanden te doorzoeken)
Volgens mij slaat dat helemaal nergens op, want de "levensduur" van een SSD gaat over het aantal writes.

Ennnnnnnnnn laat losssssssss.... https://github.com/jrz/container-shell (instant container met chroot op current directory)


Acties:
  • 0 Henk 'm!

Verwijderd

Jrz schreef op maandag 15 november 2010 @ 20:29:
[...]


Volgens mij slaat dat helemaal nergens op, want de "levensduur" van een SSD gaat over het aantal writes.
en hoe houd hij bij waar alle bestanden staan? juist, door dat ergens op te slaan ;)

Acties:
  • 0 Henk 'm!

Verwijderd

lampekap06 schreef op maandag 15 november 2010 @ 20:14:
SSD's bestaan uit blokken van 512k, die op hun beurt bestaan uit page van 4k. Dus theoretisch gezien kunnen al je kleine bestandjes gefragmenteerd over de hele ssd staan, waarbij elk block van 512k maar deels gevuld is. Deels, dus heb je vrije schijfruimte. Maar als je wil schrijven, zul je eerst de content naar een vrij block moeten verplaatsen in de gereserveerde ruimte, om vervolgens de bestaande + nieuwe data te schrijven. Dat is langzamer. Dus theoretisch gezien kan het vervelend zijn als al je data hevig gefragmenteerd is, vooral bij weinig schijfruimte.
Zou het wijsheidzijn om byvoordbeeld een keer te defragmenteren ,daar een image van maken ,dan de partitie verwijderen en een secure erase uit te voeren, om daarna het image terug te zetten zonder windows fragmentatie .

Acties:
  • 0 Henk 'm!

  • _H_G_
  • Registratie: September 2002
  • Laatst online: 15:46
Pinin schreef op maandag 15 november 2010 @ 20:16:
1. Kan iemand me uitleggen waarom het beter is om windows indexing te disablen met een SSD?
(zou het graag aan willen voor bijv. outlook bestanden te doorzoeken)
2. Klopt het dat partitie al ge allignt is bij een win 7 install
1. Mwa, zoveel indexeert search indexing niet (t.o.v. Vista). Je kan in Windows 7 bijvoorbeeld kijken naar de indexing options, welke bestanden geïndexeerd worden. De rest van de bestanden (van de schijven waar indexing aan staat) wordt alleen bestandsinformatie geïndexeerd, niet de inhoud. Vergeleken met system restore of hibernate ofzo is het maar klein.
Het is wel zo dat indexing niet heel veel nut heeft bij een goede SSD. Er zit iets in Windows 7 dat bij een bepaalde snelheid zelf besluit om het uit te zetten. Bij mij bleef het zowel bij Vertex 1 als X-25M aan staan, al schijnt het bij sommigen automatisch uit te staan.
Ik zou zeggen: probeer het gewoon. Als het je helpt, prima :) Zo niet, zet je het weer uit.
2. yep

edit: als je echt aantal writes vreest, check SMART waardes eens na een maandje. Zal je zien dat je bij normaal gebruik je ook geen zorgen hoeft te maken. Als je 24/7 nieuwsgroepen aan het leechen bent, dan wordt het een ander verhaal ;)

[ Voor 10% gewijzigd door _H_G_ op 15-11-2010 20:43 ]


Acties:
  • 0 Henk 'm!

  • Philflow
  • Registratie: April 2006
  • Laatst online: 06-12-2023

Philflow

Philflow wijzigde dit (47%)

Indexing voegt inderdaad weinig toe bij een goede SSD. Het zorgt wel voor schrijfacties, CPU activiteit en een iets langere boot tijd, dus ja waarom zou je het aan laten staan.

Ik geloof dat OCZ zelf adviseert om indexing uit te zetten.

Acties:
  • 0 Henk 'm!

  • Jrz
  • Registratie: Mei 2000
  • Laatst online: 00:15

Jrz

––––––––––––

Verwijderd schreef op maandag 15 november 2010 @ 20:32:
[...]

en hoe houd hij bij waar alle bestanden staan? juist, door dat ergens op te slaan ;)
Ja, maar je update alleen changes natuurlijk als je een index aanpast.
Volgens mij zijn die writes echt minimaal

Ennnnnnnnnn laat losssssssss.... https://github.com/jrz/container-shell (instant container met chroot op current directory)


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Volgensmij kost het al meer tijd om eerst dat indexbestandje te openen en daarna naar het bestand zelf te gaan, dan rechtstreeks naar het bestand.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Aardwolf
  • Registratie: Maart 2010
  • Laatst online: 19:13
Help!!!! schreef op maandag 15 november 2010 @ 21:28:
Volgensmij kost het al meer tijd om eerst dat indexbestandje te openen en daarna naar het bestand zelf te gaan, dan rechtstreeks naar het bestand.
Ik snap je punt, maar volgens mij kan dat toch niet? Ik bedoel wat is het nut dan van het hele indexeringsverhaal? Als het allemaal langer zou duren op een SSD, hoelang duurt het volgens jou dan wel op een gewone HDD? Indexeren zal best snel zijn, alleen is een SSD van zichzelf al retesnel, dus kan het best uit.

Volgens mij heb ik het ook uitstaan, ik merk geen verschil met aan of uit (tenminste niet in positieve snelheidsverhoging, mss wel na een maandje dat hij wat langzamer wordt, maar dat probeer ik maar niet uit).

Acties:
  • 0 Henk 'm!

  • job
  • Registratie: Februari 2002
  • Laatst online: 19:17

job

Philflow schreef op maandag 15 november 2010 @ 21:06:
Indexing voegt inderdaad weinig toe bij een goede SSD. Het zorgt wel voor schrijfacties, CPU activiteit en een iets langere boot tijd, dus ja waarom zou je het aan laten staan.

Ik geloof dat OCZ zelf adviseert om indexing uit te zetten.
Iedereen is hier veel te bang om zijn ssd te gebruiken.
Hier staat indexering nog gewoon aan (stukken sneller zoeken dan wanneer dit uit staat) en ook de swapfile heb ik gewoon op mijn ssd staan. Nergens last van.

Dagelijkse writes zal je op je os schijf altijd hebben, ook zonder indexering en swapfile.

[ Voor 8% gewijzigd door job op 15-11-2010 21:36 ]


Acties:
  • 0 Henk 'm!

  • lampekap06
  • Registratie: Juni 2006
  • Laatst online: 18:50
Een hardeschijf zal vervolgens alles oplopend schrijven, hoe een ssd dat doet is totaal afhankelijk van hoe slim de firmware/controller is. No body knows en het is maar een theoretisch verhaal. Zolang je genoeg vrije ruimte over hebt zullen de prestaties gewoon goed blijven. Zelfde geldt voor alle theorien over writes en dat indexing of een swap file je ssd zou beschadigen 8)7

ohja, hoe zeer de data echt gefragmenteerd raakt hangt ook af van de controller want die bepaalt hoe het in eerste instantie wordt weggeschreven.
Verwijderd schreef op maandag 15 november 2010 @ 20:34:
[...]


Zou het wijsheidzijn om byvoordbeeld een keer te defragmenteren ,daar een image van maken ,dan de partitie verwijderen en een secure erase uit te voeren, om daarna het image terug te zetten zonder windows fragmentatie .

[ Voor 11% gewijzigd door lampekap06 op 15-11-2010 22:36 ]


Acties:
  • 0 Henk 'm!

  • Milmoor
  • Registratie: Januari 2000
  • Laatst online: 15:35

Milmoor

Footsteps and pictures.

We lijken hier inderdaad af en toe te vergeten dat een SSD bedoeld is om te gebruiken, niet om supersnel in de kast te liggen.

Als er iemand trouwens een nieuwe startpost wil maken wil ik daarbij wel helpen. Ik heb het idee dat dit inmiddels hard nodig is, dezelfde vragen blijven terug komen.

[ Voor 30% gewijzigd door Milmoor op 16-11-2010 08:08 ]

Rekeningrijden is onvermijdelijk, uitstel is struisvogelpolitiek.


Acties:
  • 0 Henk 'm!

  • Admiral Freebee
  • Registratie: Februari 2004
  • Niet online
Defragmenteren lijkt mij compleet onzinnig bij een (slimme) SSD, aangezien vrijwel alle SSD's een soort van wear levelling toepassen. De data wordt dus evenredig verspreid over de verschillende geheugencellen, om er voor te zorgen dat ze min of meer gelijkmatig slijten. Als je dus gaat defragmenteren, wordt de data wel in een bepaalde volgorde aangeboden, maar gaat de controller van de SSD deze data intern toch weer verdelen naar eigen goeddunken.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

job schreef op maandag 15 november 2010 @ 21:35:
[...]
Iedereen is hier veel te bang om zijn ssd te gebruiken.
Hier staat indexering nog gewoon aan (stukken sneller zoeken dan wanneer dit uit staat) en ook de swapfile heb ik gewoon op mijn ssd staan. Nergens last van.

Dagelijkse writes zal je op je os schijf altijd hebben, ook zonder indexering en swapfile.
Natuurlijk mag je je SSD gebruiken, maar het is nieuwe technologie en het is bekend dat het problemen heeft. Wat nog niet 100% gekend is zijn de resultaten van bepaalde implementaties in het OS. Vroeger was dat ook geen probleem maar stel dat als je bijvoorbeeld bij een klassieke HDD wist dat de hardeschijf maar 5000x kon opstarten (wat neerkomt op meer dan 13 jaar, 1x per dag), zou je dan ook niet de slaapmodus uitschakelen die mogelijk 3-4x per dag activeert en dan je levensduur drastisch aanpast ?

Dat is het juist, veel mensen zijn er voorzichtig mee omdat we, misschien als oudere generatie PC geeks, weten dat PC hardware ook kan slijten. En als er een dikke handleiding bij zit om vanalles uit te schakelen omdat ze anders de levensduur niet kunnen garanderen, dan word je misschien iets meer bezorgd.

Indexeren is in mijn ogen geen probleem als je het zwaar nodig hebt (kosten-baten factor). Als je het niet gebruikt zoals mij, zet het dan uit. Ik zoek misschien 2x per jaar iets omdat ik niet weet waar het staat.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-09 22:01

Edmin

Crew Council

get on my horse!

job schreef op maandag 15 november 2010 @ 21:35:
[...]
Iedereen is hier veel te bang om zijn ssd te gebruiken.
Hier staat indexering nog gewoon aan (stukken sneller zoeken dan wanneer dit uit staat) en ook de swapfile heb ik gewoon op mijn ssd staan. Nergens last van.

Dagelijkse writes zal je op je os schijf altijd hebben, ook zonder indexering en swapfile.
Natuurlijk heb je altijd dagelijkse writes. Door indexing echter uit te schakelen verminder je dat aantal weldegelijk.
Jij mag dan vinden dat je gewoon moet knallen met je ssd, maar je vergeet dat op GoT o.h.a. power users zitten, die hun systeem veel gebruiken (en dus ook hun ssd veel gebruiken) en die de performance van hun hardware graag op punt houden.

Acties:
  • 0 Henk 'm!

  • Dark
  • Registratie: September 1999
  • Laatst online: 17:26

Dark

who tweaked the light?

Jah ik heb hier enkele TB's aan zooi op secundaire hdd's die ik toch wel vrij regelmatig moet doorzoeken, dus ik heb daar idd een index op lopen. Wat me wel opviel is dat "temp" het vrij zwaar te verduren krijgt bij het indexen, zeker als de optie "allow file contents to be indexed" aan staat en je ook een AV (eset) hebt draaien, die ook de contents van ingepakte bestandjes bekijkt. Misschien handig temp tijdelijk te verplaatsen en AV tijdelijk uit te zetten als je ook een paar TB moet indexen ;)

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Het verwondert me dat de "temp"-map niet bij elke logon/boot gewist wordt, de hoeveelheid troep die daar verzamelt met een install...

Acties:
  • 0 Henk 'm!

  • MegaTronics
  • Registratie: Januari 2004
  • Laatst online: 03-12-2021

MegaTronics

Chef WiFi Kabels

Het probleem is dat er genoeg installaties zijn die na de reboot nog wat housekeeping zaken moeten doen en die de daarvoor benodigde bestanden in de temp map zetten. Ik zou ook liever een Linux like /tmp hebben.

[ Voor 12% gewijzigd door MegaTronics op 16-11-2010 12:08 ]

Vroeger, toen de Batavieren nog met zijn vijven waren.


Acties:
  • 0 Henk 'm!

  • Raven
  • Registratie: November 2004
  • Niet online

Raven

Marion Raven fan

Firmwareupdate v1.24 voor OCZ's Sandforce SSD's.
Alleen zie ik niet echt wat bijzonders in het changelog, maar kan aan mij liggen :?
Issues resolved since version 1.23

• Fixed rare corner case where sequential write with IOMETER 2006 could cause errors

Known open issues:

• S.M.A.R.T. command B0 occasionally returns incorrect status
• TRIM command response for short trims takes longer than test expects
• Temperature reporting in S.M.A.R.T. data not correct (typically ½ actual value)
• Slow format command in Windows using PMC-Sierra maxRAID BR5225-80 RAID HBA
• Compatibility issue with Intel 3100 chipset
• Compatibility issue with NVIDIA MCP55 chipset under Red Hat Linux 5.4

After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...

Oscar Wilde


Acties:
  • 0 Henk 'm!

  • Edgarz
  • Registratie: Oktober 2005
  • Laatst online: 12-09 20:08

Edgarz

Tweako-active since1986

Raven schreef op dinsdag 16 november 2010 @ 21:34:
Firmwareupdate v1.24 voor OCZ's Sandforce SSD's.
Alleen zie ik niet echt wat bijzonders in het changelog, maar kan aan mij liggen :?


[...]
Klopt, voor zover ik weet schijnen 1.23 en 1.24 redelijk identiek te zijn.

Acties:
  • 0 Henk 'm!

  • Audione0
  • Registratie: April 2009
  • Laatst online: 21:37

Audione0

Strijdt der titanen

Pinin schreef op maandag 15 november 2010 @ 20:16:
1. Kan iemand me uitleggen waarom het beter is om windows indexing te disablen met een SSD?
(zou het graag aan willen voor bijv. outlook bestanden te doorzoeken)
2. Klopt het dat partitie al ge allignt is bij een win 7 install
Bij mij staat een flinke meuk aan mails in mn outlook.. als ik hierin ga zoeken, dan kan ik het iig met mijn ogen niet bijhouden welke mails hij onder mijn criteria vind..

gaat best vlot als je mij vraagt.. ;)

Ryzen 9 7950x3d / Asus Strixx x670E-E / Noctua NH-DH15 / 64GB Corsair Dominator 6000 / Crucial M500 – Samsung 990pro / MSI RTX 4070TI Super Gaming X Slim / Corsair RM1000x / Alles in een Fractal Define 7 Black gepropt


Acties:
  • 0 Henk 'm!

  • Audione0
  • Registratie: April 2009
  • Laatst online: 21:37

Audione0

Strijdt der titanen

Milmoor schreef op dinsdag 16 november 2010 @ 08:06:
We lijken hier inderdaad af en toe te vergeten dat een SSD bedoeld is om te gebruiken, niet om supersnel in de kast te liggen.

Als er iemand trouwens een nieuwe startpost wil maken wil ik daarbij wel helpen. Ik heb het idee dat dit inmiddels hard nodig is, dezelfde vragen blijven terug komen.
Of er zijn mensen die geen zin hebben om te lezen..
Raven schreef op dinsdag 16 november 2010 @ 21:34:
Firmwareupdate v1.24 voor OCZ's Sandforce SSD's.
Alleen zie ik niet echt wat bijzonders in het changelog, maar kan aan mij liggen :?


[...]
Gaat lekker met die OCZtjes.. Wanneer komt er een update voor de intels?
Of zijn die intels gewoon meesterlijke dingen die geen firmwareupdate nodig hebben _/-\o_


Edit: Dubbel post :X :F

[ Voor 37% gewijzigd door Audione0 op 16-11-2010 23:27 ]

Ryzen 9 7950x3d / Asus Strixx x670E-E / Noctua NH-DH15 / 64GB Corsair Dominator 6000 / Crucial M500 – Samsung 990pro / MSI RTX 4070TI Super Gaming X Slim / Corsair RM1000x / Alles in een Fractal Define 7 Black gepropt


Acties:
  • 0 Henk 'm!

  • Viper72
  • Registratie: Februari 2005
  • Niet online
Raven schreef op dinsdag 16 november 2010 @ 21:34:
Firmwareupdate v1.24 voor OCZ's Sandforce SSD's.
Alleen zie ik niet echt wat bijzonders in het changelog, maar kan aan mij liggen :?

[...]
Changelog geeft idd geen bijzondere zaken, tenzij je daarmee natuurlijk issues herkent. Blijf zelf daarom voorlopig op 1.23. Lijkt mij wanneer je een keer een nieuwe install doet of nieuwe schijven koopt, je naar de laatste Release gaat, maar las ook al dat de nieuwe drives al op 1.24 geleverd worden.

New Build in Progress


Acties:
  • 0 Henk 'm!

  • BeQuietAndDrive
  • Registratie: November 2000
  • Laatst online: 20:05

BeQuietAndDrive

Big Kahuna

[b][message=35039270,noline]Als er iemand trouwens een nieuwe startpost wil maken wil ik daarbij wel helpen. Ik heb het idee dat dit inmiddels hard nodig is, dezelfde vragen blijven terug komen.
Dat zou welkom zijn. Ik heb zelf geen verstand van SSD's verder, behalve wat ik hier allemaal lees. Een mooie startpost zou dan wel een mooie verzamelplek van informatie en FAQ's zijn.

20 x 310 Wp = 6.200 Wp @ SMA op zuid | PVOutput.org


Acties:
  • 0 Henk 'm!

  • Philflow
  • Registratie: April 2006
  • Laatst online: 06-12-2023

Philflow

Philflow wijzigde dit (47%)

Het zou goed zijn om in de startpost enkele populaire modellen te noemen en hun voor en nadelen.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Zowiezo feiten als Write Throttling bij Sandforce devices, verplichte aanpassingen voor Windows XP, Vista en 7, maar ook MacOS X en Linux. Dan nog een aantal suggesties met de voor- en nadelen zijn handig. Hier wil ik ook wel wat uitleg over geven maar ik denk dat het hier in dit topic al veelvuldig aangehaald is.

Acties:
  • 0 Henk 'm!

  • Milmoor
  • Registratie: Januari 2000
  • Laatst online: 15:35

Milmoor

Footsteps and pictures.

Eigenlijk zou je een startpost met een soort Wiki moeten opbouwen, dan kan iedereen die wil bijdragen. Alternatief is een tijdelijke thread waarin men kan posten, maar dan heb je een beheerder nodig die eens in de zoveel tijd samenvat. Ik weet echter niet of dat wel de bedoeling is. Is er iemand die dit wil coordineren? Zoniet, dan ga ik dit weekend wat zaken op een rijtje zetten en toestemming vragen deze via een thread uit te breiden.

Rekeningrijden is onvermijdelijk, uitstel is struisvogelpolitiek.


Acties:
  • 0 Henk 'm!

  • Philflow
  • Registratie: April 2006
  • Laatst online: 06-12-2023

Philflow

Philflow wijzigde dit (47%)

Dit wordt nog eens interessant: OCZ komt met een nieuwe Indlinx drive, de vertex plus. Sneller dan de Corsair Nova en weet zelfs de Sandforce drives voor te blijven in enkele benchmarks.
http://www.anandtech.com/...ng-the-indilinx-martini/5

  • maratropa
  • Registratie: Maart 2000
  • Niet online
als je dit zo leest:

http://www.engadget.com/2...-at-11-500/#disqus_thread

1 kaart die qua iops 400 schijven kan vervangen, dan is SSD in de servermarkt behoorlijk "disruptive" technologie, en ik kan me voorstellen dat al die makers van 15K schijven nu moeten knokken om die markt te behouden..

specs


  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 13-09 08:50
Makers van die 15K schijven zien dat al veel langer aankomen natuurlijk. Maar ik zie het probleem niet zo, ze stappen toch gewoon in de SSD mark? Zoals Hitachi bijvoorbeeld.

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Verwijderd

StefanvanGelder schreef op donderdag 18 november 2010 @ 07:54:
Makers van die 15K schijven zien dat al veel langer aankomen natuurlijk. Maar ik zie het probleem niet zo, ze stappen toch gewoon in de SSD mark? Zoals Hitachi bijvoorbeeld.
Hitachi launches first enterprise SSD line

http://www.computerworld....first_enterprise_SSD_line

  • maratropa
  • Registratie: Maart 2000
  • Niet online
StefanvanGelder schreef op donderdag 18 november 2010 @ 07:54:
Makers van die 15K schijven zien dat al veel langer aankomen natuurlijk. Maar ik zie het probleem niet zo, ze stappen toch gewoon in de SSD mark? Zoals Hitachi bijvoorbeeld.
True, maar toch, het geeft toch wel wat verschuivingen. LSI die ineens ipv alleen controllers nu ook met complete storage oplossingen komt, bijv. En ik heb het idee dat de grote berijven wat traag zijn.. Maar we zullen zien.. Seagate e.a. hebben natuurlijk wel een goede naam in de servermarkt..

specs


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Het zal allemaal inderdaad véél geld kosten als je focus op enterprise schijven lag, maar voor de meeste fabrikanten is het gelukkig de OEM- en consumer-reeks die het belangrijkst zijn. Bedrijven stappen niet zomaar over op nieuwe technologie, dat moet zichzelf eerst bewijzen voordat het effectief overgenomen wordt door de kopers. Zowiezo wordt de "traagheid" van een klassieke HDD in server omgevingen opgevangen door een veelvuldigheid aan cache zoals belachelijk veel RAM of cache op de (RAID) controller.

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:30

XanderDrake

Build the future!

Het is toch wel erg gesteld met OCZ. Om de consument nog erger te verwarren hebben ze nu, naast de Vertex, Vertex 2, Vertex Limited Edition nu ook nog de Vertex Plus... In feite is het een Vertex 2 met een update van de controller en firmware, maar blijkbaar niet zo'n grote update om er Vertex 3 van te maken.

De prijs is er wel naar. met een beetje mazzel hebben we het over €160 voor 128gb, dus de 1€/GB grens voor meanstream SSD's begint te naderen!

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • mux
  • Registratie: Januari 2007
  • Laatst online: 03-09 11:04

mux

99% efficient!

De Vertex Plus is géén update van de Vertex 2 (Sandforce SF-1200) maar van de originele Vertex (Indilinx Barefoot+Martini firmware)

Youtube: PowerElectronicsBlog - Plank2 (4W computer)


  • Philflow
  • Registratie: April 2006
  • Laatst online: 06-12-2023

Philflow

Philflow wijzigde dit (47%)

XanderDrake schreef op donderdag 18 november 2010 @ 10:07:
Het is toch wel erg gesteld met OCZ. Om de consument nog erger te verwarren hebben ze nu, naast de Vertex, Vertex 2, Vertex Limited Edition nu ook nog de Vertex Plus... In feite is het een Vertex 2 met een update van de controller en firmware, maar blijkbaar niet zo'n grote update om er Vertex 3 van te maken.
De Vertex Plus is een update van de Vertex 1. De Vertex 3 wordt de opvolger van de Vertex 2.

PS. je vergat de Vertex Pro nog ;)
400GB maar toch 34nm... vreemd.

[ Voor 21% gewijzigd door Philflow op 18-11-2010 10:32 ]


  • Philflow
  • Registratie: April 2006
  • Laatst online: 06-12-2023

Philflow

Philflow wijzigde dit (47%)

dubbel

[ Voor 97% gewijzigd door Philflow op 18-11-2010 10:31 ]


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:30

XanderDrake

Build the future!

Philflow schreef op donderdag 18 november 2010 @ 10:13:
De Vertex Plus is een update van de Vertex 1. De Vertex 3 wordt de opvolger van de Vertex 2.
Huh? Ja mij hebben ze dan ook verward met veel succes 8)7

Waarom zou je de Vertex 1 gaan updaten? Hell, Vertex 2 zou je al kunnen zien als 'oud'. Waarom wordt die sowieso nog geproduceerd? Waarom heeft OCZ alle mainstream consumenten niet richting de Agility reeks doorverwezen? Waarom behouden ze 3 verschillende series voor de mainstream consument (Onyx, Agility, Solid ) en nu ook deze Vertex??

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • mux
  • Registratie: Januari 2007
  • Laatst online: 03-09 11:04

mux

99% efficient!

En weer ben je verward. De Agility 2-reeks is identiek aan de Vertex 2-reeks maar dan met ONFi 1.1-specificatie geheugen. Agility 2-SSDs zijn niet inherent beter of slechter dan Vertex 2-SSDs, ze zijn meer... hetzelfde, maar met ietsjes andere geheugenchips.

De huidige line-up is:
- Onyx: Indilinx Amigos (helft van de flash-geheugenkanalen van de Barefoot)
- Onyx 2: SF-1200 + low-spec geheugen (5k writes)
- Vertex: Indilinx Barefoot+'oude' firmware
- Vertex Plus: Indilinx Barefoot+'nieuwe' firmware
- Vertex 2: Sandforce SF-1200 + better-spec geheugen (10k writes)
- Vertex 2 Pro: Sandforce SF-1500
- Vertex 2 EX: SF-1500 + SLC geheugen
- Agility 2: Sandforce SF-1200 + ONFi geheugen
- Agility 2 EX: SF-1500 + SLC geheugen

Wat prestaties betreft zouden de Onyx 2, Vertex 2 en Agility 2 om het even moeten zijn (en.. dat zijn ze ook). Hetzelfde geldt voor Agility 2 EX en Vertex 2 EX. De Vertex 2 Pro is een goedkopere versie van de Vertex 2 EX, voor wanneer je wel enterprise features nodig hebt maar niet de flash-duurzaamheid (bijv. static read buffer in een ZFS systeem).

Alle andere schijven zijn EOL: de Solid en Solid 2 serie, oude Vertex Pro en EX, etc.

Youtube: PowerElectronicsBlog - Plank2 (4W computer)


  • Philflow
  • Registratie: April 2006
  • Laatst online: 06-12-2023

Philflow

Philflow wijzigde dit (47%)

Uit Tony's posts meen ik toch op te maken dat de Agility 2 en Vertex 2 dezelfde Intel/Micron NANDs gebruiken (met dezelfde specs).

Het verschil tussen Agility 2 en Vertex 2 zit in een kunstmatige beperkingen in de controller. De Vertex kan een hoger aantal IOPS aan, maar in de praktijk gaat niemand dat merken.
XanderDrake schreef op donderdag 18 november 2010 @ 11:01:
[...]
Waarom zou je de Vertex 1 gaan updaten?
De Indlinx controller wordt veel onderschat. In de praktijk blijkt die in menig situatie zelfs sneller dan de Sandforce controller. Om een klein voorbeeld te geven: een gebruikte Sandforce drive schrijft niet comprimeerbare data met zo'n 80MB/sec. Een Indilinx kan dat met zo'n 200MB/sec. Tel uit je winst.

Ik vind het dus logisch dat OCZ met een nieuwe Indilinx SSD is gekomen. de merknaam Vertex is blijkbaar een goede. OCZ heeft er veel geld in gestoken en kan dus de beslissing wel begrijpen. Verwarrend is het wel ja.

  • mux
  • Registratie: Januari 2007
  • Laatst online: 03-09 11:04

mux

99% efficient!

Het fundamentele verschil tussen de Vertex 2 en Agility 2 is de NAND-interface; zoals gezegd gebruikt de Agility 2 alleen de ONFi 1.1-interface. Dat heeft als consequentie dat de maximale hoeveelheid IOPS lager is, omdat de specificatie van ONFi 1.1 dit zo zegt, terwijl normaal toggle-NAND gewoon net zo hard kan worden aangestuurd als je zelf wil (het voldoet zogezegd aan geen enkele standaard). Welk geheugen wordt gebruikt op de SSDs is helemaal afhankelijk van de tijd, in het begin zat er enkel IMFT 34nm nand op, later zijn hoopjes Agility's met Samsung-geheugen gespot en ook andere (Toshiba geloof ik).

En over het onderschatten van Indilinx: mja, dat ben ik niet echt met je eens, sequentiële writes en reads zijn IMO de meest overrated spec evar. Je doet dat soort dingen gewoon nooit. De voordelen van een SSD zitten daar ook helemaal niet, het zijn juist kleine reads en writes. Het voordeel van Sandforce boven elke andere controller is de lage write amplification (door deduplication en compressie) en consistente performance over de levensduur (o.a. door GC voor wanneer je OS geen TRIM ondersteunt, maar ook door slim om te gaan met de reads en writes). Juist doordat ze bij Intel en Sandforce de focus leggen op wat er echt toe doet - IOPS bij kleine reads en writes - krijgen de sequentiële transfers wat te lijden, maar deze boeien echt niet in dagelijks gebruik. Indilinx is leuk omdat het cheap is en er hoge patsfactor-getalletjes in de specs staan, maar onder de streep zijn de drives absoluut niet beter voor een consument. Prijs is het enige bestaansrecht van Indilinx, en daar doen ze het best prima (zeker die kleine drives zijn zomaar 10-15% goedkoper met een Indilinx).

Youtube: PowerElectronicsBlog - Plank2 (4W computer)


  • Philflow
  • Registratie: April 2006
  • Laatst online: 06-12-2023

Philflow

Philflow wijzigde dit (47%)

ssj3gohan schreef op donderdag 18 november 2010 @ 12:28:
later zijn hoopjes Agility's met Samsung-geheugen gespot en ook andere (Toshiba geloof ik).
Ik denk dat je het over Agility 1 hebt. Ik had het over Agility 2.
ssj3gohan schreef op donderdag 18 november 2010 @ 12:28:
En over het onderschatten van Indilinx: mja, dat ben ik niet echt met je eens, sequentiële writes en reads zijn IMO de meest overrated spec evar. Je doet dat soort dingen gewoon nooit.
De sequentiele schrijf prestaties zijn slechts een voorbeeld. Er zijn ook andere voorbeelden:
-Bij Anandtech is de Vertex plus in 5 van de 5 Sysmark benchmarks en in de multi tasking benchmark sneller dan de Sandforce drives
-Bij Techreport is Corsair Nova gemiddeld al sneller dan de Sandforce drives. En de Vertex plus is waarschijnlijk weer sneller dan de Nova.

En "nooit" is natuurlijk zwaar overdreven. Bij een simpele file copy heb je al gauw te maken met sequentiele writes. En als er dan wat gecomprimeerde files bij zitten vallen de Sandforce drives behoorlijk door de mand.

Ik vind Sandforce een redelijk goede controller, maar de meeste mensen zijn nauwelijks op de hoogte van de diverse nadelen die er wel degelijk zijn. Deze review vind ik daarom verfrissend: productreview: OCZ Vertex 2 SATA II 2.5" SSD 120GB review door mm1985. Een Tweaker die z'n Vertex 2 eens gaat vergelijken met een Kingston v+, in de praktijk en vervolgens tot de conclusie komt dat de Vertex 2 vaak niet sneller is en soms zelfs langzamer.
ssj3gohan schreef op donderdag 18 november 2010 @ 12:28:
Juist doordat ze bij Intel en Sandforce de focus leggen op wat er echt toe doet - IOPS bij kleine reads en writes - krijgen de sequentiële transfers wat te lijden, maar deze boeien echt niet in dagelijks gebruik.
Het zou mooi zijn als hogere IOPS automatisch zouden lijden tot hogere praktijk prestaties voor individuele gebruikers. Dit is echter niet het geval. Zie bijvoorbeeld de praktijk prestaties van de Kingston V+. Veel lagere IOPS dan Intel en toch sneller in de praktijk. IOPS zijn wat mij betreft net zo overrated als sequentiele snelheden.
reviews: Kingston SSDNow V+ 128GB

[ Voor 36% gewijzigd door Philflow op 18-11-2010 12:52 ]


  • job
  • Registratie: Februari 2002
  • Laatst online: 19:17

job

Iemand die al iets weet over amd drivers en trim ondersteuning?
Komt dat uberhaupt binnenkort nog, of moeten we daarvoor nog een jaar wachten?

Heb nu een pc'tje in elkaar zitten met een amd chipset en een vertex 2.
Gevolgen: of de ms ahci drivers gebruiken (en dus trim) maar een vertraging van 30 seconden bij het booten van windows 7. of de amd drivers gebruiken, snelle boot en responsiever systeem, maar geen trim.

Ik heb maar voor het tweede gekozen, maar liever heb ik gewoon trims support icm de amd driver.

[ Voor 9% gewijzigd door job op 18-11-2010 12:48 ]


  • mux
  • Registratie: Januari 2007
  • Laatst online: 03-09 11:04

mux

99% efficient!

Philflow schreef op donderdag 18 november 2010 @ 12:38:
[...]

Ik denk dat je het over Agility 1 hebt. Ik had het over Agility 2.
Same thing, dacht ik? Zolang het ONFi 1.1 geheugen is kan het in de Agility 2 zitten.
De sequentiele schrijf prestaties zijn slechts een voorbeeld. Er zijn ook andere voorbeelden:
-Bij Anandtech is de Vertex plus in 5 van de 5 Sysmark benchmarks en in de multi tasking benchmark sneller dan de Sandforce drives
-Bij Techreport is Corsair Nova gemiddeld al sneller dan de Sandforce drives. En de Vertex plus is waarschijnlijk weer sneller dan de Nova.
Ik bedoelde niet dat de indilinx-based drives persé slechter presteren - alleen dat sandforce IMO een stuk beter omgaat met het fenomeen SSD en de beperkingen/voordelen die flashgeheugen heeft.
En "nooit" is natuurlijk zwaar overdreven. Bij een simpele file copy heb je al gauw te maken met sequnetiele writes. En als er dan wat gecomprimeerde files bijzetten vallen de Sandforce drives behoorlijk door de mand.
Maar hoeveel % van de tijd doe je file copies? En jij zegt hier met een negatieve inflectie aan dat ze 'door de mand vallen', terwijl ik het zou aanstippen als een prima trade-off: wat minder sequentiële writesnelheid om taken waar je percentueel meer mee bezig bent sneller te laten gaan, en het flash ondertussen te sparen.
Ik vind Sandforce een redelijk goede controller, maar de meeste mensen zijn nauwelijks op de hoogte van de diverse nadelen die er wel degelijk zijn. Deze review vind ik daarom verfrissend: productreview: OCZ Vertex 2 SATA II 2.5" SSD 120GB review door mm1985. Een Tweaker die z'n Vertex 2 eens gaat vergelijken met een Kingston v+, in de praktijk en vervolgens tot de conclusie komt dat de Vertex 2 vaak niet sneller is en soms zelfs langzamer.
Maar zo'n review vertelt je niet wat de fundamentele voordelen van de verschillende controllers zijn. Puur op prestaties, zeker sequentiële transfers, is er niet zoveel verschil. Gevoelssnelheid is ook een factor 10-50 hoger dan een HDD en dus inmiddels veel meer beperkt door je CPU en geheugen dan vroeger, toen bijna elke vorm van gevoelssnelheid beperkt was door je hdd. Bijna iedereen zal dus ook zeggen: welke SSD je ook neemt, het zal altijd ruwweg hetzelfde voelen.

En daarom zeg ik: er zijn meer voordelen dan alleen prestaties. Een sandforce-controller gaat beter met het flashgeheugen om, soms ten kosten van prestaties, maar dit is iets goeds! Op andere gebieden doet hij het ruwweg even goed, soms beter, soms slechter dan de concurrentie maar dat is allemaal redelijk om het even. IOPS bij kleine transfers zijn je belangrijkste bron van hogere gevoelssnelheid van een SSD en daar doet sandforce het uitstekend.

En met alleen maar naar prestaties en synthetische grafiekjes kijken zul je niet begrijpen waarom zoveel reviewers lyrisch zijn over Sandforce.

Youtube: PowerElectronicsBlog - Plank2 (4W computer)


  • Philflow
  • Registratie: April 2006
  • Laatst online: 06-12-2023

Philflow

Philflow wijzigde dit (47%)

ssj3gohan schreef op donderdag 18 november 2010 @ 12:59:
[...]
En met alleen maar naar prestaties en synthetische grafiekjes kijken zul je niet begrijpen waarom zoveel reviewers lyrisch zijn over Sandforce.
Ik zie het juist omgekeerd. De meeste reviewers zijn zo lyisch omdat ze afgaan op syntetische benchmarks en/of zogenaamde real world benchmarks die scenario's afdraaien op maximale snelheid (Storagereview, Anandtech). Deze sites zijn allemaal lyrisch over Sandforce.

Als je kijkt naar het handje vol reviews dat wel echte real world benchmarks draait (Techreport, Hexus, Notebookcheck) komt er ineens een heel ander beeld naar boven. Deze sites zijn dan ook niet lyrisch.

Ik ben op dit moment een review aan het schijven over de Samsung 470, OCZ Vertex 2 en Corsair Nova V128 voor Notebookreview. Ik heb diverse real worls prestaties gemeten, van taken die de meeste mensen regelmatig uitvoeren. De Vertex 2 presteert over het algemeen goed maar ook ik ben niet lyrisch.

Maar als je alleen maar naar IOPS en synthetische benchmarks kijkt zul je dit niet begrijpen ;)

[ Voor 7% gewijzigd door Philflow op 18-11-2010 13:18 ]


  • mux
  • Registratie: Januari 2007
  • Laatst online: 03-09 11:04

mux

99% efficient!

Anandtech alleen maar afgaan op synthetische benchmarks? Hm... als er één site iets van SSDs afweet is het Anand wel.

Youtube: PowerElectronicsBlog - Plank2 (4W computer)


  • Philflow
  • Registratie: April 2006
  • Laatst online: 06-12-2023

Philflow

Philflow wijzigde dit (47%)

Dan heb je mijn post niet goed gelezen.

"zogenaamde real world benchmarks die scenario's afdraaien op maximale snelheid (Storagereview, Anandtech)."

  • mux
  • Registratie: Januari 2007
  • Laatst online: 03-09 11:04

mux

99% efficient!

Dan nog, je doet anand ontzettend tekort door te impliceren dat ze de ssd's niet goed testen of begrijpen. Zowat de enige betrouwbare bron voor informatie over SSDs is Anandtech.

En Bench is ook een van de beste real-world benchmarks. Ja, ze draaien hem op maximale snelheid af maar wat is daar mis mee? Anders zijn de verschillen lastig te meten. Juist anandtech begrijpt dit goed: zij houden in de gaten dat de QD nooit over de 5 gaat (want dan is de SSD effectief gewoon sequentiele transfers aan het maken), terwijl andere reviewers de benchmark maximaal afspelen zonder er erg in te hebben dat ze zowat de maximale queue depth bereiken en dus onwaarschijnlijk hoge snelheden bereiken met kleine transfers. Ik bedoel niet dat anandtech de heilige hemel is ofzo, ik zeg alleen dat je IMO anandtech nu heel erg tekort doet. En, op anandtech krijg je een goede indruk van waaróm SSDs doen wat ze doen, in plaats van alleen benchmarks. Die informatie heb ik nog nergens in vergelijkbaar detail gezien.

Over storagereview ben ik het trouwens wel met je eens. Die zijn de laatste tijd sowieso niet echt lekker bezig (als in: de laatste vijf jaar :S)

Youtube: PowerElectronicsBlog - Plank2 (4W computer)


  • Philflow
  • Registratie: April 2006
  • Laatst online: 06-12-2023

Philflow

Philflow wijzigde dit (47%)

ssj3gohan schreef op donderdag 18 november 2010 @ 13:31:
Dan nog, je doet anand ontzettend tekort door te impliceren dat ze de ssd's niet goed testen of begrijpen. Zowat de enige betrouwbare bron voor informatie over SSDs is Anandtech.
Ik zeg alleen dat zijn huidige manier van benchmarken geen e'chte praktijk prestaties in beeld brengt.
Ja, ze draaien hem op maximale snelheid af maar wat is daar mis mee?
Omdat die manier van benchmarken verschillen creeert die in de praktijk niet terug komen. Zo gelooft Storagereview dat een Sandforce SSD twee keer zo snel is als een Intel G2.

Ik ben een grote fan van echte praktijk benchmarks die de tijd van alledaagse taken gewoon meten, danwel met stopwatch of software. Zoals Laptopmag dat deed.

Techreport heeft ook een behoorlijk arsenaal aan real world benchmarks. Dit komt uit hun laatste SSD overview.
Several of the SSDs we've considered stand out as offering the most compelling value propositions. Crucial's SSD is our most recent Editor's Choice award winner, and though the drive's 256GB capacity and correspondingly high price did it no favors when we looked at total system cost, the C300 is extremely fast and a solid deal overall thanks to a competitive price per gigabyte. I would expect the 128GB model to be similarly attractive, although its write performance will almost certainly be slower than that of the 256GB drive we tested.

Corsair's Nova V128 didn't top the field in any of our performance tests, but it didn't stumble, either. As evidenced by its impressive overall score, the Nova offers excellent all-around performance (as should equivalent Indilinx-based drives from other brands). Couple that with a reasonable cost per gigabyte, and the V128 has a very appealing value proposition.

The Intel X25-M also looks good, thanks largely to its quick access times and strong showings in DriveBench and IOMeter. Intel has steadily lowered the X25-M's price over time, allowing the drive to maintain competitive per-gigabyte pricing while offering a small step up in capacity to 160GB. Folks who don't want to shell out for a 256GB drive but who doubt whether 128GB will be enough capacity would do well to consider the X25-M.

I'm a little torn on the SandForce drives because I think the technology behind the controller has real promise. However, this controller's performance is only average in the tests we think are most indicative of desktop usage, making the higher cost per gigabyte associated with SandForce-based drives tough to swallow. If you're looking for an SSD for server or workstation applications, our IOMeter results suggest any of the SandForce drives would be an excellent choice. The Agility 2 is clearly the best value of that lot thanks to its comparatively lower price.

Ultimately, I think the best SSD values are provided by the Nova V128 and other Indilinx-based drives, the RealSSD C300, and the X25-M. Personally, I'd go with the C300, not because it offers the most performance per dollar, but because it's the fastest and most advanced of the three. A desire for value might be deeply ingrained within the enthusiast community, but that's certainly not the only consideration that should guide your purchasing decisions.
Ik vind dat toch opmerkelijk dat de site die de meeste real world benchmarks (op normale snelheid) gebruikt tot deze conclusies komt. Ik zeg niet dat ik het volledig met ze eens ben maar ze brengen de nadelen van Sandforce wel goed in kaart.

Overigens moet ik nog zien in hoeverre alle trucs van Sandforce daadwerkelijk de levensduur en prestaties op lange termijn garanderen. Ik zou weleens een onderzoek willen zien die de Intel G2 en Sandforce drives na een jaar (of twee) met elkaar vergelijkt. Op basis van alles wat ik lees aan gebruikers ervaringen vermoed ik dat de Intel juist betrouwbaarder is, maar ik besef dat ik geen harde data heb.

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:30

XanderDrake

Build the future!

ssj3gohan schreef op donderdag 18 november 2010 @ 11:16:
- Onyx: Indilinx Amigos (helft van de flash-geheugenkanalen van de Barefoot)
- Onyx 2: SF-1200 + low-spec geheugen (5k writes)
- Vertex: Indilinx Barefoot+'oude' firmware
- Vertex Plus: Indilinx Barefoot+'nieuwe' firmware
- Vertex 2: Sandforce SF-1200 + better-spec geheugen (10k writes)
- Vertex 2 Pro: Sandforce SF-1500
- Vertex 2 EX: SF-1500 + SLC geheugen
- Agility 2: Sandforce SF-1200 + ONFi geheugen
- Agility 2 EX: SF-1500 + SLC geheugen
Dusss. Onyx is in feite de X25-V van Intel, de instap SSD. De Vertex Plus is een nieuwe higher-end mainstream toevoeging aan hun line-up. Agility is de vreemde eend die bijt en Vertex blijft gewoon het paradepaardje?
Marketingsgewijs, waarom bestaat Agility? Vanwege het voldoen aan bepaalde specs waar ik nog nooit van gehoord heb?
En eerlijk gezegd vind ik dit behoorlijk slecht! Ik ben geen un-informed consumer, ik ben een rasechte tweaker. Ik lees hier ontzettend veel over, heb tientallen reviews en artikels erover gecheckt. En nog steeds kan ik er geen kaas van maken.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • IJsbeer
  • Registratie: Juni 2001
  • Niet online
Heet die taktiek niet gewoon verdeel en heers? ;)

  • Philflow
  • Registratie: April 2006
  • Laatst online: 06-12-2023

Philflow

Philflow wijzigde dit (47%)

XanderDrake schreef op donderdag 18 november 2010 @ 13:51:
[...]
Agility is de vreemde eend die bijt en Vertex blijft gewoon het paradepaardje?
De Vertex 2 is op papier het parade paardje. In de praktijk ligt het genuanceerder, zie ook mijn post hier boven.
Marketingsgewijs, waarom bestaat Agility? Vanwege het voldoen aan bepaalde specs waar ik nog nooit van gehoord heb?
Waarschijnlijk om consumenten meer keuze te geven. Wil je de premium controller met maximale specs of wil je premium controller met iets mindere specs. Waarom verkoopt Intel zijn Arrandale CPUs in dertig (?) verschillende varianten? Zelfde soort overwegingen. Alleen is het van een CPU vaak makkelijker te zeggen welke sneller is.
En nog steeds kan ik er geen kaas van maken.
Met je eens. De vraag 'welke SSD is voor mij het beste' is behoorlijk complex om te beantwoorden.

[ Voor 5% gewijzigd door Philflow op 18-11-2010 13:56 ]


  • mux
  • Registratie: Januari 2007
  • Laatst online: 03-09 11:04

mux

99% efficient!

IJsbeer schreef op donderdag 18 november 2010 @ 13:54:
Heet die taktiek niet gewoon verdeel en heers? ;)
^ daar lijkt het nog meer op. Consumenten een keuze geven tussen hetzelfde en hetzelfde met een andere naam (afgezien van wat interne verschillen waar je eigenlijk niks van merkt)... tsja. Theoretisch zou je met ONFi-compatible geheugen consistentere prestaties moeten krijgen, maar in de praktijk: niks van te merken voor zover ik (en philflow) weten.
Philflow schreef op donderdag 18 november 2010 @ 13:46:
[...]
Omdat die manier van benchmarken verschillen creeert die in de praktijk niet terug komen. Zo gelooft Storagereview dat een Sandforce SSD twee keer zo snel is als een Intel G2.

Ik ben een grote fan van echte praktijk benchmarks die de tijd van alledaagse taken gewoon meten, danwel met stopwatch of software. Zoals Laptopmag dat deed.

Techreport heeft ook een behoorlijk arsenaal aan real world benchmarks. Dit komt uit hun laatste SSD overview.
Met dat principe kan ik het alleen maar eens zijn.
Overigens moet ik nog zien in hoeverre alle trucs van Sandforce daadwerkelijk de levensduur en prestaties op lange termijn garanderen. Ik zou weleens een onderzoek willen zien die de Intel G2 en Sandforce drives na een jaar (of twee) met elkaar vergelijkt. Op basis van alles wat ik lees aan gebruikers ervaringen vermoed ik dat de Intel juist betrouwbaarder is, maar ik besef dat ik geen harde data heb.
Intel kiest wellicht ook de betere chips voor hun eigen SSDs? Ik bedoel, ze zijn niet vies van dat soort trucjes. Intel heeft veruit de langste historie van SSD-controllers en het toepassen van SSDs en SSD-achtige dingen, dus als je me zou moeten vragen wie ik het meest vertrouw: intel scoort dan heel goed bij mij. Maar sandforce haalt absoluut een lagere write amplification. Het verschil met Intel is niet wereldschokkend, maar met Indilinx bijvoorbeeld weer wel (ze noemen nergens officiële getallen, maar ze doen het slechter dan 1.6x, en op vroegere firmwares zijn er mensen die jmicron-achtige getallen van 10x noemen!). Ondanks dat ik niet iemand ben die zich doorgaans zorgen maakt over de levensduur van NAND flash, zet ik m'n data toch liever op een Intel/Sandforce MLC-SSD dan op een Indilinx MLC-SSD.

Zonder harde data zijn dit soort dingen natuurlijk wel keihard speculeren.

Youtube: PowerElectronicsBlog - Plank2 (4W computer)


  • Philflow
  • Registratie: April 2006
  • Laatst online: 06-12-2023

Philflow

Philflow wijzigde dit (47%)

ssj3gohan schreef op donderdag 18 november 2010 @ 14:05:
[...]
Intel kiest wellicht ook de betere chips voor hun eigen SSDs?
Zou kunnen, hoewel ik een post heb gezien waarin Tony zegt dat het precies hetzelfde is: 5K P/Ec.

Verwijderd

ssj3gohan schreef op donderdag 18 november 2010 @ 13:31:
Dan nog, je doet anand ontzettend tekort door te impliceren dat ze de ssd's niet goed testen of begrijpen.
Ehm, dat is ook zo? SSDs zijn van alle computertechniek het moeilijkst te benchmarken, omdat je nooit consistente resultaten krijgt; de spare space technieken zorgen daar wel voor. Dus test1 krijgt score A maar de volgende test geeft je doodleuk een andere score. Na 4000 testen is de score totaal ingezakt; hoe kun je dan iets nuttigs zeggen over performance? Of je beperkt je tot welke performance je krijgt de eerste dag dat je er mee speelt; of je probeert toch te generaliseren. Het is super-moeilijk!
Juist anandtech begrijpt dit goed: zij houden in de gaten dat de QD nooit over de 5 gaat (want dan is de SSD effectief gewoon sequentiele transfers aan het maken)
Wat heeft queue depth met sequentiële transfers te maken? Dat is niet direct gerelateerd aan elkaar, behalve dan dat filesystems altijd een hoge queue gebruiken voor sequentiële transfers; minimaal 8 en tot 64 queued I/Os.

Waar het belangrijk wordt is bij random I/O; qd=1 random read is supertraag 20MB/s max voor een SSD; maar qd=64 zorgt ervoor dat alle (10?) kanalen gebruikt kunnen worden tot maximaal 10 * 20MB/s = 200MB/s; tel op je winst.

Onder windows is het vaak zo dat queue depth erg laag is; één omdat programma's bijna altijd single-threaded geschreven zijn met blocking I/O ("vuile code"), anderzijds omdat de applicaties die gebruikers draaien op de desktop zich minder goed lenen voor gelijktijdige toegang tot de SSD, zoals in serveromgevingen uiterst normaal is. Onder normaal windows-gebruik beperk je de performance dus door het OS/software wat je gebruikt. Maar daar kun je weinig aan doen. Wel heel jammer natuurlijk; al die optimalisaties voor ouderwetse hardeschijven zitten nu in de weg. Alle software is ook geschreven voor seriële I/O in plaats van parallelle I/O. Dit probleem zal nog wel 10 jaar blijven; totdat eindelijk het OS eens opgebroken wordt en we opensource gaan draaien, net zoals het web al bevrijd is van de 99% IE-pandemie.
Over storagereview ben ik het trouwens wel met je eens. Die zijn de laatste tijd sowieso niet echt lekker bezig (als in: de laatste vijf jaar :S)
Al sinds het begin dat ze onzin uitkramen over RAID0. En nu gebruikt elke SSD die techniek; oh hoe ironisch!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 23:30

XanderDrake

Build the future!

Philflow schreef op donderdag 18 november 2010 @ 13:55:
Waarom verkoopt Intel zijn Arrandale CPUs in dertig (?) verschillende varianten?
Ware het niet dat Intel simpele progressief oplopende getallen gebruikt om steeds snellere processors aan te duiden.

OCZ Vertex 1, plus en Vertex 2 is zoiets als dat Intel Core Duo en Core 2 Duo tegelijkertijd produceert, upgrade en verkoopt. Dat doen ze niet.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Philflow
  • Registratie: April 2006
  • Laatst online: 06-12-2023

Philflow

Philflow wijzigde dit (47%)

XanderDrake schreef op donderdag 18 november 2010 @ 14:18:
[...]
Ware het niet dat Intel simpele progressief oplopende getallen gebruikt om steeds snellere processors aan te duiden.
Mwa, sommige Core i3 zijn toch ook sneller dan Core i5's? Maarja het blijt natuurlijk een vergelijking, en die hebben meestal nadelen. Als je er toch een simpel getal aan wilt hangen, net zoals bij CPUs, zou je af kunnen gaan op IOPS of PCMark Vantage HDD scores.

  • mux
  • Registratie: Januari 2007
  • Laatst online: 03-09 11:04

mux

99% efficient!

Verwijderd schreef op donderdag 18 november 2010 @ 14:11:
[...]

Ehm, dat is ook zo? SSDs zijn van alle computertechniek het moeilijkst te benchmarken, omdat je nooit consistente resultaten krijgt; de spare space technieken zorgen daar wel voor. Dus test1 krijgt score A maar de volgende test geeft je doodleuk een andere score. Na 4000 testen is de score totaal ingezakt; hoe kun je dan iets nuttigs zeggen over performance? Of je beperkt je tot welke performance je krijgt de eerste dag dat je er mee speelt; of je probeert toch te generaliseren. Het is super-moeilijk!
Opvallend dat je dit zegt, want wat anandtech juist over SSDs heeft te zeggen is dat het zo ontzettend consistente apparaten zijn. Waar haal je het vandaan dat ze inconsistente resultaten geven? Volgens mij geldt dat alleen voor Sandforce-SSDs. In vergelijking met hdd's zijn SSDs een godsend voor consistentie! Of bedoel je hiermee performance degradation bij afwezigheid van GC en TRIM? Want dat is inmiddels ook al opgelost.
Wat heeft queue depth met sequentiële transfers te maken? Dat is niet direct gerelateerd aan elkaar, behalve dan dat filesystems altijd een hoge queue gebruiken voor sequentiële transfers; minimaal 8 en tot 64 queued I/Os.
Wat ik hiermee bedoel is het volgende: NCQ zorgt ervoor dat een ssd/hdd eerst wat host actions kan bufferen, daarna deze dingen op een zo efficient mogelijke manier kan uitvoeren en vervolgens het resultaat weer kan terugpoepen. Zonder NCQ is elke kleine schrijf/leesactie een actie op zich, waarvoor de drive een sector moet opzoeken, uitlezen/schrijven en returnen.

Als je wilt testen hoe goed de performance is van een SSD of HDD bij kleine transfers (512b, 4k, 16k), en je zet NCQ aan en laat de queue gewoon vollopen, dan gaat de schijf deze commando's véél efficienter en dus sneller uitvoeren dan wanneer je de commando's apart geeft en even wacht tot je de volgende doet. Door de queue depth (QD) laag te houden krijg je zo goed mogelijk een idee van de random read/write-snelheden, bij een volle queue zit je zowat op sequentiële prestaties. Dit zie je ook in CDM terug bijvoorbeeld. Benchmarkers die hier slordig in zijn letten niet op de QD. Wanneer ze dan een 'real life'-benchmark versneld draaien krijgen zodoende veel hogere performance dan je in een niet-versneld experiment zou krijgen.
Waar het belangrijk wordt is bij random I/O; qd=1 random read is supertraag 20MB/s max voor een SSD; maar qd=64 zorgt ervoor dat alle (10?) kanalen gebruikt kunnen worden tot maximaal 10 * 20MB/s = 200MB/s; tel op je winst.
Dit is een van de manieren waarop het werkt, maar er is veel meer dan het aantal kanalen dat de performance bij variërende QD bepaalt. Zeker wanneer je ook de vergelijking met HDDs en QD aangaat wordt het allemaal heel troebel. Om nog maar niet te spreken over de combinatie van AAM en NCQ :S
Onder windows is het vaak zo dat queue depth erg laag is; één omdat programma's bijna altijd single-threaded geschreven zijn met blocking I/O ("vuile code"), anderzijds omdat de applicaties die gebruikers draaien op de desktop zich minder goed lenen voor gelijktijdige toegang tot de SSD, zoals in serveromgevingen uiterst normaal is. Onder normaal windows-gebruik beperk je de performance dus door het OS/software wat je gebruikt. Maar daar kun je weinig aan doen. Wel heel jammer natuurlijk; al die optimalisaties voor ouderwetse hardeschijven zitten nu in de weg. Alle software is ook geschreven voor seriële I/O in plaats van parallelle I/O. Dit probleem zal nog wel 10 jaar blijven; totdat eindelijk het OS eens opgebroken wordt en we opensource gaan draaien, net zoals het web al bevrijd is van de 99% IE-pandemie.
Je laatste conclusies laat ik maar even in het midden; maar het is zeker zo dat SSDs lang niet zo'n groot snelheidsvoordeel zouden hebben wanneer de QD groter was in het hdd-tijdperk. Veel HDDs doen het uitstekend bij random reads/writes @QD=32. Access time is natuurlijk nog steeds brak.
Al sinds het begin dat ze onzin uitkramen over RAID0. En nu gebruikt elke SSD die techniek; oh hoe ironisch!
Je moet de oude reviews van die site ook wel bekijken door een bril van 10 jaar geleden. Zelfs de beste reviewsites waren toen totale amateurs vergeleken met de brakste sites nu, om het maar een beetje overdreven te zeggen. Niet dat dat iets goedpraat ofzo. Ik bedoel, je zegt het zelf al: storage is op zijn tijd veel lastiger om te begrijpen dan je aan de oppervlakte zou denken. RAID, de werking van SSDs en ZFS zijn zaken waar een hoop mensen wat over proberen te zeggen maar bijna niemand écht goede in-depth kennis van heeft. Het is geen wonder dat er zoveel onzin, onbegrip etc. over bestaat. En waarschijnlijk de enige manier voor een leek om zich enigszins in te dekken voor andermans fouten is zoveel mogelijk reviewsites vergelijken. Gemiddeld zal er toch wel wat nuttigs in staan :P

Youtube: PowerElectronicsBlog - Plank2 (4W computer)


  • ByteDelight
  • Registratie: Januari 2005
  • Laatst online: 00:50

ByteDelight

Retro computing is alive!

Topicstarter
Wie vindt er net als ik dat in de Pricewatch de controllers te vinden moeten zijn van de ssd's?

Misschien kun je me dan ondersteunen door een bericht toe te voegen aan: Controllers voor ssd's (in de Pricewatch).

[ Voor 23% gewijzigd door ByteDelight op 18-11-2010 15:01 ]

Retro Computer hardware: http://bytedelight.com


Verwijderd

Ja sorry, maar het is eigenlijk wel een f*ckin' lange post geworden. :+
ssj3gohan schreef op donderdag 18 november 2010 @ 14:53:
Opvallend dat je dit zegt, want wat anandtech juist over SSDs heeft te zeggen is dat het zo ontzettend consistente apparaten zijn. Waar haal je het vandaan dat ze inconsistente resultaten geven?
Omdat bij de tweede benchmark run de SSD die weer anders uitvoert; dat heeft met het hele ontwerp van een SSD te maken die alleen snel kan zijn door veel intelligentie in de controller te proppen. Kale NAND met een oersimpele controller kan heel snel zijn in sequentieel I/O maar het schrijven van een paar kilobyte levert problemen op en maakt dat het als een floppydrive aanvoelt.

Nu hebben we intelligente controllers die een buffer hebben (DRAM of SRAM) en het belangrijkste: write remapping gebruiken; dus hoe windows denkt dat de informatie is ingedeeld wijkt af van hoe het fysiek wordt opgeslagen. Als je naar sector 1 schrijft kan zijn dat je ergens willekeurig op een fysieke locatie schrijft. En de volgende keer dat je naar die factor schrijft, schrijf je eigenlijk fysiek wéér naar een andere locatie; dus een virtual LBA <-> physical NAND tabel wordt onderhouden om dit alles mogelijk te maken. Dit voegt veel complexiteit toe aan de SSD controller, maar ook veel potentiële performance gains.

Dit alles maakt wel dat benchmarken erg moeilijk wordt. Zeker als controllers zoals Sandforce ook nog compressie gaan toepassen. Leuk die 250MB/s write met ATTO, maar dat is gebakken lucht. Fysiek zou je maar een paar kilobyte hoeven te schrijven om dertig miljard nulletjes op te slaan, alhoewel die ratio wel iets lager zal liggen in de praktijk. Maargoed dan wordt de benchmark dus nutteloos. Want wij hebben geen gigabyte-grote bestanden met alleen maar nullen erin. Grote bestanden zijn voornamelijk binary en vaak al gecomprimeerd; een film, muziek, plaatjes, een archive; allemaal al gecomprimeerd.

Dus SSDs benchmarken is echt moeilijk. IBM Zürich heeft een goede poging gedaan, en door SSDs eerst een warming up te geven door random writes toe te passen en de SSDs in een 'stable state' te krijgen waarbij de performance zijn piek naar beneden heeft gehad en nu een stuk minder presteert maar wel redelijk stabiel. Sommige SSDs zijn nu al ernstig ingekakt qua performance.

Uiteindelijk gaat het erom wat voor ervaring je in real life krijgt, en ik denk dat je dus beter aan stopwatch tests en subjectieve ervaringen kunt doen, dan proberen een cijfer te krijgen en basis daarvan te vergelijken; dat is echt niet zo makkelijk. Je kunt wel zeggen dat een SSD in een free state 70.000 IOps doet met random write bij een bepaalde queue depth; maar dat zijn synthetische testjes die een bepaalde handeling tig keer herhalen. Veel interessanter wordt het als je de SSD echt gaat gebruiken en hoezeer de performance aftakelt door de afname van spare space. Een nieuwe verse SSD heeft 100% spare space en als je alles beschreven hebt nog maar 6.8%; het verschil tussen GiB en GB wat SSD makers aanhouden om storage capaciteit af te snoepen van de fysieke NAND chips, en te gebruiken als spare space.
Wat ik hiermee bedoel is het volgende: NCQ zorgt ervoor dat een ssd/hdd eerst wat host actions kan bufferen, daarna deze dingen op een zo efficient mogelijke manier kan uitvoeren en vervolgens het resultaat weer kan terugpoepen. Zonder NCQ is elke kleine schrijf/leesactie een actie op zich, waarvoor de drive een sector moet opzoeken, uitlezen/schrijven en returnen.
NCQ is een techniek die hardeschijven snellere seeks zou moeten geven, door de volgorde van de commando's te veranderen; eigenlijk dus omdat Windows de schijf als een gek liet seeken. NCQ voor HDDs is nooit écht een sexy feature geweest; HDDs blijven seriële apparaten en kunnen maar één ding tegelijk.

SSDs zijn heel anders, en NCQ was er al toen SSDs doorbraken (na de MTron-generatie). De Intel controller is de eerste die NCQ inzette. Voor SSDs is NCQ iets heel anders. Dezelfde techniek maar voor een ander doel: de SSD van werk te voorzien! Met slechts één queue depth zal de SSD bij random reads ook maar één channel kunnen gebruiken. Aangezien de Intel 10 kanalen heeft, kun je dus je random reads tot een factor 10 verhogen met een hogere queue depth, wat dus NCQ mogelijk maakt. Met qd=10 kan het nog steeds zijn dat je twee of meer requests op hetzelfde kanaal gooit, dus pas bij 32/64 QD zie je verzadiging optreden. SATA NCQ kan tot 32 queued I/O's; SAS tot iets van 128 dacht ik.

queue-depth 1 sequential I/O zou eigenlijk ook heel traag moeten zijn, maar dat is het niet:
  • reads worden door de SSD/HDD intern van 'queue depth' voorzien; ook wel bekend als read-ahead
  • writes worden gebuffered en bouwt dus automatisch een queue op, ook bij qd=1 random write
Het enige waar je niet omheen kan zijn de random reads, en daarvoor wil je dus een hoge queue depth hebben met name voor SSDs.
bij een volle queue zit je zowat op sequentiële prestaties. Dit zie je ook in CDM terug bijvoorbeeld.
Ja en dat is ook de kracht van SSDs; ze kunnen meerdere dingen tegelijk doen en random I/O hoeft - in theorie - helemaal niet trager te zijn dan sequentieel I/O; heel anders bij een HDD waarbij dat gewoon een fysiek gegeven is en dus is random I/O bij mechanische schijven gewoon theoretisch beperkt. HDDs zullen nooit random I/O goed kunnen doen; SSDs met een goede controller kunnen even snel random I/O doen dan sequentieel I/O, aangenomen dat de queue depth hoog genoeg is.
Om nog maar niet te spreken over de combinatie van AAM en NCQ :S
AAM zou ook niet direct met NCQ te maken moeten hebben. AAM is de balans tussen stille seeks en snelle seeks. Door meer stroom te gebruiken om de 'head' naar de juiste positie te krijgen, kun je seektimes verlagen. De rotational latency blijft natuurlijk gelijk; dus voor de totale access time (seek time + rotational delay) zou het niets uit hoeven maken; dus soms wel en soms niet. Echt heel veel invloed zou AAM niet mogen hebben, maar sommige HDDs komen standaard met andere AAM instellingen en prefereren dus bijvoorbeeld stilte boven snellere seektime; dat ga je in vooral synthetische benchmarks wel terugzien maar in echt gebruik niet zo omdat de rotational delay dit effect min of meer maskeert.
Veel HDDs doen het uitstekend bij random reads/writes @QD=32. Access time is natuurlijk nog steeds brak.
Deze uitspraak snap ik niet zo. Is 0.4MB/s 'uitstekend'? 200MB/s+ is toch veel beter? De grootste verschillen tussen SSDs en HDDs zie je als je random I/O doet op hoge queue depth. Bij transfer sizes zo laag als 512 bytes is het verschil het meest extreem: max 50-80 IOps versus 70.000+ voor de SSD; dus zo'n factor 1000 sneller. Dat is ook de hele reden om een SSD te kiezen.

HDDs worden maar marginaal beter bij een hogere queue depth. Random reads kunnen wel een 30-50% boost krijgen van qd1 naar qd32 als je NCQ hebt. Maar dat dus factor 1.5; veel lager dan het voordeel dat SSDs halen.
Je moet de oude reviews van die site ook wel bekijken door een bril van 10 jaar geleden. Zelfs de beste reviewsites waren toen totale amateurs vergeleken met de brakste sites nu, om het maar een beetje overdreven te zeggen.
Ja misschien, maar blaas dan niet zo hoog van de toren, vind ik. Zeker een site met de reputatie van SR, en dan samen met AnandTech van leer trekken en mensen die RAID0 draaien dom noemen. :X

En hoe zijn ze tot die onzinnige conclusie gekomen? Juist, met neme de slechtste RAID-hardware die maar mogelijk is, een Promise FastTrak TX-150 op PCI bus met verschrikkelijk crappy Promise FakeRAID drivers en met een veels te lage stripesize én om het nog helemaal een slagroom-toefje te geven ook nog misaligned partitions. Jezus allemachtig wat een kneuzen! Is er dan niemand die wél weet hoe je een review moet maken?

Ik sta er versteld van hoe weinig kennis er is op populaire reviewsites. Omdat ik me er in heb verdiept heb ik meer dan gemiddelde kennis opgebouwd, maar ik verbaas me hoe slecht het gesteld is met de kennis van mensen waar je het van mag verwachten; de reviewsites; voor die mensen is het hun werk! En dan bedoel ik niet IT systemen inzetten in een bedrijfsomgeving, maar ze te analyseren, bestuderen, uitleggen hoe het werkt, uitleggen wat van belang is. In dat opzicht falen deze sites dan ook grotendeels. Men propt wat leuke cijfertjes in een mooi grafiekje en zonder veel duidelijke uitleg wordt er naar de conclusie toegewerkt; weinig inzichtvol en weinig leervol en soms ook nog eens compleet onjuist door een foutieve testmethode.

Dus in dat licht, nee, ik kan het ze niet vergeven. Teveel mensen geloven alles wat ze zeggen, en inzichtvolle theorien of ervaringen op fora worden terzijde geschoven; "ik vertrouw toch eerder op een respectabele site als AnandTech dan jouw theoriën". Afijn. ;)
Niet dat dat iets goedpraat ofzo. Ik bedoel, je zegt het zelf al: storage is op zijn tijd veel lastiger om te begrijpen dan je aan de oppervlakte zou denken. RAID, de werking van SSDs en ZFS zijn zaken waar een hoop mensen wat over proberen te zeggen maar bijna niemand écht goede in-depth kennis van heeft. Het is geen wonder dat er zoveel onzin, onbegrip etc. over bestaat.
Je hebt onder Windows ook geen idee wat er allemaal gebeurt qua I/O op het systeem. Je kunt geeneens IOwait zien. Nadat ik jaren geleden me in Linux en daarna UNIX heb verdiept, heb ik echt veel geleerd van storage en hoe I/O werkt. Gewoon om dat je ZIET wat je oet. Je benchmarkt en je ziet wat er echt gebeurt.

Maar je hebt wel gelijk; niemand weet alles wat een bepaald onderwerp, en bestaande kennis wordt ingehaald door nieuwere technieken waardoor de eerder vastgestelde mening/opvatting moet worden aangepast. Maar hey daar zijn reviewsites toch voor, die horen dat toch bij te houden en ons te informeren? In dat opzicht zijn ze zeker niet geslaagd.

offtopic:
Word nu wel offtopic maar wil nog één ding noemen: het feit dat nergens wordt uitgelegd hoe windows fakeRAID/onboardRAID/driverRAID werkt en waarom mensen uitgevallen schijven en 'gefaalde 'arrays krijgen met disks die gewoon nog draaien. Zoveel mensen die hier last van hebben en over het hoe en waarom mag je in het duister grijpen; "ja die controller werkt niet lekker met mijn schijven" krijg je dan te horen. Ja ik zou ook gaan gissen zonder betrouwbare en goed beschikbare informatie....
Pagina: 1 ... 67 ... 78 Laatste

Dit topic is gesloten.

Let op:
Om de vragen en dicussies over welke SSD aan te schaffen uit dit topic te houden, zodat hier nieuws en technieken besproken kunnen worden is het volgende topic aangemaakt: [BBG aanschaf] SSD