Die P400's zijn gebaseerd op de LSI1068 en halen per stuk maximaal 858MB/s, echter met spinning disks komen die nooit in de buurt van de random IO van een SSD. Met twee goede SATA SSD ga je dus iets achteruit in sequentiële snelheid, waar je vrijwel niets van merkt, maar gigantisch omhoog in random IO waar je wel wat van merkt. Of je gaat voor NVMe, een enkele Samsung 960 Pro of Intel 750 maak gehakt van de huidige twee arrays.
Voor het verdere verhaal en waarom ik nog niet gereageerd had (hoopte dat het vanzelf in de thread zou komen) mis ik wat je er nu precies op wilt gaan draaien, behalve Plex, webserver en download bak zie ik niet zo veel staan. Als het alleen dat is zou je dat zelfs fysiek op XPenology kunnen doen.
Je haalt volgens mij een paar zaken door elkaar:
- Protocol: SATA/SAS/NVMe/etc
- Formaat: 2.5"/3.5"/HHHL/2240/2260/2280/etc
- Connector: SFF-8087/U.2(SFF-8643)/M.2/PCIe x4/SATA/etc
Waarom PCIe? SAS/SATA maken gebruik van een controller die soms al in de chipset of het bord zit. SATA3 is beperkt op een theoretische snelheid van 600MB/s, SAS3 op 1200MB/s. SSD zaten al snel tegen deze limieten aan (daarom halen vrijwel alle SATA SSD's ~550MB/s). PCIe 2.0 heeft 500MB/s per lane, 3.0 heeft 985MB/s per lane (full duplex dus gelijktijdig 985 up en 985 down). De eerste PCIe SSD's gebruikten twee 2.0 lanes, de huidige gebruiken vrijwel allemaal 4 3.0 lanes.
Waarom NVMe? De 'oude' protocollen waren ontworpen voor harddisks, waarbij het belangrijk is om zoveel mogelijk sequentieel uit te voeren. Commando's gingen in een queue waarbij de volgorde geoptimaliseerd werd. Bij SAS was deze queue 128 groot, bij SATA 32 (maar sommige controllers hebben een lagere queue). SSD's kunnen prima parallel werken en bij de huidige NVMe drives is deze queue ongeveer 2048.
Daarnaast is er een heel stuk niet meer noodzakelijke overhead verwijderd en kan er nu met meer 'threads' gewerkt worden waardoor er betere schaling is.
Een schijf met NVMe protocol is altijd PCIe, maar deze zijn er in meerdere formaten, met meerdere connectors:
Andersom is niet altijd waar:
- Niet alle PCIe schijven zijn NVMe (je hebt ook bijvoorbeeld AHCI).
- Ook is de SFF8643 connector niet alleen voor NVMe, maar ook voor Mini-SAS HD (12 Gbit)
- Ook is de M.2 connector niet alleen voor NVMe, maar ook voor AHCI (SATA standaard).
Waarom 22x0? Vooral voor kleine form factors zoals een NUC, Laptop of all in one is het belangrijk om niet een 2.5" schijf te hoeven plaatsen. M.2 is hierom vrij populair, want je product kan in meer apparaten gebruikt worden.
Waarom 2.5"? Voor servers is hotswap belangrijk.
Waarom HHHL? Toen de eerste schijven uitkwamen waren er vrijwel geen servers/workstations met M.2 of U.2. Door PCIe kaarten te maken kon toch iedereen direct NVMe gebruiken, zeker met halve hoogte kunnen vrijwel alle desktop/server formaten er gebruik van maken. Een ander voordeel van HHHL is de koeling mogelijkheden.
Er zijn moederborden met U.2 connectoren, M.2 connectoren en PCIe connectoren, een converter is dus niet altijd nodig, alleen als je meer schijven met een bepaalde connector wil aansluiten dan je hebt.
Converters/Bifurcation:
- Er zijn M.2 naar U.2 converters
- Er zijn PCIe naar M.2 converters (Ook PCIe x16 naar 4x M.2, of x8 naar 2x M.2)
- Er zijn PCIe naar U.2 converters (Ook PCIe x16 naar 4x U.2, of x8 naar 2x U.2)
Waar moet je op letten met NVMe?
- BIOS support, met name oudere borden kunnen vaak niet booten van NVMe.
- Koeling, met name M.2 SSD's kunnen erg warm worden en langzaam worden.
- PCIe versie en lanes, met name oudere borden hebben vaak een M.2 slot aan twee PCIe 2.0 lanes.
- Locatie van de lanes, als deze uit de chipset komen gaan ze via DMI (PCIe 3.0 x4) naar de chipset en moet je de lanes delen met zaken zoals USB, SATA en netwerk.
- M.2 PCIe support, sommige M.2 sloten kunnen alleen AHCI.
Is NVMe altijd sneller dan AHCI?
Eigenlijk wel, echter is dit niet altijd merkbaar. Als je een NVMe drive in je desktop stopt dan zal de workload normaal gesproken meestal niet boven de max van een SATA SSD komen. Ook is disk IO maar een heel klein gedeelte van wat er moet gebeuren (je staat vaker op de CPU te wachten dan op een SATA SSD) en worden er ook pages in RAM opgeslagen waardoor er niet continu van de schijf gelezen hoeft te worden. Ook moet er bij het booten een extra controller geïnnitialiseerd worden en dit duurt langer dan het voordeel van sneller lezer (al is dat met de laatste firmwares al een stuk beter). De echte voordelen van NVMe zijn zichtbaar bij veel IO. Nou heb je bij virtualisatie meerdere machines en kom je eerder aan meer IO dan SATA aan zou kunnen.
Verder is er veel verschil tussen NVMe drives, de vorige generatie Samsung NVMe drives was bijvoorbeeld helemaal niet snel in random schrijven, desondanks dat de specificaties anders doen vermoeden dankzij de DRAM cache. Combineer dit met temperatuur problemen (throttle) en je zie dat de oudere Samsung SATA SSD's sustained betere random IO hebben.
Persoonlijke mening over bepaalde NVMe drives voor labs:
Samsung 950/951: Leuke drives voor veel reads, niet voor writes (en gaan snel stuk bij veel writes).
Intel 750: Beste drives die je kunt krijgen (en natuurlijk de vrijwel gelijkwaardige P3700).
Intel 600/6000p: Nog geen mening, te weinig gezien om er wat zinnigs over te zeggen, het
lijkt echter geen goede write schijf te zijn (55MB/s sustained met random IO).
Samsung 960/961: Met name de Pro drives lossen het grootste deel van het probleem met writes op, te vroeg om iets over betrouwbaarheid te zeggen.
Alle andere types: Links laten liggen, geen voordelen ten opzichte van bovenstaande drives.
FreakNL schreef op zaterdag 25 februari 2017 @ 10:33:
Na mijn meterkast maar eens goed bekeken te hebben ben ik tot de conclusie gekomen dat dat hem niet gaat worden. Zelfs nu (winter) is het daar al best warm (router, modem, Toon zooi) en dat gaat hem dus niet worden.
Het wordt dus een nieuw systeem op zolder wat (relatief) stil moet zijn en krachtig. Ik heb ook de knoop doorgehakt en wil voor NVME gaan. Ik heb mijn VM's eens bekeken en zou voorlopig voldoende hebben aan 500gb snelle storage. Tevens heb ik nog 2 WD Reds liggen (3tb), die wil ik (in Raid-1) in het systeem hebben om als trage storage aan te bieden (data disk webserver, OS download bak, etc). Ik denk dat ik dat via ZFS icm Freenas moet doen? (ik moet dat nog ff uitzoeken).
De keuze voor NVME impliceert wel dat ik mijn geheugen niet meer kan doorschuiven (of je moet naar erg exotische configuraties gaan), dus het wordt volledige nieuwbouw, inclusief DDR-4 en skylake. Ik heb het budget opgerekt naar 1000 euro.
Heeft iemand tips? Ik zie inmiddels door de bomen het bos niet meer.
Mijn eisen;
- Microatx
- Relatief stil en zuinig
- Mogelijkheid om 2xnvme aan te sluiten (voor nu 1x, maar in de toekomst wil ik wel kunnen uitbreiden )
- Vrije PCIe slot om een Intel NIC aan te sluiten (heb deze liggen:
pricewatch: Intel Gigabit CT Desktop Adapter, dat scheelt volgens mij kloten met injecten van drivers?)
- 32gb met de mogelijkheid om uit te breiden naar 64gb
- 2x3tb WD RED door kunnen geven aan Freenas (of openfiler), daar in raid-1 zetten en terug aanbieden aan de ESXi server
- ipmi/vpro is nice-to-have, geen must
- Ik boot "gewoon" van USB, dat betekent toch dat ik mijn complete SATA controller door kan geven? Maar dat moet ik wel VT-d hebben begrijp ik?
Ik kom tot dit lijstje:
# | Product | Prijs | Subtotaal |
1 | Intel Core i5-6400 Boxed | € 184,65 | € 184,65 |
1 | ASRock H270M Pro4 | € 99,99 | € 99,99 |
2 | WD Red WD30EFRX, 3TB | € 0 | € 0 |
1 | Thermaltake Core V21 | € 59,41 | € 59,41 |
1 | Intel Gigabit CT Desktop Adapter | € 0 | € 0 |
1 | G.Skill Ripjaws V F4-3200C16D-32GVK | € 268,50 | € 268,50 |
1 | Corsair RM550x | € 94,95 | € 94,95 |
1 | Samsung 960 EVO 500GB | € 237,25 | € 237,25 |
Bekijk collectie
Importeer producten | Totaal | € 944,75 |
Blijft ik aardig binnen het nieuw gestelde budget, komen natuurlijk nog wat losse kosten bij (fannetje hier, kabeltje daar). En ik wil dan op termijn een 2e 960 EVO 500GB toevoegen of een Intel 600p 1tb. Maar dan moet ik eerste mijn oude controllers en SAS schijven verkopen.
Alle tips zijn welkom, schiet maar

Drive: Let op met de EVO, als echt veel IO hebt storten die aardig in, dan zou een Pro of een Intel 750 een betere keuze zijn.

VT-d: Alles met Skylake heeft VT-d
NIC: Je kunt ook een bord met dual NIC nemen.
Lees verder mijn startpost van
het andere topic even door, daar staat vast het een en ander aan nuttige info tussen.
[
Voor 115% gewijzigd door
|sWORDs| op 25-02-2017 14:11
]