Raid controller, welke te kopen?

Pagina: 1
Acties:

Vraag


  • Justin0017
  • Registratie: Augustus 2016
  • Laatst online: 22-10-2025
Goedenavond mede tweakers,

Ik ben op zoek naar een RAID controller die in een PCIe (x16) slot kan.

Nu ben ik al even wezen zoeken naar sommigen, maar kon erachter dat veel van deze kaartjes of best prijzig zijn (meer dan 400+) of bijvoorbeeld alleen sata-150 poorten bevatten.

Ik ben opzoek naar een RAID controller voor in een PCI Express x16 slot met 4 SATA poorten. Ik wil hier 4x een SSD aan aansluiten dus SATA 600 poorten zijn wel wenselijk.

Mijn richtbudget is 0-150 euro, het is voor een testserver erbij.

Zijn er mensen die ervaringen hiermee hebben of tips voor mij hebben?

Mvg, Justin

PC: Intel Core i7 7740X, 16GB RAM, MSI X299 RAIDER, RTX2070 | Server: 2x Xeon E5-2620v4, 192GB DDR3R

Beste antwoord (via Justin0017 op 04-10-2019 11:14)


  • Paul
  • Registratie: September 2000
  • Laatst online: 19:13
VMware ondersteunt alleen geen ZFS :P Wel kun je VMware draaien op een (NVME, of via een aparte controller) SSD en dan een controller doorgeven aan een VM, daar ZFS gebruiken en het via iSCSI of NFS terug geven aan VMware. Onder hobbyisten geen ongewone situatie (ik heb het zelf ook een tijdje gedaan). Dat heeft echter ook de juiste hardware nodig, en is ook niet goedkoop.

Zo te lezen kan @Justin0017 beter die € 150 steken in één grote SSD zoals bijvoorbeeld een Samsung 970 (EVO 1 TB en EVO Plus 500 GB ontlopen elkaar zo te zien niet zo veel in specs), al dan niet gecombineerd met een verloop van een PCIe-slot naar een M.2-connector.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock

Alle reacties


  • Operations
  • Registratie: Juni 2001
  • Laatst online: 23-01 09:38
Ik zou voor een Areca 1880/1882 (liefst de 1882) gaan. Oudere modellen zijn waarschijnlijk te langzaam voor je SSD's. Een 1224 zou ook kunnen maar kost nieuw 400+ en zie je 2de hands niet veel. 1880/1882 zie je vaker 2de hands.

Wat wil je doen qua RAID? 0/1/10/5?
Maar jouw budget wordt wel een probleem ben ik bang. Zelfs gebruikt zijn die kaarten nog een stuk duurder. Of je moet kijken maar een 1680 (maar die is dan al maar SATA300).

Dit zou bijvoorbeeld een optie kunnen zijn:

V&A aangeboden: Areca ARC1880i PCI-e SAS RAID controller

Maar zonder echt te weten wat je precies gaat doen/wilt bereiken is het moeilijk adviseren. Misschien valt jouw doel wel met een veel simpelere (en dus goedkopere) kaart te bereiken.
Er zijn uiteraard ook goedkopere merken dan Areca (Adaptec of Promise bijvoorbeeld) maar als je echt het maximale uit 4 SSD's wilt halen in RAID0 dan moet je wel zeker weten dat je controller dit kan hebben.

Zoek je wel echt een RAID kaart en niet toevallig gewoon alleen extra SATA poorten? Of zoek je misschien voor Freenas ofzo een HBA kaart? Voor FreeNAS moet je juist geen RAID kaart nemen. HBA kaarten zijn goedkoper en passen wel in je budget (Bijvoorbeeld een LSI 9211-8i).

Maar nogmaals iets meer info graag... :)

P.S. er wordt hier vanuit gegaan dat wij elkaar telkens groeten, dus onderaan je bericht jouw naam en een groet is niet nodig.

[ Voor 70% gewijzigd door Operations op 04-10-2019 05:51 ]

PC1: ASUS B850-Plus WiFi -- 9900X incl. X72 -- 64GB DDR5-6000Mhz -- Kingston Fury Renegade G5 2TB -- DELL 4025QW | Servers: 2x DELL R730 -- E5-2660 v4 -- 256GB -- Synology DS3617xs: 4x1,92TB SSD RAID F1 -- 6x8TB WD Purple RAID5


  • Justin0017
  • Registratie: Augustus 2016
  • Laatst online: 22-10-2025
Operations schreef op donderdag 3 oktober 2019 @ 23:00:
Ik zou voor een Areca 1880/1882 (liefst de 1882) gaan. Oudere modellen zijn waarschijnlijk langzaam voor je SSD's.

Wat wil je doen qua RAID? 0/1/10/5?
Maar jouw budget wordt wel een probleem ben ik bang. Zelfs gebruikt zijn die kaarten nog een stuk duurder. Of je moet kijken maar een 1680 (maar die is dan al maar SATA300).

Dit zou bijvoorbeeld een optie kunnen zijn:

V&A aangeboden: Areca ARC1880i PCI-e SAS RAID controller

Maar zonder echt te weten wat je precies gaat doen/wilt bereiken is het moeilijk adviseren. Misschien valt jouw doel wel met een veel simpelere (en dus goedkopere) kaart te bereiken.
Er zijn uiteraard ook goedkopere merken dan Areca (Promise bijvoorbeeld) maar als je echt het maximale uit 4 SSD's wilt halen in RAID0 dan moet je wel zeker weten dat je controller dit kan hebben.

Zoek je wel echt een RAID kaart en niet toevallig gewoon alleen extra SATA poorten? Of zoek je misschien voor Freenas ofzo een HBA kaart? Voor FreeNAS moet je juist geen RAID kaart nemen. HBA kaarten zijn goedkoper en passen wel in je budget (Bijvoorbeeld een LSI 9211-8i).

Maar nogmaals iets meer info graag... :)

P.S. er wordt hier vanuit gegaan dat wij elkaar telkens groeten, dus onderaan je bericht jouw naam en een groet is niet nodig.
Hey,

Mijn idee is om een testserver te maken, ik heb hiervoor nog oude hardware staan waaronder 4x een SSD. Deze wil ik gewoon in RAID 0 gaan plaatsen voor de snelheid en capaciteit. Mijn moederbord bevat in ieder geval een PCI Express x16 slot maar heeft ook 2x een x8 slot.

Mijn doel is uiteindelijk om hier iets van VMware op te draaien zodat ik een aantal virtuele machines kan draaien op die machine. De SSD's hoeven wat mij betreft niet op de volledige snelheid te kunnen draaien maar hoop zoveel mogelijk snelheid te winnen :D

Hopelijk heb zo genoeg info.

PC: Intel Core i7 7740X, 16GB RAM, MSI X299 RAIDER, RTX2070 | Server: 2x Xeon E5-2620v4, 192GB DDR3R


  • Operations
  • Registratie: Juni 2001
  • Laatst online: 23-01 09:38
Justin0017 schreef op donderdag 3 oktober 2019 @ 23:27:
[...]


Hey,

Mijn idee is om een testserver te maken, ik heb hiervoor nog oude hardware staan waaronder 4x een SSD. Deze wil ik gewoon in RAID 0 gaan plaatsen voor de snelheid en capaciteit. Mijn moederbord bevat in ieder geval een PCI Express x16 slot maar heeft ook 2x een x8 slot.

Mijn doel is uiteindelijk om hier iets van VMware op te draaien zodat ik een aantal virtuele machines kan draaien op die machine. De SSD's hoeven wat mij betreft niet op de volledige snelheid te kunnen draaien maar hoop zoveel mogelijk snelheid te winnen :D

Hopelijk heb zo genoeg info.
Zijn die 4 ssd's even groot? En je weet met RAID0 dat je bij een probleem met 1 van de ssd's je data van alle 4 kwijt bent? Ik zou daar zelf nooit voor kiezen. Zelfs niet op een testmachine.

Ik draai ongeveer 20 virtuele machines (via HyperV) op een 6 tal 1,92TB SSD in RAID10 opstelling. Dus RAID 0 en 1 gecombineerd, wat betekent dat bij een defect aan 1 SSD de boel gewoon blijft draaien (omdat de boel gespiegeld is = RAID 1) en ik heb ook de performance van RAID0. Nadeel is dat ik van de 6x 1,92TB dan uiteraard wel maar 3x 1,92TB kan benutten. En dat is echt meer dan snel genoeg. Sterker nog er zijn er genoeg hier die meerdere virtuele machines gewoon op een enkele SSD draaien. In de tijd van normale SATA HDD's was dat vaak qua performance een probleem. Met SSD kan het prima.

Maar blijft natuurlijk afhankelijk van wat er precies op die virtuele machines gaat gebeurd.

Maar als je echt (hardware) RAID0 wilt dan gaat het zoals ik eerder zei ben ik bang niet lukken met dit budget (als je de volle performance eruit wilt halen).
Als je het "op oude hardware" en dus voor zo weinig mogelijk wilt doen zou je kunnen kiezen voor software RAID 10 (of 0, maar zoals gezegd zou ik nooit voor kiezen). Of het gehele RAID idee laten gaan en gewoon de vm"s draaien vanaf losse SSD's.

Zoiets zou je kunnen kiezen (let wel deze heeft een low profile bracket, maar dan je wel een idee):

https://www.ebay.com/itm/...f89478:g:4NkAAOSwhkJdEWFo

[ Voor 13% gewijzigd door Operations op 04-10-2019 06:49 ]

PC1: ASUS B850-Plus WiFi -- 9900X incl. X72 -- 64GB DDR5-6000Mhz -- Kingston Fury Renegade G5 2TB -- DELL 4025QW | Servers: 2x DELL R730 -- E5-2660 v4 -- 256GB -- Synology DS3617xs: 4x1,92TB SSD RAID F1 -- 6x8TB WD Purple RAID5


  • Justin0017
  • Registratie: Augustus 2016
  • Laatst online: 22-10-2025
Operations schreef op vrijdag 4 oktober 2019 @ 05:35:
[...]


Zijn die 4 ssd's even groot? En je weet met RAID0 dat je bij een probleem met 1 van de ssd's je data van alle 4 kwijt bent? Ik zou daar zelf nooit voor kiezen. Zelfs niet op een testmachine.

Ik draai ongeveer 20 virtuele machines (via HyperV) op een 6 tal 1,92TB SSD in RAID10 opstelling. Dus RAID 0 en 1 gecombineerd, wat betekent dat bij een defect aan 1 SSD de boel gewoon blijft draaien (omdat de boel gespiegeld is = RAID 1) en ik heb ook de performance van RAID0. Nadeel is dat ik van de 6x 1,92TB dan uiteraard wel maar 3x 1,92TB kan benutten. En dat is echt meer dan snel genoeg. Sterker nog er zijn er genoeg hier die meerdere virtuele machines gewoon op een enkele SSD draaien. In de tijd van normale SATA HDD's was dat vaak qua performance een probleem. Met SSD kan het prima.

Maar blijft natuurlijk afhankelijk van wat er precies op die virtuele machines gaat gebeurd.

Maar als je echt (hardware) RAID0 wilt dan gaat het zoals ik eerder zei ben ik bang niet lukken met dit budget (als je de volle performance eruit wilt halen).
Als je het "op oude hardware" en dus voor zo weinig mogelijk wilt doen zou je kunnen kiezen voor software RAID 10 (of 0, maar zoals gezegd zou ik nooit voor kiezen). Of het gehele RAID idee laten gaan en gewoon de vm"s draaien vanaf losse SSD's.

Zoiets zou je kunnen kiezen (let wel deze heeft een low profile bracket, maar dan je wel een idee):

https://www.ebay.com/itm/...f89478:g:4NkAAOSwhkJdEWFo
Goedemorgen,

Ik weet inderdaad de nadelen van RAID 0, ik denk dat ik gewoon ga kijken naar één 500GB ssd, dat maakt het voor nu makkelijker :D

In ieder geval bedankt voor je advies.

Mvg, Justin

PC: Intel Core i7 7740X, 16GB RAM, MSI X299 RAIDER, RTX2070 | Server: 2x Xeon E5-2620v4, 192GB DDR3R


  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Justin0017 schreef op vrijdag 4 oktober 2019 @ 08:29:
[...]


Goedemorgen,

Ik weet inderdaad de nadelen van RAID 0, ik denk dat ik gewoon ga kijken naar één 500GB ssd, dat maakt het voor nu makkelijker :D

In ieder geval bedankt voor je advies.

Mvg, Justin
je schrijft geen brieven hier dus aanhef/afsluiter hoeft niet ;)

maar RAID x.y.z heeft alleen nut als je de capaciteit (diskspace) nodig hebt .. en dan kan je beter kiezen voor NAS + HDD (bv iscsi en meerdere "servers" )

Voor testserver koop gewoon een 1 a 2 tb ssd voor je virtualisatie, genoeg ram (daar draait het om vaak.
en als je echt echt budget technisch meer space wilt kan je bv 1 of meerdere WD blue/green/red disk in je server stoppen. en met "software raid" aan de slag. (md admin(linux) of windows softeware raid)

HW raid heeft als nadeel dat als je moederbord/kaart dood gaat je alle data kwijt bent en met SSD's eraan verlies je meer aan performance dan dat je winst behaalt (lees het is nog altijd sneller dan HDD)

en dan als je "snelheid" met HDD space wilt kan je het beste de boot partitie op (kleine goedkope binnen budget) SSD kwijt en overige disks op HDD .. zo heb je optimale winst.

Trouwens ik heb er 1 gebouwd met m2 ssd van 1 tb (32gb ram) en een I7- cpu mijn nas is alleen nog maar in gebruik als fileserver (voorheen Iscsi)

Tja vanalles


  • Operations
  • Registratie: Juni 2001
  • Laatst online: 23-01 09:38
vso schreef op vrijdag 4 oktober 2019 @ 08:54:
[...]

maar RAID x.y.z heeft alleen nut als je de capaciteit (diskspace) nodig hebt .. en dan kan je beter kiezen voor NAS + HDD (bv iscsi en meerdere "servers" )

HW raid heeft als nadeel dat als je moederbord/kaart dood gaat je alle data kwijt bent.
@vso,
Maakt voor de TS niet uit, maar dit is niet waar. Je kan zonder problemen RAID arrays van een Areca (en LSI, en ik weet redelijk zeker dat dit bij veel meer merken zo is) kaart verplaatsen naar een nieuwere / andere Areca kaart. Sterker nog kwestie van over prikken en alles werkt direct. Zelf al een keer of zeven gedaan.

Ik heb dus ook reserve Areca controllers liggen voor een dergelijk scenario.

En RAID heeft alleen nut als je de diskspace nodig hebt.... ook niet waar. Wordt ook heel vaak puur voor de snelheid (RAID0) of voor de continuïteit (bijvoorbeeld RAID1/5/6 etc.) gedaan, of voor een combinatie van die twee (bijvoorbeeld RAID10).

En bij je suggestie om voor NAS te gaan vergeet je het e.e.a. te vermelden. Wil je namelijk in de buurt van de performance van local (ssd) storage komen, zit je al vast aan dure NAS plus 10Gbit netwerk (= hoge aanschafkosten). Shared storage wordt pas intressant bij twee (of meer) servers dan wel een HA omgeving. Is anders alleen maar een dure oplossing die weinig toevoegt mijn inziens (voor een testomgeving).

[ Voor 53% gewijzigd door Operations op 04-10-2019 10:53 ]

PC1: ASUS B850-Plus WiFi -- 9900X incl. X72 -- 64GB DDR5-6000Mhz -- Kingston Fury Renegade G5 2TB -- DELL 4025QW | Servers: 2x DELL R730 -- E5-2660 v4 -- 256GB -- Synology DS3617xs: 4x1,92TB SSD RAID F1 -- 6x8TB WD Purple RAID5


  • CH4OS
  • Registratie: April 2002
  • Niet online

CH4OS

It's a kind of magic

Als het gratis moet, is ZFS een optie? Dan heb je niet per se een raid controller nodig, een gewone zonder raid volstaat dan al. ;)

[ Voor 22% gewijzigd door CH4OS op 04-10-2019 10:35 ]


Acties:
  • Beste antwoord

  • Paul
  • Registratie: September 2000
  • Laatst online: 19:13
VMware ondersteunt alleen geen ZFS :P Wel kun je VMware draaien op een (NVME, of via een aparte controller) SSD en dan een controller doorgeven aan een VM, daar ZFS gebruiken en het via iSCSI of NFS terug geven aan VMware. Onder hobbyisten geen ongewone situatie (ik heb het zelf ook een tijdje gedaan). Dat heeft echter ook de juiste hardware nodig, en is ook niet goedkoop.

Zo te lezen kan @Justin0017 beter die € 150 steken in één grote SSD zoals bijvoorbeeld een Samsung 970 (EVO 1 TB en EVO Plus 500 GB ontlopen elkaar zo te zien niet zo veel in specs), al dan niet gecombineerd met een verloop van een PCIe-slot naar een M.2-connector.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Bekijk eerst de toepassing/noodzaak voordat je gaat "corrigeren"

En een testserver is de kans klein dat je software vs hw gaat merken.. immer RAM CPU en ver ver erg ver is disk"speed" pas belangrijk bij "servers" uitzondering zijn database en virtuele desktops maar beperk je dat aantal tot een paar is dat ook nog perfect te overleven.. dus MEER RAM ;)

Eerst moet je de benchmark neerzetten voor storage voordat je uberhaupt gaat praten over x = beter dan Y
SATA 2,3 of SAS disks
- hdd (SATA disk met x mb aan cache)
- ssd (SATA 2,3 of M2 of NVME (en PCIe)
begin dus met cijfers ..

Er zit al een groot verschil of de drive aangesloten zit direct of indirect aan de cpu .. extra caching, (intel optane? bv) ram op de RAID kaart, battery backup en eventeel glasfiber, koper (1,2 of 10gbs) met jumbo frames en CPU/caching optimalisaties op de netwerkkaart.

RAID met NVME SSD's is gelijkwaardig/trager liet men laatst in tests zien .. het heeft alleen nut als je 1 grote partitie nodig hebt maar met 1tb tot 4 tb SSD's .,.tja kan je dat ook wel achterwege laten


Dan ga je naar de DISK cluster size kijken 4 tot 128k(b) stripe sizes ..

Dan welk type FileSystem

Dan de data gebruik veel kleine bestandjes of grote aan 1 gesloten bestanden

Dan zijn er andere weetjes en ervaringen die je in de praktijk meemaakt (ipv op papier "dit is beter") kortom ik had het wat ingekort.
@vso,
Maakt voor de TS niet uit, maar dit is niet waar. Je kan zonder problemen RAID arrays van een Areca kaart verplaatsen naar een nieuwere / andere Areca kaart. Sterker nog kwestie van over prikken en alles werkt direct. Zelf al een keer of zeven gedaan.
Kaart kost $$$$ en dat geld ligt niet klaar op het moment dat ding stuk gaat en je het nodig hebt .. teminste voor thuis en testserver gebruik dan

Op de zaak is dat andere koek dan leg ik een extra op de plank

En wat is de toegevoegde waarde van een controller controller tegenwoordig niet zoveel meer als vroeger. maar het heeft zijn nut (Duh)
Ik heb dus ook reserve Areca controllers liggen voor een dergelijk scenario.

En RAID heeft alleen nut als je de diskspace nodig hebt.... ook niet waar. Wordt ook heel vaak puur voor de snelheid (RAID0)of voor de continuïteit (RAID1/5/6 etc.) gedaan, of voor een combinatie van die twee (RAID10).
Snelheid winst is marginaal tuurlijk haal je meer IOPS met 2 HDD's in raid x.y.z maar die veeg je van de kaart met 1 SSD in NVME modus / PCIe bus .. dat halen HDD's niet in raid a,b,c en SSD's in RAID werkt eerder averrechts maar word meer handig bij "size" issues.

RAID = GEEN BACKUP never nooit niet .. en continuiteit tja ach .. het is wel handig .. (uit ervaring ) maar software raid vs hardware ach dat merk je doorgaans niet in test gebruik. en ik vind software raid dan wel prettig want gaat een systeem dood duw ik de HDD in een ander systeem en draai door.
En bij je suggestie om voor NAS te gaan vergeet je het e.e.a. te vermelden. Wil je namelijk in de buurt van de performance van local storage komen, zit je al vast aan dure NAS plus 10Gbit netwerk (= hoge aanschafkosten). Shared storage wordt pas intressant bij twee (of meer) servers dan wel een HA omgeving. Is anders alleen maar een dure oplossing die weinig toevoegt mijn inziens.
300 euro "hoog aanschaf? voor 100 tot 150 euro heb je al een 10gbit netwerk kaart zie pricewatch

Met SATA 2/3 HDD disks kan je een 1 a 2 gbps netwerk kabeltje vullen en dat is veel al voldoende voor paar test machines

Echter je kan ook een mix doen zoals ik in mijn vorige post beschreef .. lokaal de "bootdisk" op SSD en de belangrijke data op NAS. is een bootdisk/server dood heb je je data nog die je op andere manieren kan bereiken .. en zo kan je meerdere Hypervisor serverse draaien zonder dat het de bank breekt ..

Shared storage is altijd intressant. maar dat heeft niks met opslag alleen te maken.

Vandaag is SSD enorm goedkoop en het is sneller .. en morgen is netwerkopslag goedkoper en bied het voldoende ruimte voor data capaciteit.. dit is altijd zo geweest en zal altijd zo blijven. het is een trade-off die je doet.

Tja vanalles


Verwijderd

Heb je al gekeken of je moederbord geen RAID ondersteund

  • Justin0017
  • Registratie: Augustus 2016
  • Laatst online: 22-10-2025
Mijn moederbord ondersteund wel raid staat op tweakers, maar heb ook gelezen dat er aparte raid kaarten beschikbaar zijn voor een hardware raid, dus hoe het 100% zit weet ik ook niet, misschien kun jij dit zo zien.

Het moederbord die ik heb is een Asus Z8NA-D6, weliswaar een oudje maar genoeg voor wat ik wil :D

PC: Intel Core i7 7740X, 16GB RAM, MSI X299 RAIDER, RTX2070 | Server: 2x Xeon E5-2620v4, 192GB DDR3R


  • Operations
  • Registratie: Juni 2001
  • Laatst online: 23-01 09:38
vso schreef op vrijdag 4 oktober 2019 @ 11:12:
[...]

Bekijk eerst de toepassing/noodzaak voordat je gaat "corrigeren"

En een testserver is de kans klein dat je software vs hw gaat merken.. immer RAM CPU en ver ver erg ver is disk"speed" pas belangrijk bij "servers" uitzondering zijn database en virtuele desktops maar beperk je dat aantal tot een paar is dat ook nog perfect te overleven.. dus MEER RAM ;)

Eerst moet je de benchmark neerzetten voor storage voordat je uberhaupt gaat praten over x = beter dan Y
SATA 2,3 of SAS disks
- hdd (SATA disk met x mb aan cache)
- ssd (SATA 2,3 of M2 of NVME (en PCIe)
begin dus met cijfers ..

Er zit al een groot verschil of de drive aangesloten zit direct of indirect aan de cpu .. extra caching, (intel optane? bv) ram op de RAID kaart, battery backup en eventeel glasfiber, koper (1,2 of 10gbs) met jumbo frames en CPU/caching optimalisaties op de netwerkkaart.

RAID met NVME SSD's is gelijkwaardig/trager liet men laatst in tests zien .. het heeft alleen nut als je 1 grote partitie nodig hebt maar met 1tb tot 4 tb SSD's .,.tja kan je dat ook wel achterwege laten


Dan ga je naar de DISK cluster size kijken 4 tot 128k(b) stripe sizes ..

Dan welk type FileSystem

Dan de data gebruik veel kleine bestandjes of grote aan 1 gesloten bestanden

Dan zijn er andere weetjes en ervaringen die je in de praktijk meemaakt (ipv op papier "dit is beter") kortom ik had het wat ingekort.

[...]

Kaart kost $$$$ en dat geld ligt niet klaar op het moment dat ding stuk gaat en je het nodig hebt .. teminste voor thuis en testserver gebruik dan

Op de zaak is dat andere koek dan leg ik een extra op de plank

En wat is de toegevoegde waarde van een controller controller tegenwoordig niet zoveel meer als vroeger. maar het heeft zijn nut (Duh)

[...]

Snelheid winst is marginaal tuurlijk haal je meer IOPS met 2 HDD's in raid x.y.z maar die veeg je van de kaart met 1 SSD in NVME modus / PCIe bus .. dat halen HDD's niet in raid a,b,c en SSD's in RAID werkt eerder averrechts maar word meer handig bij "size" issues.

RAID = GEEN BACKUP never nooit niet .. en continuiteit tja ach .. het is wel handig .. (uit ervaring ) maar software raid vs hardware ach dat merk je doorgaans niet in test gebruik. en ik vind software raid dan wel prettig want gaat een systeem dood duw ik de HDD in een ander systeem en draai door.

[...]

300 euro "hoog aanschaf? voor 100 tot 150 euro heb je al een 10gbit netwerk kaart zie pricewatch

Met SATA 2/3 HDD disks kan je een 1 a 2 gbps netwerk kabeltje vullen en dat is veel al voldoende voor paar test machines

Echter je kan ook een mix doen zoals ik in mijn vorige post beschreef .. lokaal de "bootdisk" op SSD en de belangrijke data op NAS. is een bootdisk/server dood heb je je data nog die je op andere manieren kan bereiken .. en zo kan je meerdere Hypervisor serverse draaien zonder dat het de bank breekt ..

Shared storage is altijd intressant. maar dat heeft niks met opslag alleen te maken.

Vandaag is SSD enorm goedkoop en het is sneller .. en morgen is netwerkopslag goedkoper en bied het voldoende ruimte voor data capaciteit.. dit is altijd zo geweest en zal altijd zo blijven. het is een trade-off die je doet.
@vso,

De twee opmerkingen waar ik op reageerde, zijn onjuist (kaart hebben liggen niet hebben liggen, kost geld etc. niet relevant). Dan kan je een hele lap tekst vervolgens neer zetten (met best een aantal goede opmerkingen erin) maar dat veranderd niks aan die eerdere twee opmerkingen.

En RAID = GEEN backup helemaal mee eens. Dat zeg ik ook niet, continuïteit is iets anders dan een backup (dan wel het betekent niet hetzelfde).

PC1: ASUS B850-Plus WiFi -- 9900X incl. X72 -- 64GB DDR5-6000Mhz -- Kingston Fury Renegade G5 2TB -- DELL 4025QW | Servers: 2x DELL R730 -- E5-2660 v4 -- 256GB -- Synology DS3617xs: 4x1,92TB SSD RAID F1 -- 6x8TB WD Purple RAID5


  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Justin0017 schreef op vrijdag 4 oktober 2019 @ 11:17:
Mijn moederbord ondersteund wel raid staat op tweakers, maar heb ook gelezen dat er aparte raid kaarten beschikbaar zijn voor een hardware raid, dus hoe het 100% zit weet ik ook niet, misschien kun jij dit zo zien.

Het moederbord die ik heb is een Asus Z8NA-D6, weliswaar een oudje maar genoeg voor wat ik wil :D
Dit is "software raid" kijk even bij ASUS onder "help mijn raid is dood kan ik data recoveren" zoek dergelijke dingen

Overgens ZFS/MDadmin(vaak ook in NAS)/Windows (dynamic disk) is heel anders dan moederbord RAID en is slechter "recoverable".
edit:

De "RAID" die je binnen een OS maakt is niet beter/slechter dan "driver" raid (zoals op je moederbord)
maar door de opzet kan je de disks makkelijker verhuizen naar bv een nieuwe machine .


Maar begin eerst eens met testen .. vmware is erg "nauw' met drivers voor het zelfde geld ziet hij je huidige disk controller (en dus de disks) niet .. of in raid wel/niet ..

houd dus in je achterhoofd dat een (diy) nas met NFS/Iscsi een optie kan zijn puur omdat je moederbord niet volledig "ondersteund' word

[ Voor 11% gewijzigd door vso op 04-10-2019 11:29 ]

Tja vanalles


  • Justin0017
  • Registratie: Augustus 2016
  • Laatst online: 22-10-2025
Vso,

Ik dacht inderdaad al dat het geen volledige hardware raid was :D

Ik ga het in eerste instantie even met een software raid proberen, anders verwissel ik het voor een grote NVME SSD, dan haal ik ook goede snelheden.

PC: Intel Core i7 7740X, 16GB RAM, MSI X299 RAIDER, RTX2070 | Server: 2x Xeon E5-2620v4, 192GB DDR3R


  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

@Operations je leest de helft TLDR ?

Maar je begrijpt niet dat jou opmerking niet eens nut heeft .. daarom deed ik er nog even een schepje bovenop dat er nog veel meer punten zijn die even buiten scope vallen c,q, relevant zijn

Tja vanalles


  • CH4OS
  • Registratie: April 2002
  • Niet online

CH4OS

It's a kind of magic

Als je ESX (van vmware gebruikt) en een ICH10R, dan werkt de RAID niet goed. RAID set wordt wel herkend, maar de disks apart ook nog eens, is een bug in ESX, maar zit er al jaren en wordt dus niet echt gefixed.

[ Voor 20% gewijzigd door CH4OS op 04-10-2019 11:28 ]


  • Operations
  • Registratie: Juni 2001
  • Laatst online: 23-01 09:38
@Justin0017 ,
Jouw Asus bordje (heb er zelf ook nog twee liggen :) ) heeft PCI-E 2.0 gleuven (geen 3.0 en dus ook zeker geen 4.0 )Dus de maximale snelheid van een nieuwe (snelle) NVME SSD ga je niet halen. (Weet ik bijna zeker, check ik nog even)

Dus koop sowieso geen Gen4 SSD. Of hou er rekening mee dat je niet de geadverteerde snelheid haalt :p En wil je ook booten van die nieuwe ssd? Dat kan namelijk niet als je een NVME SSD neemt (icm dit bord).

Ik gebruik twee van deze dingen. Mssn een optie voor jou:

V&A aangeboden: Fusion-io Scale 2 1.65TB, PCIe 2.0 x4 Solid State Drive SSD

Of een Pci-e to m.2 adapter en dan combineren met een Kingston A2000 SSD. Die heeft een hele goede prijs/kwaliteit verhouding.

Deze:

product: Kingston A2000

Met bijvoorbeeld deze adapter:
pricewatch: Akasa M.2 SSD to PCIe adapter card AK-PCCM2P-01

[ Voor 90% gewijzigd door Operations op 04-10-2019 11:45 ]

PC1: ASUS B850-Plus WiFi -- 9900X incl. X72 -- 64GB DDR5-6000Mhz -- Kingston Fury Renegade G5 2TB -- DELL 4025QW | Servers: 2x DELL R730 -- E5-2660 v4 -- 256GB -- Synology DS3617xs: 4x1,92TB SSD RAID F1 -- 6x8TB WD Purple RAID5


  • Justin0017
  • Registratie: Augustus 2016
  • Laatst online: 22-10-2025
Operations schreef op vrijdag 4 oktober 2019 @ 11:28:
@Justin0017 ,
Jouw Asus bordje (heb er zelf ook nog twee liggen :) ) heeft PCI-E 2.0 gleuven (geen 3.0 en dus ook zeker geen 4.0 )Dus de maximale snelheid van een nieuwe (snelle) NVME SSD ga je niet halen. (Weet ik bijna zeker, check ik nog even)

Dus koop sowieso geen Gen4 SSD. Of hou er rekening mee dat je niet de geadverteerde snelheid haalt :p En wil je ook booten van die nieuwe ssd?

Ik gebruik twee van deze dingen. Mssn een optie voor jou:

V&A aangeboden: Fusion-io Scale 2 1.65TB, PCIe 2.0 x4 Solid State Drive SSD

Of een Pci-e to m.2 adapter en dan combineren met een Kingston A2000 SSD. Die heeft een hele goede prijs/kwaliteit verhouding.

Deze:

product: Kingston A2000

Met deze adapter:
Heb jij toevallig ook nog geheugen liggen? Of een typenummer voor het geheugen dat jij hebt? Hier ben ik ook nog naar opzoek

PC: Intel Core i7 7740X, 16GB RAM, MSI X299 RAIDER, RTX2070 | Server: 2x Xeon E5-2620v4, 192GB DDR3R


  • Operations
  • Registratie: Juni 2001
  • Laatst online: 23-01 09:38
Justin0017 schreef op vrijdag 4 oktober 2019 @ 11:38:
[...]


Heb jij toevallig ook nog geheugen liggen? Of een typenummer voor het geheugen dat jij hebt? Hier ben ik ook nog naar opzoek
Ja hoor dat heb ik wel liggen, sterker nog zit netjes nog op de bordjes. Ik heb je een privé bericht gestuurd.

[ Voor 5% gewijzigd door Operations op 04-10-2019 11:46 ]

PC1: ASUS B850-Plus WiFi -- 9900X incl. X72 -- 64GB DDR5-6000Mhz -- Kingston Fury Renegade G5 2TB -- DELL 4025QW | Servers: 2x DELL R730 -- E5-2660 v4 -- 256GB -- Synology DS3617xs: 4x1,92TB SSD RAID F1 -- 6x8TB WD Purple RAID5


  • Paul
  • Registratie: September 2000
  • Laatst online: 19:13
Justin0017 schreef op vrijdag 4 oktober 2019 @ 11:17:
Het moederbord die ik heb is een Asus Z8NA-D6, weliswaar een oudje maar genoeg voor wat ik wil :D
Dual 1366 :o Niet de meest zuinige optie :+ Aan de andere kant, als je dit al hebt...

Ik zou met een ICH controller en VMware geen raid draaien. SSD is (zeker voor een test-server) snel genoeg zonder RAID, en ik weet niet zeker of VMware je RAID-array überhaupt ziet. Afhankelijk van welke versie van vSphere je gaat draaien kan het zelfs zijn dat je zelf een driver in de ISO moet frotten voordat je kunt installeren, de ICH10R is al oud en ik meen te hebben begrepen dat VMware lijkt de Intel SATA-controllers niet meer actief ondersteunt.

Als je besluit de SSD's te vervangen door één NVME schijf, dan moet je wel zorgen dat je VMware nog kunt booten, want je moederbord kan niet opstarten vanaf een NVME schijf. Daar moet je dan dus een SATA-schijfje (SSD of spinning disk) of een USB-stick voor gebruiken.

Mag ik uit Justin0017 in "Raid controller, welke te kopen?" opmaken dat je 4 SSD's samen richting de 500 GB gaan en ze per stuk dus gemiddeld 128 GB groot zijn? Als je geen memory overcommit wil je in dat geval waarschijnlijk het geheugen op 'all memory reserved' zetten, om te voorkomen dat VMware een swap-file ter grootte van de hoeveelheid RAM die je aan de guest geeft aan wil maken. Ik dacht zelf een ZFS VM op een 40 GB SSD te zetten; OS-disk was maar 8 GB maar samen met de 64 GB RAM (ja, dat lees je goed :P Ik had nog een aantal modules slingeren uit oude servers...) die ik had toegewezen om met dedup te gaan spelen ging dat niet goed zonder die reservering :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


  • Operations
  • Registratie: Juni 2001
  • Laatst online: 23-01 09:38
@Paul en @Justin0017

Hij zit met PCI-E 2.0. Een 970 EVO is (iets) sneller dan een Kingston A2000, maar flink duurder (procentueel gezien). Scheelt bijna 40 euro even snel gekeken. (500GB)

Alhoewel ik normaal gesproken ook vaak Samsung zou aanbevelen, ben ik van mening dat een Kingston A2000 in dit geval een betere keuze is.

970 Evo:
pricewatch: Samsung 970 EVO 500GB

A2000:
pricewatch: Kingston A2000 500GB

105 euro vs 70 Euro.... (ongeveer)

[ Voor 44% gewijzigd door Operations op 04-10-2019 11:59 ]

PC1: ASUS B850-Plus WiFi -- 9900X incl. X72 -- 64GB DDR5-6000Mhz -- Kingston Fury Renegade G5 2TB -- DELL 4025QW | Servers: 2x DELL R730 -- E5-2660 v4 -- 256GB -- Synology DS3617xs: 4x1,92TB SSD RAID F1 -- 6x8TB WD Purple RAID5


  • Paul
  • Registratie: September 2000
  • Laatst online: 19:13
Operations schreef op vrijdag 4 oktober 2019 @ 11:28:
@Justin0017 ,
Jouw Asus bordje (heb er zelf ook nog twee liggen :) ) heeft PCI-E 2.0 gleuven (geen 3.0 en dus ook zeker geen 4.0 )Dus de maximale snelheid van een nieuwe (snelle) NVME SSD ga je niet halen. (Weet ik bijna zeker, check ik nog even)
Operations schreef op vrijdag 4 oktober 2019 @ 11:51:
@Paul en @Justin0017

Hij zit met PCI-E 2.0. Een 970 EVO is (iets) sneller dan een Kingston A2000, maar redelijk wat duurder.
A2000 is inderdaad beduidend goedkoper per GB, maar ook langzamer. PCIe 2.0 4x doet nog altijd 2000 MB/s. Niet de max van zo'n moderne SSD, maar throughput is minder belangrijk dan latency / IOPS, en daar draagt een moderne controller ook aan bij. Bij de A2000 speelt ook mee dat deze geen cache heeft.

Zo'n FusionIO is zeker een goede keuze, en meer opslag voor hetzelfde geld, maar met een nieuwe SSD heb je garantie, en als je de server upgrade naar een moderner moederbord / CPU heb je ook meteen meer performance.

Voor alle drie valt wat te zeggen (snelheid versus budget versus capaciteit), aan @Justin0017 om de keuze te maken :P Zelf ben ik genegen om voor de VM's (of je eigen OS) een 'snelle' SSD te halen zoals de Samsung en voor de data een 'bulk' SSD zoals de A2000 :)

Zelf heb ik nog een (ondertussen oude) Samsung 950 Pro, als ik er een 'bulk' SSD bij zou zetten zou die bijna sneller zijn dan mijn oude 'snelle' :+ https://tweakers.net/pric...6;1439052;1439056;463644/

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock

Pagina: 1