Verwijderd

clonedonkey schreef op woensdag 29 juni 2011 @ 18:56:
Heb op dit moment 3gb ram erin zitten. Zal dus UFS worden. Wat zijn eigenlijk basic gezegt de grootste verschillen ? Kan niet echt een vergelijking vinden tussen de twee
dutch_warrior schreef op woensdag 29 juni 2011 @ 19:17:
Let wel op dat je met 1 disk en 3GiB ram niet veel voordeel gaat hebben van ZFS, de prestaties zullen tegenvallen en de data bescherming zal nauwelijks beter zijn als bij UFS.
Wanneer je net begint en een nas inricht als test is UFS misschien de betere keuze.
Daar ben ik het niet helemaal mee eens. ZFS werkt met single disk pools vrij aardig ook met minder geheugen. Het is vooral met RAID-Z dat je meer geheugen wilt hebben.

UFS is vrij ouderwets; net als NTFS en Ext3/4. Geen enkele bescherming van metadata, alleen offline filesystem checks, gewoon een stuk foutgevoeliger.

ZFS is ook voor single disks veiliger:
1) je hebt redundante metadata (ditto copies) ook op een single disk pool; je metadata zal dus niet gauw stuk gaan bij bijvoorbeeld een bad sector
2) je hebt online filesystem checks; je hoeft niet perse een check te doen aangezien alle I/O automatisch problemen oplost die ZFS tegenkomt
3) mocht er zich corruptie voordoen in files, dan zie je precies welke; geen silent corruption meer dus

ZFS in met random I/O ook sneller dan UFS, wel kan ZFS een zaagtand performance geven waar streaming reads last van kunnen hebben. Dat laatste zou echter nauwelijks voor moeten komen met single disk pools.

Dus ik zou zeggen: probeer ZFS en pas als je problemen met streaming reads krijgt (tijdens het schrijven geen filmpje kunnen kijken zonder schokken en stoten) naar UFS terug.
whocarez schreef op woensdag 29 juni 2011 @ 19:56:
Als ik jullie zo steeds begrijp heb je 1gb per 1tb aan zfs storage nodig.
Mijn doel is om 2 intel kaarten te gebruiken en de onboard sata aansluitingen. Dan heb ik in totaal een 22 aansluitingen x 2tb = 44Tb laat zeggen verdeeld over 2 raidz2 sets heb je 40gb effectieve storage.
Betekend dat dat je 44gb aan geheugen moet hebben wil je dit laten performen of is er een reken sommetje en houd het bijvoorbeeld bij 8gb op en verliest iedere gb extra zijn meerwaarde?
Bij zo'n grote pool wil je best wat RAM hebben; ik zou voor 16GiB (4x4GiB) gaan, liefst ECC als je platform dat ondersteunt.

Merk op dat voor L2ARC en deduplication extra RAM nodig is; dan kun je met 16 gigabyte nog redelijk beperkt zitten en niet alle ruimte op een L2ARC disk kunnen gebruiken. Voor zo'n build zou ik minimaal twee Intel 320 SSDs erbij doen, voor SLOG en L2ARC.
dutch_warrior schreef op woensdag 29 juni 2011 @ 21:08:
Mijn begrip van ZFS is dat je een pool vult met vdevs, in een vdev zouden eigenlijk niet meer dan 9 devices moeten zitten, maar hoe maak je hiermee dan een 10 disk raidz-2 ?
Of is het 9 devices advies al achterhaald ?
Dat is achterhaald. Hoe meer devices in een RAID-Z des te hoger de latency wordt. Een RAID-Z of RAID-Z2 met 4 miljoen schijven (theoretisch) heeft de random I/O performance van een enkele disk (en lager dat dat door alle toegenomen latencies). Het is dus beter om meerdere vdevs aan te maken. Dat getal van 9 is gewoon uit de lucht gegrepen om ergens een limiet op te plaatsen, en houdt geen rekening met 4K sector schijven waarbij een 10 disk RAID-Z2 veel betere performance zal leveren dan een 9 disk RAID-Z2.

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Oke bedankt voor de uitleg CiPHER :).
Mijn advies aan Clone Donkey was vooral gebaseerd op mijn eigen ervaring, ik ben nu al een tijdje aan het meelezen in diverse topics hier maar nog steeds leer ik iedere dag nieuw dingen over ZFS.
Er zijn zoveel factoren welke bij ZFS van invloed kunnen zijn dat het wanneer je net begint met Freenas misschien makkelijker is om UFS als test te gebruiken.
Ik wist inderdaad ook niet dat de single disk performance bij weinig ram nog wel oke is, weer iets geleerd :).
Is de performance van mirrors ook minder ram afhankelijk ?

[ Voor 87% gewijzigd door dutch_warrior op 29-06-2011 21:43 ]


Verwijderd

een pool kan bestaan uit meerdere vdev's en een vdev kan weer bestaan uit single disk/mirror/raidz(1-3)

[ Voor 3% gewijzigd door Verwijderd op 29-06-2011 22:07 ]


  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Ja dat snapte ik al wel, staat ook in mijn post ;) .

@Borroz:
Waarschijnlijk moet ik gewoon minder vaak mijn posts bewerken :P.
He damn nu doe ik het weer.

[ Voor 50% gewijzigd door dutch_warrior op 29-06-2011 21:49 ]


Verwijderd

dutch_warrior schreef op woensdag 29 juni 2011 @ 21:39:
Ja dat snapte ik al wel, staat ook in mijn post ;) .
oeps sorry.. ben ook met 10 dingen tegelijk bezig (schaken :) )

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01-02 16:17
Verwijderd schreef op woensdag 29 juni 2011 @ 21:42:
oeps sorry.. ben ook met 10 dingen tegelijk bezig (schaken :) )
Ga eens snel terug naar je ESX bak en testen wat er maar te testen valt !! ;)

In mijn eigen test-labje gaat alles voorspoedig.
Ik heb in ESX een Ubuntu VM draaien met een mdadm RAID6. DIe biedt ik vervolgens via NFS weer aan aan ESX als datastore.
In eerste instantie werkte dat erg traag, maar even zoeken leverde op dat ik de NFS export met de optie 'async' moet doen, waar ik 'sync' had staan. Dat scheelt zomaar een dikke factor 10.
Op die NFS datastore draait een WIndows Server VM en die boot nu in zo'n 15 seconden op (van power off tot de ctrl-alt-del message).

Bij rebooten van de ESX machine wordt eerst netjes de Windows VM afgesloten, dan de LInux machine.
Als ESX weer geboot is wordt eerst de Linux VM gestart (zodat de NFS datastore beschikbaar is) en zodra die up is start de Windows Server VM.

* Sleepie gaat ESX steeds leuker vinden

  • Spoooky
  • Registratie: September 2002
  • Laatst online: 29-01 18:04

Spoooky

Core temp 37°C

Verwijderd schreef op woensdag 29 juni 2011 @ 21:05:
[...]


ja is goed spul .. verder een *** zaak .. zit al 2 maanden op mijn kapotte qnap439 te wachten :)
Geen uitzicht op wanneer ze er klaar mee zijn? Of is hij gewoon naar de fabrikant gestuurd? Heb namelijk best goede ervaringen met die zaak...

Ik ben spuit 1011, aangenaam!


Verwijderd

Spoooky schreef op woensdag 29 juni 2011 @ 21:58:
[...]


Geen uitzicht op wanneer ze er klaar mee zijn? Of is hij gewoon naar de fabrikant gestuurd? Heb namelijk best goede ervaringen met die zaak...
hij had er al moeten zijn..maar ik ben niet iemand die 6 x gaat vragen 'waar blijftie nou'.. op 14-7 meld de klantenservice dattie nu echt binnen 7 werkdagen klaar moet zijn.. (na 5 weken) .. dus uh.. verder prima zaak daar niet van, maar je moet geen kapotte qnap hebben 8)

Verwijderd

dutch_warrior schreef op woensdag 29 juni 2011 @ 21:30:
Er zijn zoveel factoren welke bij ZFS van invloed kunnen zijn dat het wanneer je net begint met Freenas misschien makkelijker is om UFS als test te gebruiken.
UFS is vooral handig voor systemen met 512MB RAM ofzo; UFS heeft eigenlijk geen RAM nodig; het gebruikt wel alle aanwezige RAM als filecache; maar dat is niet strict nodig. Met 64MB RAM zou je met UFS in principe geen verschil merken t.o.v. 512MB; aangenomen dat je verder geen/weinig processes draait want die moeten natuurlijk wel genoeg hebben. Maar in principe kun je met heel weinig RAM af zonder dat dit ten koste gaat van filesystem performance, hooguit dat je vrijwel geen filecache hebt waardoor je veelgelezen bestanden niet vanuit de RAM kunt serveren.

ZFS is heel anders en daarvoor geldt dat je eigenlijk geen RAM genoeg kunt hebben. RAM is bijna altijd een bottleneck bij ZFS. Maar het is maar hoe je het bekijkt. 1GB RAM en ZFS met een simpele array kan je genoeg performance geven, b.v. een enkele mirror of een single disk. Zelfs bij wat zwaardere configs kan het voldoende zijn; maar je zult dan wel potentiële performance laten liggen, en vaak heb je met weinig RAM tuning nodig om het smooth te laten draaien.

Voor zware pools zoals een grote RAID-Z geldt dat je al snel een sloot geheugen wilt hebben, zodat ZFS de schijven aan het werk kan houden. Met te weinig geheugen zullen de schijven periodiek stil komen te liggen en dan weer keihard gaan schrijven, dan krijg je een 'zaagtand' performance grafiek waarbij af en toe de I/O vanuit gebruikersperspectief stil komt te liggen. Dit is absoluut niet fijn als je een filmpje wilt kijken terwijl je wat bestanden aan het kopiëren bent op je NAS; dat gaat dan niet lekker.

Met genoeg geheugen kan ZFS de schijven bezig houden terwijl het nieuwe transactie groups aan het verzamelen is. Die transaction groups is de hoofdreden dat ZFS zoveel baat heeft bij extra geheugen. In tegenstelling tot andere filesystems verwerkt ZFS alle writes in transacties, ongeveer zoals een (transactional) database dat doet. Het punt is dat terwijl de huidige transaction group bezig is naar disk geschreven te worden je genoeg RAM wilt hebben om aan de volgende transaction group te beginnen, zodat vanuit het perspectief van de gebruiker de I/O niet stil komt te liggen. Intern is ZFS dan nog bezig de I/O van de vorige txg te verwerken. Transaction groups kun je tunen op meerdere manieren, zoals het aantal seconden waar ZFS op moet mikken, b.v. 5 of 10 seconden. Daarnaast geldt er een timeout, vaak 30 seconden, langer mag een txg niet duren. Dan kun je nog een absolute override opgeven in megabytes, bijvoorbeeld door transaction groups van 256MiB te maken ofzo.

Bij ZFS geldt dat als je het maximale uit je hardware wilt halen je moet tunen en moet benchmarken/testen wat de optimale settings zijn voor jouw systeem. Maar als je genoeg RAM hebt dan zijn de defaults vaak prima en je hoeft ook niet altijd het onderste uit de kan te halen. Het belangrijkste bij ZFS is de veiligheid van je data.

Dat laatste is ook een argument om voor ZFS ipv UFS te kiezen, ook voor beginnende gebruikers. Met UFS zeker met software RAID5 kun je nog wel eens gezeik krijgen met corruptie enzo. ZFS is eigenlijk 'maintenance free' dus maak een pool en je kunt er data op pleuren en verder nooit meer iets qua onderhoud te hoeven doen. Bij UFS moet je unmounten om een filesystem check uit te voeren, en corruptie bij UFS kan ernstige gevolgen hebben. Ook mis je sexy snapshots en vele andere features die ZFS wel heeft, en zelfs voor beginnende gebruikers life-savers kunnen zijn. Snapshots in combinatie met Apple Time Machine zijn bijvoorbeeld aardig krachtig en bieden een toegevoegde waarde voor beginnende gebruikers. Wel geldt dat ZFS een enterprise storage systeem is, en je dus een frontend wilt hebben voor mensen die niet bekend zijn met UNIX omgevingen. FreeNAS is denk ik een prima keus daarin.

  • oddish2211
  • Registratie: Januari 2007
  • Laatst online: 30-01 13:36
even een vraag voor de mensen met een 4-in-3 device module van cooler master. Is het mogelijk om het cooler master frontje eraf te halen zodat ik hem netjes achter mijn huidige (standaard) 5,25" frontjes kan plaatsen? dat ziet er vind ik wat netter uit.

  • parcifal
  • Registratie: September 2007
  • Laatst online: 14-02-2021
oddish2211 schreef op woensdag 29 juni 2011 @ 22:37:
even een vraag voor de mensen met een 4-in-3 device module van cooler master. Is het mogelijk om het cooler master frontje eraf te halen zodat ik hem netjes achter mijn huidige (standaard) 5,25" frontjes kan plaatsen? dat ziet er vind ik wat netter uit.
Heb hier een LianLi 4in3 module in een CM690 kast ,
ik kon daarbij de standaard frontjes van CM aan de 4in3 bevestigen dmv de lipjes van de frontjes om de bay heen te buigen met een combinatietang en t resultaat is perfect , aan de kast zie je niet dat er een 4in3 inzit
maar kan de bay wel nog gewoon uit de kast schuiven , ik weet niet hoe t met de CM bay is maar mogelijk dat je dat daar ook op die manier mee kan doen

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
oddish2211 schreef op woensdag 29 juni 2011 @ 22:37:
even een vraag voor de mensen met een 4-in-3 device module van cooler master. Is het mogelijk om het cooler master frontje eraf te halen zodat ik hem netjes achter mijn huidige (standaard) 5,25" frontjes kan plaatsen? dat ziet er vind ik wat netter uit.
Ja, dit is vrij eenvoudig, de fan zit vast op de bay zelf.
Zie ook hier.

  • clonedonkey
  • Registratie: Augustus 2003
  • Laatst online: 12:15
Ik ben mijn NAS aan het testen en merk dat ik niet boven de 11mb/s kan komen met fileoverdracht. En dit terwijl hij aan een 1gb netwerk zit. Nu kunnen dit soort dingen natuurlijk meerdere oorzaken hebben maar hoe kan ik het beste te werk gaan om het probleem te vinden en op te lossen ?

Verwijderd

Met iPerf de netwerkthroughput testen; als je geen 950 megabit haalt dan zit er iets fout in je netwerk configuratie of hardware.

  • onox
  • Registratie: Februari 2006
  • Laatst online: 18-05-2025
CiPHER: is het nou ook zo dat ZFS het geheugen ook vult? (Als in bijna 8 GiB compleet volgestouwd) En kun je kernel panics verwachten met te weinig RAM? Want ten tijde van het FreeBSD 7.0 beta tijdperk, draaide ik ZFS op 1 simpele 80 GB schijf (op een 686 met 576MiB geheugen :X) en terwijl ik niks deed en alle verschillende system monitors redelijk laag RAM gebruik lieten zien, kon ik een random uptime tussen enkele minuten en vele uren verwachten (kernel panic aan het einde van de uptime 8)7) Hoewel ik weet dat je ZFS eigenlijk alleen op een 64-bit systeem moet draaien, heb ik nooit echt begrepen waarom er op random tijdstippen kernel panics optraden... (Lijkt me toch dat het filesysteem gewoon bij het booten van het OS direct moet zeggen "hey harrie, ga eens wat reepjes kopen :z ")

Verwijderd

Onder 32-bit kun je kernel panics verwachten met "kmem_map too small" - een teken dat het kernel geheugen ontoereikend is. Onder 64-bit zou je met moderne ZFS (vanaf v13) geen kernel panics meer mogen krijgen; al is dat in sommige (extreme) gevallen nog wel zo. Simpelweg maximale load op ZFS zetten en een uurtje laten draaien zou uitsluitsel moeten geven of het stabiel draait. Maar eigenlijk heb je hier tegenwoordig geen last meer van; alleen op 32-bit systemen.

En ja, ZFS kan rustig 128 gig aan RAM slurpen. Zoveel als je wilt eigenlijk. Je kunt in 'top' output zien hoeveel geheugen ZFS slurpt; onder 'wired' wordt het kernel geheugen weergegeven wat voornamelijk door ZFS gebruikt zal worden. 'Used' is wat normale apps gebruiken (normaliter zo'n 40MB) en 'Inact' is caches van UFS wat ook heel groot kan worden tenzij je geen UFS gebruikt dan een paar MB van overige caches. Free geheugen is verspild geheugen; dat hoort eigenlijk heel laag te zijn.

ZFS gebruikt geheugen voor diverse doeleinden; bijvoorbeeld het heeft een cache (ARC: Adaptive Replacement Cache) van data met meest recent opgevraagde data en een cache van data welke het meest is opgevraagd maar dat kan uren terug zijn; die twee pools worden onafhankelijk van elkaar gehouden zodat een groot bestand inlezen niet je 'waardevolle' caches wegdondert. Verder veel buffers voor transaction groups, vdev buffers en nog wat meuk.

Onder Solaris werkt de memory management interface van ZFS heel anders dus hierboven geldt voornamelijk voor FreeBSD.

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01-02 16:17
Ik wil een SSD bootdiskje gaan bestellen voor mn ESX machine. Het idee is om naast de ESX boot-partitie nog wat plaats over te houden voor 1 of 2 Linux based VMs.
Ik kom dan uit op de volgende twee opties:
pricewatch: Kingston SSDNow S100 SS100S2/16G 16GB
pricewatch: Kingston SSDNow V Series SNV125-S2/30GB 30GB

Twee verschillende series van Kingston dus (S-serie en V-serie), maar ik heb zelf geen idee wat het verschil daartussen is. Mijn voorkeur gaat uit naar de 30GB versie (daar kan ik dan makkelijk een paar Linux VMs en wat install ISOs op kwijt).

De vraag is (aan degenen hier die er wel verstand van hebben ;) ) of er verschillen zijn in de twee genoemde opties die de ene meer geschikt maken als bootdisk voor ESX dan de andere, of maakt het (behalve de grootte) verder niks uit?

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Ik had gisteren een mailtje gestuurd aan ri-vier over het verschil tussen de norco backplanes.
Daarnaast had ik het er met Borroz ook nog over gehad via DM ;).

Eigenlijk maakt het geen verschil maar de nieuwste versie van de backplane is dus wel degelijk de SAW400PM.
Quote:"De laatste versie backplane is SAW400PM V31. Deze is ook compatibel met de
nieuwste verse case n.l. de RPC-4224."

Verder maakt het dus eigenlijk niets uit, op de norco forums las ik nog iets over dat op 1 van beide varianten componenten voor signalling aanwezig zijn, hiervoor moest echter nog wel iets gesoldeerd worden.
Ik ga zelf de SAW400PM bestellen, signalling ga ik toch niet gebruiken.

EDIT: @Sleepie, ik heb er niet echt veel verstand van maar ik weet wel dat je voor ESX moet zoeken naar een SSD met goede garbage collection. Volgens mij gebruikt de 16GB ssd een jmicron controller en de 30GB een Toshiba controller. De 30GB v100 ssd welke ik een maand of 2 geleden heb geplaatst gebruikte in ieder geval wel een toshiba controller. Ik was niet heel erg onder de indruk van de prestaties onder XP.
Maar ben wel benieuwd wat de mensen met wat meer kennis op SSD en storage gebied ervan gaan zeggen.
Als je straks een ssd gebruikt heb je misschien hier nog iets aan.

[ Voor 34% gewijzigd door dutch_warrior op 30-06-2011 10:23 ]


Verwijderd

dutch_warrior schreef op donderdag 30 juni 2011 @ 10:11:
.
Als je straks een ssd gebruikt heb je misschien hier nog iets aan.
' ..this problem does not apply to ESXi ' 8)

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Je hebt gelijk ja maar ik meende dat sleepie bezig is met een ESX omgeving, niet ESXi.
Sowieso hoef je bij ESXi eigenlijk geen SSD als boot drive te gebruiken omdat ESXi zoals ook in dat KB artikel staat werkt met een ramdisk en dus prima vanaf een USB stick of SD kaartje kan draaien.

Verwijderd

dutch_warrior schreef op donderdag 30 juni 2011 @ 10:45:
Je hebt gelijk ja maar ik meende dat sleepie bezig is met een ESX omgeving, niet ESXi.
Sowieso hoef je bij ESXi eigenlijk geen SSD als boot drive te gebruiken omdat ESXi zoals ook in dat KB artikel staat werkt met een ramdisk en dus prima vanaf een USB stick of SD kaartje kan draaien.
klopt.. maar ik gebruik toch een ssd om ESXi van te booten, omdat je dan de resterende ruimte prima kan gebruiken als datastore voor je NAS os VM.. (kan niet met een usb stick) en omdat het wel prettig is om snel te booten in een 'lab/test/speel omgeving

(wanneer ik dan die ssd in raid1 plaats heb ik een beetje beveiliging was mijn insteek)
nou heeft CiPHER het vaak over de intel ssd's van de 320 serie, die kan je eventueel ook nog inzetten als cache wanneer je ZFS zou gaan gebruiken.... (verder heb er ook de ballen verstand van :9)

[ Voor 11% gewijzigd door Verwijderd op 30-06-2011 11:12 ]


  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 13:34

iMars

Full time prutser

Sleepie schreef op donderdag 30 juni 2011 @ 09:26:
Ik wil een SSD bootdiskje gaan bestellen voor mn ESX machine. Het idee is om naast de ESX boot-partitie nog wat plaats over te houden voor 1 of 2 Linux based VMs.
Ik kom dan uit op de volgende twee opties:
pricewatch: Kingston SSDNow S100 SS100S2/16G 16GB
pricewatch: Kingston SSDNow V Series SNV125-S2/30GB 30GB

Twee verschillende series van Kingston dus (S-serie en V-serie), maar ik heb zelf geen idee wat het verschil daartussen is. Mijn voorkeur gaat uit naar de 30GB versie (daar kan ik dan makkelijk een paar Linux VMs en wat install ISOs op kwijt).

De vraag is (aan degenen hier die er wel verstand van hebben ;) ) of er verschillen zijn in de twee genoemde opties die de ene meer geschikt maken als bootdisk voor ESX dan de andere, of maakt het (behalve de grootte) verder niks uit?
Ik heb mij laten vertellen dat de Patriots hun snelheid niet verliezen, terwijl dat weer een bekend probleem zou zijn bij de OCZ modellen (kan ik niet bevestigen, werdt bij Alternate verteld). Ik heb daarvoor een SSDNow 8GB gehad, en die was niet zo snel.

Ik heb nu de Patriot Torqx2 32GB voor 63,90. Ik zie hem niet zo gauw in de pricewatch, maar dit is de link bij Alternate

Koop hier mijn P1 reader :)


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01-02 16:17
@dutch_warrior: Ik typ ESX e ESXi nog wel eens door elkaar, ik draai hier ESXi :) Natuurlijk kun je prima van een USB stick booten, maar zoals ik al zei (en borroz ook al aangeeeft), met een 16 of 32GB SSD-tje heb je nog genoeg ruimte over voor een paar Linux VMs.

@borroz Intel 320 is misschien ook nog een idee ja, maar is weer duurder en bovendien ga ik voorlopig nog geen ZFS draaien.

@iMars: Thanks, ook nog een leuk alternatief.

  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06-2025
nadeel van je ssd gebruiken voor je esxi boot is toekomstige upgrades en geen mogelijkheid tot vmotion wanneer er vm's opstaan.

Verwijderd

whocarez schreef op donderdag 30 juni 2011 @ 11:42:
nadeel van je ssd gebruiken voor je esxi boot is toekomstige upgrades en geen mogelijkheid tot vmotion wanneer er vm's opstaan.
kan je ESXi die op een ssd staat niet upgraden :?

en of geen vmotion nou zo'n nadeel is voor thuisgebruik ..

' Move running virtual machines from one physical server to another with no impact to end users. VMware vMotion keeps your IT environment up and running, giving you unprecedented flexibility and availability to meet the increasing demands of your business and end users. '

[ Voor 36% gewijzigd door Verwijderd op 30-06-2011 11:59 ]


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01-02 16:17
whocarez schreef op donderdag 30 juni 2011 @ 11:42:
nadeel van je ssd gebruiken voor je esxi boot is toekomstige upgrades en geen mogelijkheid tot vmotion wanneer er vm's opstaan.
VMotion vind ik voor thuisgebruik niet echt belangrijk inderdaad.

Maar wat bedoel je precies met 'nadeel voor toekomstige upgrades' ??

  • BlackShadow
  • Registratie: Februari 2002
  • Nu online
Krijg vandaag van mijn computer winkel te horen dat de WD20EARS niet meer te krijgen zijn, dat deze vervangen zijn door de nieuwere WD20EARX.

Wat is eigenlijk het verschil? ik vermoed enkel de interface: SATA 6Gb/s vs SATA 3 Gb/s.
Kan ik deze bestellen om mijn bestaande RAID-5 array (op een Adaptec 5805 controller) met 3 WD20EARS schijven mee uit te breiden? Of ga ik beter op zoek naar de 'oude' versie?

[ Voor 12% gewijzigd door BlackShadow op 30-06-2011 12:46 ]


  • Apache
  • Registratie: Juli 2000
  • Laatst online: 30-01 15:49

Apache

amateur software devver

BlackShadow schreef op donderdag 30 juni 2011 @ 12:31:
Krijg vandaag van mijn computer winkel te horen dat de WD20EARS niet meer te krijgen zijn, dat deze vervangen zijn door de nieuwere WD20EARX.

Wat is eigenlijk het verschil? ik vermoed enkel de interface: SATA 6Gb/s vs SATA 3 Gb/s.
Kan ik deze bestellen om mijn bestaande RAID-5 array (op een Adaptec 5805 controller) met 3 WD20EARS schijven mee uit te breiden? Of ga ik beter op zoek naar de 'oude' versie?
Dit gaat in ieder geval goed bij mij:
(3x) ATA WDC WD10EADS-00L (Direct-Access)
(4x) ATA WDC WD10EACS-00D (Direct-Access)
(3x) ATA WDC WD10EADS-65L (Direct-Access)
(2x) ATA WDC WD10EADS-00M (Direct-Access)

Zelfs in de EADS reeks heb je dus nog verschillen, de disks heb verzameld in ong 3 aankopen, 1x de eacs (6stks) en daarna nog 2x eads disks bijgekocht, deze hangen in een linux softraid configuratie, misschien dat die wat flexibeler is wat disk usage betreft.

If it ain't broken it doesn't have enough features


  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06-2025
Sleepie schreef op donderdag 30 juni 2011 @ 12:26:
[...]

VMotion vind ik voor thuisgebruik niet echt belangrijk inderdaad.

Maar wat bedoel je precies met 'nadeel voor toekomstige upgrades' ??
Vmotion is inderdaad voor thuis gebruik discutabel maar als je zoals ik je servert ook nog wel eens als lab gebruik voor onder andere vmotion,drs en srm. Is het wat lastig

Voor toekomstige upgrades kan het vervelend zijn voor wat betreft je partitionering als je alles te strak hebt afgeregeld.
http://www.boche.net/blog...-a-lost-art-form-in-esxi/
Het is wat je zelf er mee doet maar als je wat meer wilt dan de standaard user kan je partitionering voor toekomstige upgrades zoals esxi 5 voor problemen zorgen. Vandaar dat ik voor een dedicated disk/usb/ssd kies voor me hypervisor om geneuzel te voorkomen.

  • Birdie_NL
  • Registratie: Maart 2008
  • Laatst online: 20-01 18:37
BlackShadow schreef op donderdag 30 juni 2011 @ 12:31:
Krijg vandaag van mijn computer winkel te horen dat de WD20EARS niet meer te krijgen zijn, dat deze vervangen zijn door de nieuwere WD20EARX.

Wat is eigenlijk het verschil? ik vermoed enkel de interface: SATA 6Gb/s vs SATA 3 Gb/s.
Kan ik deze bestellen om mijn bestaande RAID-5 array (op een Adaptec 5805 controller) met 3 WD20EARS schijven mee uit te breiden? Of ga ik beter op zoek naar de 'oude' versie?
Ik heb deze ''fout'' ook gemaakt door WD EARS 2TB schijven te kopen voor mijn (hardware)raid5 setup.
Ik zou toch echt gaan kijken voor een andere type schijven zoals bijv. de Samsung F4.
De WD EARS hebben problemen met cctl en trel. Voor uitleg hierover zou ik even google raadplegen.

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01-02 16:17
whocarez schreef op donderdag 30 juni 2011 @ 13:57:
Vmotion is inderdaad voor thuis gebruik discutabel maar als je zoals ik je servert ook nog wel eens als lab gebruik voor onder andere vmotion,drs en srm. Is het wat lastig

Voor toekomstige upgrades kan het vervelend zijn voor wat betreft je partitionering als je alles te strak hebt afgeregeld.
http://www.boche.net/blog...-a-lost-art-form-in-esxi/
Het is wat je zelf er mee doet maar als je wat meer wilt dan de standaard user kan je partitionering voor toekomstige upgrades zoals esxi 5 voor problemen zorgen. Vandaar dat ik voor een dedicated disk/usb/ssd kies voor me hypervisor om geneuzel te voorkomen.
Zoiets had ik me intussen ook al bedacht.
Omdat je ook nog VMs op die bootschijf zet, kom je dus in de knoei met partities bij ESXi upgrades.

Dan ga ik het gewoon zo oplossen:
- 8GB SSDtje dedicated voor ESXi (in ESXi5 schijnt swap naar ssd te komen)
- 16GB of 32GB SSDtje voor mn Linux VMs
- Windows VMs komen op mn storage pool te staan die vanuit een VM via NFS aan ESXi gegeven wordt.

Dan zit ik helemaal goed volgens mij :)

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 09:46
Voor een ieder die geintreseerd is in de "Highpoint DC7280 32x SATA"

Hij ondersteund geen raid, en is dus gewoon een domme 32 poorts controller
Betreffende controller wordt pas in augustus verwacht.

Het betreft een Storage HBA, en ondersteund dus geen RAID, “Online capacity expansion” en “Online RAID level migration”. Zullen dus niet ondersteund worden.

In JBOD mode misschien wel “Online capacity expansion”.

Echter de specificaties zijn in detail nog niet bekend, maar ik kan die wel even opvragen bij Highpoint.
Met vriendelijke groet,
John Mocnik | European (Sales) and Technical Manager
www.WebConneXXion.com | It's all about your data.

[ Voor 4% gewijzigd door player-x op 30-06-2011 15:59 ]

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Die highpoint controller is hier al vaker voorbij gekomen en CiPHER heeft toen heel duidelijk uit de doeken gedaan waarom er een hele grote kans is dat deze controllen geen goed product zal zijn.
Ik ben overigens wel benieuwd naar die specificaties om te zien in hoeverre CiPHER gelijk gaat krijgen :) .

Zie onder andere deze post.

@Sleepie:
Dat lijkt me inderdaad een goede oplossing, je moet dus alleen 2 ssd's zoeken met goede garbage collection.
Ik lees op XS wat minder positieve verhalen over de 16GB kingston ssd now s100.

[ Voor 42% gewijzigd door dutch_warrior op 30-06-2011 16:40 ]


  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 10:28

OMX2000

By any means necessary...

Is het trouwens een probleem als ik ESXi en mijn VM's (Windows 2008 R2, Ubuntu) vanaf een 96 GB SSD draai? Is dat een groot issue qua performance?

Dè developers podcast in je moerstaal : CodeKlets Podcast


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 01-02 16:39
Waarom zou de grootte van belang zijn voor performance?

Even niets...


Verwijderd

FireDrunk schreef op donderdag 30 juni 2011 @ 17:13:
Waarom zou de grootte van belang zijn voor performance?
vertel dat maar aan Anouk :+

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 19-01 10:48
dutch_warrior schreef op donderdag 30 juni 2011 @ 16:31:
@Sleepie:
Dat lijkt me inderdaad een goede oplossing, je moet dus alleen 2 ssd's zoeken met goede garbage collection.
Ik lees op XS wat minder positieve verhalen over de 16GB kingston ssd now s100.
Ik heb vandaag zelf toevallig 2 x Kingston S100 binnengekregen. Het ging mij overigens niet zozeer om de performance. Tot zo'n uurtje geleden draaide mijn server-OS nog op een enkele Caviar Blue, maar ik wilde mijn OS graag in raid1 gaan draaien.

Omdat ik dan geen (extra) 3,5"-bay kwijt zou zijn en omdat ze lekker stil en zuinig zijn heb ik die SSD's gekocht in plaats van een extra HDD er bij te kopen.

De performance lijkt verder overigens prima. dd met bs=4 doet netjes 280MiB lezen en 70BiB schrijven. Dat is volgens specs. Ik zou zoiets nooit in mijn workstation stoppen, maar als serverschijfje voldoet hij prima. Mijn OS leest of schrijft toch bijna niks van/op die schijven.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 01-02 16:39
I LoLLeD :+ _/-\o_ _O- _O-

Even niets...


  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 10:28

OMX2000

By any means necessary...

FireDrunk schreef op donderdag 30 juni 2011 @ 17:13:
Waarom zou de grootte van belang zijn voor performance?
Ik wil niet de hele schijf stampvol zetten vanwege garbage collection. En wil ook weten of meerdere vm's op een ssd handiger is dan het te verdelen over ssd 's en raid volume.

Dè developers podcast in je moerstaal : CodeKlets Podcast


  • BlackShadow
  • Registratie: Februari 2002
  • Nu online
Verwijderd schreef op zaterdag 19 maart 2011 @ 15:23:
Ik heb geen idee wat voor controller dat is; geen ervaring mee. Je doet er goed aan te informeren (bij HP misschien gewoon?) of deze controller ook goed overweg kan met non-RAID schijven die geen TLER of CCTL hebben om de timeout tot 7 seconden te beperken. Als dat zo is kun je prima WD EARS gebruiken. Bij Samsung heb je wel CCTL en moet je kijken of de controller dit ondersteunt. Bij CCTL moet bij elke boot de controller CCTL inschakelen.

Het is dus afhankelijk van je RAID controller of Samsung F4 of WD EARS goed gaat werken. Ik geef Samsung nog een redelijke kans, denk dat de WD's er snel uitvliegen zodra je eenmaal een paar bad sectors krijgt. Bijna alle RAID controllers verwachten TLER-gedrag, waarbij de schijf nooit langer dan 10 seconde een timeout zal veroorzaken. Gebeurt dat wel, dan denkt de controller dat je schijf kapot is en detached hij hem, terwijl desktop schijven tot wel 120 seconden kunnen doen aan error recovery, terwijl dus maar één sector op de hele schijf onleesbaar is en de schijf echt niet stuk is verder. Dat probleem is in meer detail eerder in dit topic beschreven.

Als de controller zijn eigen accu/BBU heeft, kun je gerust write-back inschakelen. Heb je dat niet koop dan zo'n ding, want write-back gaat véél verschil opleveren vooral in RAID5/6 parity RAID.
Cipher, sorry dat ik een oude post van jou quote, maar ik heb hier nog enkele vraagjes rond.

Heb nu enkele weken een Adaptec 5805 (had ik al langer) met 3 WD20EARS draaien. (Deze schijven heb ik inderdaad gekocht zonder mij eerst voldoende in te lezen.) Tot op heden heb ik er nog geen problemen mee gehad, maar de problemen die ik op internet lees doen mij enorm twijfelen of ik er nog wel zou bij kopen om de array uit te breiden.

Ik vind allerlei tooltjes om problemen op te lossen, maar hier sta ik niet echt voor te springen.
bvb: http://forums.whirlpool.net.au/archive/1367904
Ook is de meeste info die ik vind al iets ouder en lees ik ook over een 'nieuwe' versie van de EARS schijven.

150 euro of meer voor een 2TB RE versie vind ik absoluut te duur.

Hopelijk kan iemand me hierin raad geven.

  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 13:34

iMars

Full time prutser

BlackShadow schreef op donderdag 30 juni 2011 @ 12:31:
Krijg vandaag van mijn computer winkel te horen dat de WD20EARS niet meer te krijgen zijn, dat deze vervangen zijn door de nieuwere WD20EARX.

Wat is eigenlijk het verschil? ik vermoed enkel de interface: SATA 6Gb/s vs SATA 3 Gb/s.
Kan ik deze bestellen om mijn bestaande RAID-5 array (op een Adaptec 5805 controller) met 3 WD20EARS schijven mee uit te breiden? Of ga ik beter op zoek naar de 'oude' versie?
Waarom wil je persee de WD? Ik heb 4x Samsung F4EG gekozen en na wat tweaks haal ik met softraid in RAID5 de volgende snelheden:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
root@iServer:~# ./tuneraid.sh;sync;echo 3 > /proc/sys/vm/drop_caches
read ahead size per device: 3072 blocks (1536kb)
read ahead size of array: 12288 blocks (6144kb)
stripe cache size of devices: 384 pages (1536kb)
setting max sectors kb to match chunk size
setting NCQ queue depth to 1
root@iServer:~# dd if=/dev/zero of=/pool/test.bin bs=1M count=32000
32000+0 records in
32000+0 records out
33554432000 bytes (34 GB) copied, 155.475 s, 216 MB/s
root@iServer:~# dd if=/pool/test.bin of=/dev/null bs=1M count=32000
32000+0 records in
32000+0 records out
33554432000 bytes (34 GB) copied, 90.7514 s, 370 MB/s
root@iServer:~#

216MB/s write == 72MB/s per schijf
370MB/s read == 123,33MB/s per schijf

Koop hier mijn P1 reader :)


  • John2B
  • Registratie: Mei 2000
  • Laatst online: 01-02 14:03

John2B

I Love RAID5..!!

Zo...dure kabel ...

Waarom niet direct zoeken in de tweakers pricewatch ??

pricewatch unsorted: AMCC Cable for Escalade and 9500S (CBL-SFF8087OCF-10M)

A friendship founded on business is better than a business founded on friendship


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 01-02 16:39
Mogen we ook de inhoud van dat scriptje? :)

Even niets...


  • JTibben
  • Registratie: Juli 2010
  • Laatst online: 23-01 12:25
Even een kort vraagje.

Stel ik wil een raid starten en ik zit aan 3 schijven van 2 TB in RAID 5 te denken. Maar de mogelijkheid is zeer groot dat ik er binnenkort nog een aantal schijven bij wil prikken, in die RAID 5 opstelling. Als ik het goed heb dan kan dat gewoon makkelijk in WHS 2008 toch? Maar niet in 2011? Of moet ik daarvoor een dure RAID controller aanschaffen? De snelheid maakt me op zich niet zo heel veel uit, zolang ik maar 50GB blu-rays kan pompen naar mijn HTPC.

Helaas heb ik totaal geen verstand van Linux dus ben ik bang dat dat hem niet gaat worden.

edit:
Of is Intel RAID Controller SASUC8I daar ook geschikt voor? Deze is toch goed voor 8 sata schijven en kan ook RAID 5 expanden als ik het goed begrijp? Daarvan is de prijs nog wel een keer op te brengen!

edit2: Ahh nu zie ik dat die geen RAID 5 doet...

[ Voor 18% gewijzigd door JTibben op 01-07-2011 09:00 ]


  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 13:34

iMars

Full time prutser

Koop hier mijn P1 reader :)


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 01-02 16:39
En vanwaar dat echo 3 > /proc/sys/vm/drop_caches?
Ah, gevonden, het is een commando om je cache te legen :)

[ Voor 37% gewijzigd door FireDrunk op 01-07-2011 09:07 ]

Even niets...


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 19-01 10:48
JTibben schreef op vrijdag 01 juli 2011 @ 08:49:
Even een kort vraagje.

Stel ik wil een raid starten en ik zit aan 3 schijven van 2 TB in RAID 5 te denken. Maar de mogelijkheid is zeer groot dat ik er binnenkort nog een aantal schijven bij wil prikken, in die RAID 5 opstelling. Als ik het goed heb dan kan dat gewoon makkelijk in WHS 2008 toch? Maar niet in 2011? Of moet ik daarvoor een dure RAID controller aanschaffen? De snelheid maakt me op zich niet zo heel veel uit, zolang ik maar 50GB blu-rays kan pompen naar mijn HTPC.

Helaas heb ik totaal geen verstand van Linux dus ben ik bang dat dat hem niet gaat worden.

edit:
Of is Intel RAID Controller SASUC8I daar ook geschikt voor? Deze is toch goed voor 8 sata schijven en kan ook RAID 5 expanden als ik het goed begrijp? Daarvan is de prijs nog wel een keer op te brengen!

edit2: Ahh nu zie ik dat die geen RAID 5 doet...
De SASUC8I of andere LSI based kaartjes worden voornamelijk gebruikt voor software raid 5. Gewoon als SAS/SATA controller dus.

Zelf heb ik weer totaal geen verstand van Windows, maar wat ik heb gehoord is dat de performance softwarematige raid 5/6 zwaar onder de maat is. Nu weet ik niet hoeveel je om snelheid geeft, maar een gigabitverbending ga je waarschijnlijk niet voltrekken.

Als je RAID met pariteiten wilt onder Windows zou ik toch echt voor een hardwarematige oplossing gaan. De Areca 1220 doet het altijd goed (zeker icm Hitachi's).

P.S. 50GB aan Bluray's? Dat is dus 1 Bluray, toch? :P

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 13:34

iMars

Full time prutser

FireDrunk schreef op vrijdag 01 juli 2011 @ 09:06:
En vanwaar dat echo 3 > /proc/sys/vm/drop_caches?
Ah, gevonden, het is een commando om je cache te legen :)
Precies, ik wist het ook niet, maar leer elke dag weer wat bij ;)

Koop hier mijn P1 reader :)


  • JTibben
  • Registratie: Juli 2010
  • Laatst online: 23-01 12:25
HarmoniousVibe schreef op vrijdag 01 juli 2011 @ 09:11:
[...]

De SASUC8I of andere LSI based kaartjes worden voornamelijk gebruikt voor software raid 5. Gewoon als SAS/SATA controller dus.

Zelf heb ik weer totaal geen verstand van Windows, maar wat ik heb gehoord is dat de performance softwarematige raid 5/6 zwaar onder de maat is. Nu weet ik niet hoeveel je om snelheid geeft, maar een gigabitverbending ga je waarschijnlijk niet voltrekken.

Als je RAID met pariteiten wilt onder Windows zou ik toch echt voor een hardwarematige oplossing gaan. De Areca 1220 doet het altijd goed (zeker icm Hitachi's).

P.S. 50GB aan Bluray's? Dat is dus 1 Bluray, toch? :P
Haha ja dat is 1 Blu-ray :) Zolang die dat trekt ben ik tevreden :)

Maar ik heb even snel naar die Areca gekeken, maar die dingen zijn niet goedkoop zeg :) Misschien dat er 2e hands iets op de kop te tikken is.

In ieder geval bedankt voor je snelle reactie!

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
HP Smart array P400 256MB komt nog wel eens langs in de VA, deze doet precies wat jij wilt en presteert onder Windows voldoende.Ik weet alleen niet of WHS de drivers allemaal pakt, verwacht van wel maar misschien dat iemand anders dit kan bevestigen?

  • brederodekater
  • Registratie: Maart 2006
  • Laatst online: 10-06-2025
dutch_warrior schreef op vrijdag 01 juli 2011 @ 09:20:
HP Smart array P400 256MB komt nog wel eens langs in de VA, deze doet precies wat jij wilt en presteert onder Windows voldoende.Ik weet alleen niet of WHS de drivers allemaal pakt, verwacht van wel maar misschien dat iemand anders dit kan bevestigen?
WHS is gewoon een gestripte versie van Windows Server 2003 of 2008 R2. Mijn ervaring is dat je gewoon dezelfde hardware ondersteuning zult hebbent.

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 19-01 19:54
Ik heb al een maand of twee succesvol een server draaien met een Intel SASUC8I erin. Deze kaart heb ik geflasht naar IT firmware zodat deze zich gedraagt als een HBA (Sata controller). Er zijn 7 WD EARS op aangesloten. Echter...nu is het mij opgevallen dat de aangesloten hardeschijven niet in spindown gaan als ze een tijdje niet gebruikt worden. Enig onderzoek leverde mij op dat de Intel kaart geen spindown ondersteunt en dat vind ik erg jammer. Kent iemand misschien een manier om toch een spindown van de aangesloten hardeschijven te krijgen?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 01-02 16:39
Zie mijn posts een paar pagina's terug, daar staat hoe je het onder Linux moet doen... Als je windows gebruikt heb ik geen idee.
iMars schreef op vrijdag 01 juli 2011 @ 09:11:
Precies, ik wist het ook niet, maar leer elke dag weer wat bij ;)
@iMars,

Jou scriptje sloopt (zoals ik kan lezen) geen data toch? :)

[ Voor 49% gewijzigd door FireDrunk op 01-07-2011 10:20 ]

Even niets...


  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 13:34

iMars

Full time prutser

FireDrunk schreef op vrijdag 01 juli 2011 @ 10:15:
Zie mijn posts een paar pagina's terug, daar staat hoe je het onder Linux moet doen... Als je windows gebruikt heb ik geen idee.


[...]


@iMars,

Jou scriptje sloopt (zoals ik kan lezen) geen data toch? :)
Niet dat ik weet, denk het niet, maar die garantie geef ik je niet. Ik wil het voor je testen vanavond door er wat data op te zetten?

Het leest uit welke schijven je hebt, en stelt vervolgens wat parameters in... zover ik het script kan interpreteren.

Koop hier mijn P1 reader :)


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 01-02 16:39
Mjah, heb nog wel een 2e array, maar die is eigenlijk RAID0, dus dat is lastig denk ik.

Even niets...


  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 13:03
Gisteren de hardware van mijn oude kast naar mijn nieuwe kast overgezet.
Even laten booten om te kijken of alles werkt. Alles ging netjes en aan en de bios zag 3x 2TB disken.
Morgenochtend ga ik Debian installeren en kan hij heel de dag aan de gang met een mdadm array opbouwen.
Zal morgen wat foto's posten en misschien later op de dag resultaten.

  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 22-01 08:08

TrailBlazer

Karnemelk FTW

zo mobo/proc/geheugen ook besteld voor mijn NAS.
De ASUS M4A88T-V EVO sAM3, 4 GB geheugen en een AMD Athlon II X2 265, sAM3. Allemaal niet op voorraad maar ik heb geen haast van mijn Transcend IDE module is er ook voorlopig nog niet. Als die binnen is kan ik in ieder geval linux gaan configgen.

Nog even kijken hoeveel en welke schijven ik er in stop voor de raid array.

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 19-01 19:54
FireDrunk schreef op vrijdag 01 juli 2011 @ 10:15:
Zie mijn posts een paar pagina's terug, daar staat hoe je het onder Linux moet doen... Als je windows gebruikt heb ik geen idee.
Ik gebruik Windows 7 idd. Lijkt me dat er toch wel een manier moet zijn om de op de SASUC8I aangelsoten hdd's een spindown te laten uitvoeren bij een bepaalde tijd inactiviteit. De waarde die ik in Windows opgeef heeft in ieder geval dat effect niet. Ik hou me aanbevolen voor tips en truuks.

  • parcifal
  • Registratie: September 2007
  • Laatst online: 14-02-2021
-Moondust- schreef op vrijdag 01 juli 2011 @ 14:37:
[...]

Ik gebruik Windows 7 idd. Lijkt me dat er toch wel een manier moet zijn om de op de SASUC8I aangelsoten hdd's een spindown te laten uitvoeren bij een bepaalde tijd inactiviteit. De waarde die ik in Windows opgeef heeft in ieder geval dat effect niet. Ik hou me aanbevolen voor tips en truuks.
Ik heb ergens gelezen bij Highpoint dat WD schijven geen spindown ondersteunen
of dit moet inmidels alweer achterhaald zijn met de nieuwere types.
Hoe je t kan controleren in Windows of een schijf aan spindown doet / is dat is me ook een raadsel
maar zal vast ook wel weer een tool voor bestaan.
Ik kan in ieder geval hier in me Highpoint 2740 spindown inschakelen voor elke disk, maar dan moet tie t wel ondersteunen natuurlijk.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 24-01 15:20
Hdparm met cygwin kun je inzetten voor handmatige spindown in Windows.

De CSL/OT kroeg !


  • Spoooky
  • Registratie: September 2002
  • Laatst online: 29-01 18:04

Spoooky

Core temp 37°C

Welk filesysteem hebben jullie op je linux NAS? EXT4, XFS of een ander?

[ Voor 8% gewijzigd door Spoooky op 01-07-2011 17:01 ]

Ik ben spuit 1011, aangenaam!


  • Birdie_NL
  • Registratie: Maart 2008
  • Laatst online: 20-01 18:37
Ik heb net mijn nieuwe Intel S1200BTS moederbord binnen gekregen, probeer ik het geheugen wat ik al 2 weken geleden heb gekocht.. 3 piepjes en geen beeld. that's it.

Het gaat om 1 reepje van 4GB Kingston KVR1333D3D8R9S/4G geheugen.
Nu keek ik op de Intel website naar ondersteunende geheugen modules en wat zie ik.. mijn type geheugen staat er gewoon niet tussen.

Ik heb volgens de Intel website dit type nodig: Kingston KVR1333D3E9S/4G

Luisterd dit echt zo nauw?

[ Voor 3% gewijzigd door Birdie_NL op 01-07-2011 17:45 ]


Verwijderd

Hoi allen,

Ik wou eens vragen of iemand ervaring had met de switch te optimaliseren.
We kunnen normaal op een gigabit switch tot 100mb/s gaan. Maar wat met port trunking (vlan) of infiniband switch (20Gib/S) 8port infinband switch is beschikbaar vanaf 850 euro en een infinband nic vanaf 125 euro.
Dus voor een goeie 1000 euro heb je 20 Gigabit connectie naar je storagepool.
Kan je meerdere gewone 1 gbit poorten linken (team) zodat je aan meer dan 100MB/S zou geraken?

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 10:39
brndst schreef op vrijdag 01 juli 2011 @ 17:35:
Ik heb net mijn nieuwe Intel S1200BTS moederbord binnen gekregen, probeer ik het geheugen wat ik al 2 weken geleden heb gekocht.. 3 piepjes en geen beeld. that's it. Het gaat om 1 reepje van 4GB Kingston KVR1333D3D8R9S/4G geheugen.

Luisterd dit echt zo nauw?
Niet direct, maar je moet wél het juiste type geheugen halen. Volgens de specs van het bord:
Memory 4 DDR3 DIMM sockets (Unbuffered) 2 channel native (1066/1333MHz)
Het geheugen wat jij hebt gekocht:
ECC 1333MHz 240-pin Registered DIMM
Dat Unbuffered/Registered is dus het probleem.

  • Birdie_NL
  • Registratie: Maart 2008
  • Laatst online: 20-01 18:37
Nielson schreef op vrijdag 01 juli 2011 @ 17:56:
[...]
Niet direct, maar je moet wél het juiste type geheugen halen. Volgens de specs van het bord:


[...]
Het geheugen wat jij hebt gekocht:


[...]
Dat Unbuffered/Registered is dus het probleem.
Mhm oke, Dit is de memory support lijst van het intel bord wat ik dus aangeschaft heb. :)
Afbeeldingslocatie: http://i55.tinypic.com/2rwu93p.jpg

Ik heb in het plaatje aangegeven welke module ik zojuist besteld heb. Dit zou gewoon het goede geheugen moeten zijn.
http://azerty.nl/producten/product_detail/?ID=230303

Verwijderd

Heeft toch een ander model nummer? Er staat ook duidelijk Unbuffered bij; wat het tegenovergestelde is van Registered.

  • Birdie_NL
  • Registratie: Maart 2008
  • Laatst online: 20-01 18:37
Verwijderd schreef op vrijdag 01 juli 2011 @ 18:21:
Heeft toch een ander model nummer? Er staat ook duidelijk Unbuffered bij; wat het tegenovergestelde is van Registered.
Yep you are right.
Ik heb inmiddels het geheugen net rma teruggestuurd en een 'compatible' module besteld :)
(Dit foutje kost me alleen wel een weekendje hobbyen..)

  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 13:34

iMars

Full time prutser

FireDrunk schreef op vrijdag 01 juli 2011 @ 10:15:
Zie mijn posts een paar pagina's terug, daar staat hoe je het onder Linux moet doen... Als je windows gebruikt heb ik geen idee.


[...]


@iMars,

Jou scriptje sloopt (zoals ik kan lezen) geen data toch? :)
Ik heb er wat data erop gezet en het scriptje gedraait. Alle data staat er nog goed op. Maar dat geeft natuurlijk geen garantie dat het foutloos gaat bij jou ;)

Koop hier mijn P1 reader :)


  • BlackShadow
  • Registratie: Februari 2002
  • Nu online
iMars schreef op donderdag 30 juni 2011 @ 23:52:
[...]

Waarom wil je persee de WD? Ik heb 4x Samsung F4EG gekozen en na wat tweaks haal ik met softraid in RAID5 de volgende snelheden:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
root@iServer:~# ./tuneraid.sh;sync;echo 3 > /proc/sys/vm/drop_caches
read ahead size per device: 3072 blocks (1536kb)
read ahead size of array: 12288 blocks (6144kb)
stripe cache size of devices: 384 pages (1536kb)
setting max sectors kb to match chunk size
setting NCQ queue depth to 1
root@iServer:~# dd if=/dev/zero of=/pool/test.bin bs=1M count=32000
32000+0 records in
32000+0 records out
33554432000 bytes (34 GB) copied, 155.475 s, 216 MB/s
root@iServer:~# dd if=/pool/test.bin of=/dev/null bs=1M count=32000
32000+0 records in
32000+0 records out
33554432000 bytes (34 GB) copied, 90.7514 s, 370 MB/s
root@iServer:~#

216MB/s write == 72MB/s per schijf
370MB/s read == 123,33MB/s per schijf
Omdat ik er al 3 heb.

Mocht er nog iemand tips hebben:
BlackShadow schreef op donderdag 30 juni 2011 @ 23:40:
Heb nu enkele weken een Adaptec 5805 (had ik al langer) met 3 WD20EARS draaien. (Deze schijven heb ik inderdaad gekocht zonder mij eerst voldoende in te lezen.) Tot op heden heb ik er nog geen problemen mee gehad, maar de problemen die ik op internet lees doen mij enorm twijfelen of ik er nog wel zou bij kopen om de array uit te breiden.

Ik vind allerlei tooltjes om problemen op te lossen, maar hier sta ik niet echt voor te springen.
bvb: http://forums.whirlpool.net.au/archive/1367904
Ook is de meeste info die ik vind al iets ouder en lees ik ook over een 'nieuwe' versie van de EARS schijven.

150 euro of meer voor een 2TB RE versie vind ik absoluut te duur.

Hopelijk kan iemand me hierin raad geven.

[ Voor 30% gewijzigd door BlackShadow op 01-07-2011 20:33 ]


  • daan08
  • Registratie: Augustus 2008
  • Laatst online: 05-07-2023

daan08

PEBKAC

Verwijderd schreef op vrijdag 01 juli 2011 @ 17:40:
Hoi allen,

Ik wou eens vragen of iemand ervaring had met de switch te optimaliseren.
We kunnen normaal op een gigabit switch tot 100mb/s gaan. Maar wat met port trunking (vlan) of infiniband switch (20Gib/S) 8port infinband switch is beschikbaar vanaf 850 euro en een infinband nic vanaf 125 euro.
Dus voor een goeie 1000 euro heb je 20 Gigabit connectie naar je storagepool.
Kan je meerdere gewone 1 gbit poorten linken (team) zodat je aan meer dan 100MB/S zou geraken?
Zie; Netwerk > 1 gbit/s ervaringen topic

En ja zegt het zelf al, je kunt ook ethernet truncen voor meer dan 1 gigabit

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 19-01 19:54
Dadona schreef op vrijdag 01 juli 2011 @ 16:44:
Hdparm met cygwin kun je inzetten voor handmatige spindown in Windows.
Dan ga ik daar eens mee stoeien deze week. Bedankt voor de tip.

  • ruitech
  • Registratie: September 2009
  • Laatst online: 26-04-2025
-Moondust- schreef op vrijdag 01 juli 2011 @ 23:58:
[...]

Dan ga ik daar eens mee stoeien deze week. Bedankt voor de tip.
2x Infiniband kaartjes + een kabel is een veel snellere & relatief makkelijke oplossing. Zelf getest (zie ook het eerder genoemde topic) en je haalt hele leuke snelheden welke je niet haalt met 2x Gbit in een trunk (als het al goed werkt).

  • parcifal
  • Registratie: September 2007
  • Laatst online: 14-02-2021
Dadona schreef op vrijdag 01 juli 2011 @ 16:44:
Hdparm met cygwin kun je inzetten voor handmatige spindown in Windows.
Ik vraag me af of een spindown setting van een raid controller in pci-e preority heeft boven de evt settings die windows heeft voor de schijven.

" Power Saving – Spin-down of idle disks (MAID)
This feature allows the card to safely power down RAID arrays when not in use.
Allowing idle disks to spin down minimizes the power consumption of the system’s storage devices.
In addition to saving energy, spinning down unused disks reduces mechanical wear and the buildup of
waste heat, which in turn, can greatly prolong the life of the system’s storage hardware, over the long-term.
Click on the drop down menu provided for “Spin down idle disk (minutes)”, and select a time (in
minutes). This determines when Host Adapter will power down idle hard disks.
Click the “Submit” button to activate this feature."

Om de disks langer te laten leven zou dit toch niet al te vaak moeten gebeuren ook al kost t wat meer stroom
mischien dan raadzaam om deze funtie te activeren maar dan een hele hoge tijd instellen als dit tenmniste
de setting in windows overschrijft in hoeverre dat vastgelegd is.

.

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01-02 16:17
Nog meer nieuwe spulletjes voor mijn ESXi / NAS machine:
Afbeeldingslocatie: http://tweakers.net/ext/f/cxpYbv5yKoqTIf6UJ3RCLkJT/full.jpg

- 8GB SSD bootdiskje
- 2 x 30 GB SSDs
- RAID1 controllertje

  • KorneelB
  • Registratie: Mei 2008
  • Laatst online: 31-12-2025
Sleepie schreef op zaterdag 02 juli 2011 @ 11:35:
Nog meer nieuwe spulletjes voor mijn ESXi / NAS machine:
[afbeelding]

- 8GB SSD bootdiskje
- 2 x 30 GB SSDs
- RAID1 controllertje
nice :)
zit ook te wachten op mijn nieuw spul..

als ik hier toch ben, meteen ook hier even pluggen;
als men hier klaar is om met de 10 tb+ jongens te komen spelen O-)

ik heb mijn servertje te koop staan, 24 hot swap bays behuizing, dual xeon, moederbordje, geheugen, boot schijven.. zelf nog een raid controller scoren, en volproppen met schijven maar... check mijn vraag en aanbod :)

60 TB can not be enough


  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06-2025
freak1 schreef op zaterdag 02 juli 2011 @ 12:25:
[...]


nice :)
zit ook te wachten op mijn nieuw spul..

als ik hier toch ben, meteen ook hier even pluggen;
als men hier klaar is om met de 10 tb+ jongens te komen spelen O-)

ik heb mijn servertje te koop staan, 24 hot swap bays behuizing, dual xeon, moederbordje, geheugen, boot schijven.. zelf nog een raid controller scoren, en volproppen met schijven maar... check mijn vraag en aanbod :)
wat draait de server idle?

  • KorneelB
  • Registratie: Mei 2008
  • Laatst online: 31-12-2025
whocarez schreef op zaterdag 02 juli 2011 @ 15:13:
[...]

wat draait de server idle?
watt?
ik had de server, maar dan met 64 gb ipv 16, 24 schijven en een raid adapter eigenlijk permanent onder stress draaien, en dat was bijna 500 watt...

60 TB can not be enough


  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 13:03
Mijn server draait weer :).

van:

5x500GB raid5 ( chunk 64k, XFS )

naar:

3x2TB Samsung F4 ( chunk 64k, EXT4 )
Extra:
Sharkoon Rebel + Norco SS-400

Pics:

Afbeeldingslocatie: http://i54.tinypic.com/2qcfdkg.jpg

Afbeeldingslocatie: http://i56.tinypic.com/2mjv5x.jpg

Afbeeldingslocatie: http://i53.tinypic.com/2cwsdab.jpg

Verwijderd

altijd *O*

  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 13:03
Precies gelijk data overzetten :).

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01-02 16:17
DJ-Promo schreef op zaterdag 02 juli 2011 @ 22:51:
Precies gelijk data overzetten :).
Join the club :+

  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 13:34

iMars

Full time prutser

Sleepie schreef op zaterdag 02 juli 2011 @ 11:35:
Nog meer nieuwe spulletjes voor mijn ESXi / NAS machine:
[afbeelding]

- 8GB SSD bootdiskje
- 2 x 30 GB SSDs
- RAID1 controllertje
Die 8GB heb ik ook gehad, vond hem niet super snel (ivm andere SSD)

Koop hier mijn P1 reader :)


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 19-01 10:48
iMars schreef op zondag 03 juli 2011 @ 01:46:
[...]

Die 8GB heb ik ook gehad, vond hem niet super snel (ivm andere SSD)
Ik heb 2 x 16GB in raid 1 (MDADM) draaien. Voor een OS-disk (ik neem aan dat hij daarvoor wordt gebruikt) zijn het prima dingen.

Nu is het natuurlijk wel zo dat de 16G een stuk sneller is en dat ik ook niet goed weet hoe andere SSD's het doen. Mijn ouders hebben een Vertex II, maar dat is allemaal Windows en bovendien een desktop. Niet te vergelijken dus.

Aan de andere kant, wat doe je nou met zo'n OS-disk? De hoeveelheid data die wordt verzet is echt enorm klein. Ik heb een losse controller voor mijn data-disks en ik zie het HDD activity LED van mijn mobo echt zelden oplichten.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01-02 16:17
Die 8 GB disk is ook niet zo heel snel, maar zoals al terecht opgemerkt, zoveel doe je niet met een OS disk.

In eerste instantie wilde ik ESXi gewoon op de 30GB disk zetten, met een paar Linux VMs. Echter zou dat problemen (ivm partities) kunnen opleveren bij upgrades van ESXi. Dus moest ik op zoek naar een andere oplossing.

Ik had ESXi ook op een USB stickje kunnen zetten, maar omdat die 8 GB SSDtjes nou niet echt heel duur zijn, heb ik uiteindelijk daarvoor gekozen.
In de toekomst kan ik nog zo'n 8 GB diskje kopen en nog zo'n DawiControl raid1 controllertje en dan is mijn OS ook 'veilig'.

Eigenlijk 'gewoon omdat het kan' dus ;)

  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 10:28

OMX2000

By any means necessary...

Sleepie schreef op zondag 03 juli 2011 @ 09:15:
Die 8 GB disk is ook niet zo heel snel, maar zoals al terecht opgemerkt, zoveel doe je niet met een OS disk.

In eerste instantie wilde ik ESXi gewoon op de 30GB disk zetten, met een paar Linux VMs. Echter zou dat problemen (ivm partities) kunnen opleveren bij upgrades van ESXi. Dus moest ik op zoek naar een andere oplossing.

Ik had ESXi ook op een USB stickje kunnen zetten, maar omdat die 8 GB SSDtjes nou niet echt heel duur zijn, heb ik uiteindelijk daarvoor gekozen.
In de toekomst kan ik nog zo'n 8 GB diskje kopen en nog zo'n DawiControl raid1 controllertje en dan is mijn OS ook 'veilig'.

Eigenlijk 'gewoon omdat het kan' dus ;)
Problemen qua upgrades vanwege hogere eisen van ESXi neem ik aan? Want ik wilde zelf ESXi en mijn VM's vanaf een SSD draaien. Veiligheid boeit me niet zo. Ik ga die VM's af en toe backuppen, en de belangrijke data staat zoieso niet op de SSD.

Dè developers podcast in je moerstaal : CodeKlets Podcast


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01-02 16:17
OMX2000 schreef op zondag 03 juli 2011 @ 09:36:
Problemen qua upgrades vanwege hogere eisen van ESXi neem ik aan? Want ik wilde zelf ESXi en mijn VM's vanaf een SSD draaien. Veiligheid boeit me niet zo. Ik ga die VM's af en toe backuppen, en de belangrijke data staat zoieso niet op de SSD.
Wat ik ervan heb begrepen is dat je in de knoop kunt komen bij upgrades van ESXi vanwege de partitie-grootte.
Omdat er andere VMs opstaan kan ESXi zijn partities niet aanpassen als je ook nog eens VMs op je bootdisks hebt staan.

Belangrijke data staat bij mij natuurlijk ook niet op de SSD. Wel staan daar een paar VMs op, waarvan er eentje de Ubuntu VM is met mijn raid6-set. En daar staat logischerwijze wel al mijn data op. Bovendien komen er op die raid6 set nog een paar Windows VMs op te staan, onder andere een Exchange server.

Dan kun je wel zeggen "het is maar voor thuisgebruik, dus veiligheid boeit me niet zo" (wat op zich ook zo is), maar het betekent natuurlijk wel dat als mijn ESXi om wat voor reden niet draait, ik ook niet bij mijn data op de raid-set kan. En er komt geen mail binnen omdat de Exchange server ook niet draait.

Op zich is ESXi natuurlijk zo geinstalleerd op een USB-stickje als (tijdelijke) bootdisk, maar een raid1 setje voor de OS disk vind ik dan toch niet zo heel vreemd klinken :)

Overigens, met alleen ESXi re-installen ben je er natuurlijk niet, je zult je config moeten backuppen en restoren.

  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 10:28

OMX2000

By any means necessary...

Sleepie schreef op zondag 03 juli 2011 @ 09:54:
[...]

Wat ik ervan heb begrepen is dat je in de knoop kunt komen bij upgrades van ESXi vanwege de partitie-grootte.
Omdat er andere VMs opstaan kan ESXi zijn partities niet aanpassen als je ook nog eens VMs op je bootdisks hebt staan.

Belangrijke data staat bij mij natuurlijk ook niet op de SSD. Wel staan daar een paar VMs op, waarvan er eentje de Ubuntu VM is met mijn raid6-set. En daar staat logischerwijze wel al mijn data op. Bovendien komen er op die raid6 set nog een paar Windows VMs op te staan, onder andere een Exchange server.

Dan kun je wel zeggen "het is maar voor thuisgebruik, dus veiligheid boeit me niet zo" (wat op zich ook zo is), maar het betekent natuurlijk wel dat als mijn ESXi om wat voor reden niet draait, ik ook niet bij mijn data op de raid-set kan. En er komt geen mail binnen omdat de Exchange server ook niet draait.

Op zich is ESXi natuurlijk zo geinstalleerd op een USB-stickje als (tijdelijke) bootdisk, maar een raid1 setje voor de OS disk vind ik dan toch niet zo heel vreemd klinken :)

Overigens, met alleen ESXi re-installen ben je er natuurlijk niet, je zult je config moeten backuppen en restoren.
Ik kan me wel vinden in wat je zegt. Maar ik heb nu dus een 96GB SSD besteld, en wil die ook wel goed benutten ;) Ik wil best extra ruimte voor de ESXi partities reserveren, zodat upgrades mogelijk zijn. Maar ik kan bij een upgrade ook eerst de VM's "backuppen" naar een extern systeem. Upgraden, en dan weer de boel terugzetten.

Wat ik wil draaien is
ESXi
Windows 2008 R2
Ubuntu Server

Vooral die W2K8 R2 gaat nogal wat ruimte innemen (ca. 50GB). Verder ga ik een 4x 2TB raid5 set maken met mdadm. Ik twijfelde of ik ZFS wilde gaan draaien. Maar ik ben meer een Linux man, heb weinig zin om naast ESXi NOG iets aan te leren.

Nu nog ff wachten op de hardware die binnen gaat druppelen. En kan ik deze week waarschijnlijk beginnen met knutselen.

Dè developers podcast in je moerstaal : CodeKlets Podcast


  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 13:03
Het erge is hij is nog bezig met aardig wat data en df-h geeft al aan use 48%.

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01-02 16:17
OMX2000 schreef op zondag 03 juli 2011 @ 10:29:
[...]


Ik kan me wel vinden in wat je zegt. Maar ik heb nu dus een 96GB SSD besteld, en wil die ook wel goed benutten ;) Ik wil best extra ruimte voor de ESXi partities reserveren, zodat upgrades mogelijk zijn. Maar ik kan bij een upgrade ook eerst de VM's "backuppen" naar een extern systeem. Upgraden, en dan weer de boel terugzetten.

Wat ik wil draaien is
ESXi
Windows 2008 R2
Ubuntu Server

Vooral die W2K8 R2 gaat nogal wat ruimte innemen (ca. 50GB). Verder ga ik een 4x 2TB raid5 set maken met mdadm. Ik twijfelde of ik ZFS wilde gaan draaien. Maar ik ben meer een Linux man, heb weinig zin om naast ESXi NOG iets aan te leren.

Nu nog ff wachten op de hardware die binnen gaat druppelen. En kan ik deze week waarschijnlijk beginnen met knutselen.
Tsja, ik ga een paar Windows Servers draaien, dus die nemen ook wel wat ruimte in.
Daarom heb ik besloten om alleen mn Linux VMs (Ubuntu Server met mdadm raidset en nog een pfSense firewall) op een SSD te zetten. Vandaar dat ik met 2 x 30GB SSDtjes in raid1 ruimte genoeg heb,

Mijn Ubuntu Server VM heeft een NFS share (dusdanig geconfigureerd dat hij alleen voor de ESXi host beschikbaar is), die ik weer terug aanbiedt aan de ESXi hosts als remote datastore.
Op die manier heb ik dus alle vrije ruimte op mijn NAS beschikbaar als datastore voor Windows VMs, ruimte genoeg :)

Data copy loopt lekker verder:
hans@TANK:~$ df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/md0              5.5T  1.7T  3.8T  31% /mnt/raid

[ Voor 5% gewijzigd door Sleepie op 03-07-2011 11:29 ]


  • BlackShadow
  • Registratie: Februari 2002
  • Nu online
Ik ben aan het rond kijken over de problemen met oa de WD20EARS op een hardware RAID controller (Adaptec 5805)

Iemand hier ervaring met smartctl bij desktop schijven?
http://forums.storagerevi...hp/topic/28333-tler-cctl/

Ik zit nog steeds te twijfelen om mijn reeds bestaande R5 array (3 x WD20EARS) uit te breiden met dezelfde schijven. Of voor 'meer' compatibele schijven te gaan zoals de Hitachi's of Samsung F4's.
Grotendeels omdat ik deze array nu sinds 10/06 succesvol heb draaien...

[ Voor 61% gewijzigd door BlackShadow op 03-07-2011 12:25 ]


  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 13:03
Hier is ie ook nog bezig:
root@ana:~$ df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/md0              3.6T  2.0T  1.7T  54% /media/nas


Ik denk dat ik deze week nog een extra disk haal :P.
Copy gaat wel lekker snel zo'n 70 / 75MB/sec met NFS vanaf me desktop ( files van verschillende grootte 100MB tot een paar GB ).

[ Voor 12% gewijzigd door DJ-Promo op 03-07-2011 11:39 ]


  • Spoooky
  • Registratie: September 2002
  • Laatst online: 29-01 18:04

Spoooky

Core temp 37°C

@DJ-Promo

Hoe performt je nieuwe NAS? Veel verschil in performance tussen xfs en ext4?

Ik ben spuit 1011, aangenaam!


  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 13:03
Heb nu natuurlijk 3x2TB @ 5400rpm vs 5x500GB @ 7200rpm. Over NFS merk ik geen verschil die 3x2TB zijn snel genoeg om Gbit vol te trekken.
Heb alleen nog een schrijf test gedaan van 17GB en daarmee is mijn nieuwe array zelfs 1MB sneller ( 189MB vs 190MB ). XFS had ik toen gewoon om te testen maar heb nu EXT4 gekozen omdat ik dat ook op al me andere disken gebruik. Standaard gebruikt EXT4 5% van je filesysteem voor eigen gebruik dit heb ik op 1% gezet anders zou ik iets van 200GB "missen" nu maar 40GB.
Toevoegen van een extra disk lijkt mij veiliger met EXT4 en dat gaat ergens deze week al gebeuren want ik heb meer data dan ik dacht :O .

  • Sven_Vdb
  • Registratie: Januari 2006
  • Laatst online: 29-12-2025
Ik ben van plan een nieuwe homeserver te gaan plaatsen.
Hierop zou ik graag ESXI gaan draaien. Waarin ik dan verschillende virtuele machines wil gaan draaien.

1 van de machines zal bedoeld zijn om een eigen development server op te installeren
Hieronder versta ik SVN en dergelijke.

1 van de machines zal bedoeld zijn om Video te op te nemen ( via tuner kaart , is dit mogelijk onder ESXI??) + streamen over het netwerk.
Onder het streamen kan je vanalles verstaan. Zoals Foto's, Video's, Muziek, ....

Er zullen verschillende virtuele machines volgen , hetzij individueel of gecombineerd.
Maar de voorgaande zijn momenteel de belangrijkste.

Ook zou ik dit alles onder RAID6 willen draaien.

Ik ben momenteel niet echt gekent in het server wereldje alsook niet met ESXI.
Iemand die mij wat kan helpen met het bouwen van dergelijk systeempje?

Welke case? Norco, Coolemaster, ....
Moederbord ?
Voor raid? Controller?
Welke soort harde schijven ( merk, green disks )
....

Ik wil dan ook hoogwaardig materiaal. En niet zomaar wat vanalles gaan selecteren.

Verwijderd

Sven_Vdb schreef op zondag 03 juli 2011 @ 13:11:
Ik ben van plan een nieuwe homeserver te gaan plaatsen.
Hierop zou ik graag ESXI gaan draaien.
er is genoeg info te vinden hier op tweakers om een 'beginnetje zelf te maken denk ik. 8)

* of je koopt die superserver hieronder ben je gelijk klaar

[ Voor 67% gewijzigd door Verwijderd op 03-07-2011 14:05 ]


  • KorneelB
  • Registratie: Mei 2008
  • Laatst online: 31-12-2025
Sven_Vdb schreef op zondag 03 juli 2011 @ 13:11:
Ik ben van plan een nieuwe homeserver te gaan plaatsen.
Hierop zou ik graag ESXI gaan draaien. Waarin ik dan verschillende virtuele machines wil gaan draaien.

1 van de machines zal bedoeld zijn om een eigen development server op te installeren
Hieronder versta ik SVN en dergelijke.

1 van de machines zal bedoeld zijn om Video te op te nemen ( via tuner kaart , is dit mogelijk onder ESXI??) + streamen over het netwerk.
Onder het streamen kan je vanalles verstaan. Zoals Foto's, Video's, Muziek, ....

Er zullen verschillende virtuele machines volgen , hetzij individueel of gecombineerd.
Maar de voorgaande zijn momenteel de belangrijkste.

Ook zou ik dit alles onder RAID6 willen draaien.

Ik ben momenteel niet echt gekent in het server wereldje alsook niet met ESXI.
Iemand die mij wat kan helpen met het bouwen van dergelijk systeempje?

Welke case? Norco, Coolemaster, ....
Moederbord ?
Voor raid? Controller?
Welke soort harde schijven ( merk, green disks )
....

Ik wil dan ook hoogwaardig materiaal. En niet zomaar wat vanalles gaan selecteren.
kijk eens bij mijn vraag en aanbod..

hoogwaardige serverkast met genoeg storage ruimte, 2 xeons erin dus ook genoeg "punch" om mee aan de gang te kunnen.. misschien wat meer geheugen later wanneer je meer machines wilt virtualiseren.. in principe enkel raid controller toevoegen en knallen :)

60 TB can not be enough


  • Spoooky
  • Registratie: September 2002
  • Laatst online: 29-01 18:04

Spoooky

Core temp 37°C

DJ-Promo schreef op zondag 03 juli 2011 @ 13:01:
Standaard gebruikt EXT4 5% van je filesysteem voor eigen gebruik dit heb ik op 1% gezet anders zou ik iets van 200GB "missen" nu maar 40GB.
Hoe stel je dat in?

Ik ben spuit 1011, aangenaam!


  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 13:03
Uit mijn documentatie:

# mkfs.ext4 /dev/md0
# tune2fs -m 1 /dev/md0

  • Spoooky
  • Registratie: September 2002
  • Laatst online: 29-01 18:04

Spoooky

Core temp 37°C

Thx, dan weet ik nu waar ik het zoeken moet :)

Ik ben spuit 1011, aangenaam!


  • Q
  • Registratie: November 1999
  • Laatst online: 14:15
EXT4 zou ik zelf niet toepassen. Het is toch een plakband filesystem (een geupgraded versie van EXT3) en ik heb op professioneel vlak al ernstige ellende gehad met extreem trage performance met veel kleine files icm ubuntu. Gebruik van good old EXT3 loste dit op.

EXT3 wil je niet want dat kost je veel te veel storage ruimte.

Als je Linux doet kun je beter voor XFS gaan.

EXT4 gaat door de limieten van de tools niet verder dan 16 TB mocht dat nog boeien.
Pagina: 1 ... 69 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.