• Nielson
  • Registratie: Juni 2001
  • Laatst online: 01:28
iMars schreef op maandag 27 juni 2011 @ 22:55:
Zo, 4x Samsung F4EG gekocht vandaag, in mijn server gestopt.
1 partitie van 6TB gpt aangemaakt en geformatteerd op XFS.

Waarom moet mijn array recoveren? Heb er nog niks mee gedaan :S
Hij is dus nogmaals een resync gaan doen nadat deze al eens voltooid was bij het aanmaken van de raid5 array (aangezien een nieuwe array ook degraded begint)?

[ Voor 5% gewijzigd door Nielson op 27-06-2011 23:01 ]


  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 23:55
Op een of andere manier is er iets met je laatste schijf in je array gebeurd:

[UUU_]

Even checken of daar alles goed mee is?

[ Voor 5% gewijzigd door CurlyMo op 27-06-2011 23:00 ]

Sinds de 2 dagen regel reageer ik hier niet meer


  • Q
  • Registratie: November 1999
  • Laatst online: 00:21
Als je een array aanmaakt dan doet hij een eerste rebuild om zeker te zijn dat alles in orde is. Mocht je willen experimenteren kun je --asume-clean gebruiken bij het aanmaken van de array.

Dat scheelt een hoop rebuild tijd. Als je weet dat de disks ok zijn kun je best --asume-clean gebruiken. Misschien dat ik bij het aanmaken van de productie array toch zonder asume-clean zou doen, maar het kan denk ik wel.

Laatst mijn array op mijn download bak verkloot. Gewoon opnieuw gemaakt met --asume-clean, niets aan de hand verder.

  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 19-12 16:48

iMars

Full time prutser

Nou wat ik begrepen heb, is dat het normaal is dat er een degraded array wordt gemaakt (mits anders aangegeven). En ik had denk net 10m daarvoor de array aangemaakt. Vandaar mijn quote:
When creating a RAID5 array, mdadm will automatically create a degraded array with an extra spare drive. This is because building the spare into a degraded array is in general faster than resyncing the parity on a non-degraded, but not clean, array. This feature can be overridden with the --force option.
Ik had hem aangemaakt met:
code:
1
mdadm --create /dev/md0 --chunk=128 --level=5 --raid-devices=4 /dev/sdc /dev/sdd /dev/sde /dev/sdf
Q schreef op maandag 27 juni 2011 @ 23:29:
Als je een array aanmaakt dan doet hij een eerste rebuild om zeker te zijn dat alles in orde is. Mocht je willen experimenteren kun je --asume-clean gebruiken bij het aanmaken van de array.

Dat scheelt een hoop rebuild tijd. Als je weet dat de disks ok zijn kun je best --asume-clean gebruiken. Misschien dat ik bij het aanmaken van de productie array toch zonder asume-clean zou doen, maar het kan denk ik wel.

Laatst mijn array op mijn download bak verkloot. Gewoon opnieuw gemaakt met --asume-clean, niets aan de hand verder.
Precies, ik ben als een dolle hond gelijk gaan experimenteren ;) vandaar dat ik zei "ik leer steeds meer" haha

Ben nu jouw script aan het runnen ;)

[ Voor 40% gewijzigd door iMars op 27-06-2011 23:33 ]

Koop hier mijn P1 reader :)


  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 23:26

OMX2000

By any means necessary...

Ik heb eindelijk de eerste stap gezet in DIY NAS land. Ik heb gisteren het onderstaande van borroz overgenomen (thanx for that!):

- MSI H55M-ED55 mATX mobo -1156
- Intel Core i3 540 / 3.06 Ghz L3 4mb
- Kingston 4 x 4 DIMM 1333/PC3-10600-CL9-1.5v

Ik wil hier nog 4x 2TB Samsungs bij kopen en een Sharkoon Rebel 9 kast. Voeding heb ik hier nog rondslingeren (oude TAGAN 420W), en is voor de time being goed genoeg.

Doordat ik nu 16GB geheugen heb wil ik me ook maar meteen aan ESXi wagen. En de bedoeling is dat ik een Ubuntu Server voor Sickbeard/CouchPotato en wat dev spul, Windows 2008 R2 voor .NET development, en een bak opslag ruimte als NAS wil draaien. Het kan zijn dat ik ook nog een W7 VM wil draaien om af en toe mee te klooien.

Ik weet dat ik nog een OS schijf nodig heb om van te booten. En da's meteen ook mijn eerste vraag? Wat is dan handig, als ik ca. 50 euro wil uitgeven.

2e vraag is waar zet ik de VM's zelf op?

3e vraag. Is het handig om Ubuntu Server zowel verantwoordelijk te maken voor RAID5 array en Couchpotato. Of is het handiger om een aparte kleine VM te draaien puur als NAS en niks anders.

Dè developers podcast in je moerstaal : CodeKlets Podcast


  • YaaD
  • Registratie: April 2005
  • Laatst online: 24-12 10:56
Ik weet dat ik nog een OS schijf nodig heb om van te booten. En da's meteen ook mijn eerste vraag? Wat is dan handig, als ik ca. 50 euro wil uitgeven.
Mocht je de SATA poort kunnen missen, dan zou ik een SSD inzetten om van te booten. Lekker snel natuurlijk :)
Is het handig om Ubuntu Server zowel verantwoordelijk te maken voor RAID5 array en Couchpotato. Of is het handiger om een aparte kleine VM te draaien puur als NAS en niks anders.
Ik persoonlijk zou ze gewoon op 1 machine zetten. Het gaat om zulke kleine functionaliteit dat het de performance geen verschil maakt als je ze afzonderlijk zou draaien

bl44t


  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 23:26

OMX2000

By any means necessary...

YaaD schreef op dinsdag 28 juni 2011 @ 08:27:
[...]


Mocht je de SATA poort kunnen missen, dan zou ik een SSD inzetten om van te booten. Lekker snel natuurlijk :)


[...]


Ik persoonlijk zou ze gewoon op 1 machine zetten. Het gaat om zulke kleine functionaliteit dat het de performance geen verschil maakt als je ze afzonderlijk zou draaien
Ah ok. En dan 8GB toewijzen aan Ubuntu? Dan geef ik die Windows bak 6GB en de overgebleven 2GB voor spielerij

Dè developers podcast in je moerstaal : CodeKlets Podcast


  • YaaD
  • Registratie: April 2005
  • Laatst online: 24-12 10:56
OMX2000 schreef op dinsdag 28 juni 2011 @ 08:38:
[...]

Ah ok. En dan 8GB toewijzen aan Ubuntu? Dan geef ik die Windows bak 6GB en de overgebleven 2GB voor spielerij
Ik denk dat je met 8GB wel erg veel toewijst aan de Ubuntu server. Is ook eigenlijk helemaal niet nodig, aangezien de taken die je doet totaal niet memory intensief zijn namelijk.

Ik zou eerder 4GB voor Ubuntu, 8GB voor je dev .NET bak en dan nog 4GB om mee te spelen bijvoorbeeld :)

Imo heb je op deze manier het beste je geheugen gemanaged. En mocht ej ergens tekort komen, dan kun je vrij makkelijk wat meer geheugen aan een andere VM toewijzen :)

bl44t


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Mijn Ubuntu Server gebruikt kaal na boot iets van 400MB geheugen... Dus 4GB is overkill :)
Tenzij je een beest van een array hebt is het leuk voor wat caching :)

Maar verder een beetje overdreven...

Even niets...


  • Nextron
  • Registratie: Maart 2005
  • Laatst online: 01:20

Nextron

Ik weet dat ik niets weet

OMX2000 schreef op dinsdag 28 juni 2011 @ 08:08:
Ik weet dat ik nog een OS schijf nodig heb om van te booten. En da's meteen ook mijn eerste vraag? Wat is dan handig, als ik ca. 50 euro wil uitgeven.

2e vraag is waar zet ik de VM's zelf op?
Een SSD geeft bij meerdere VM's natuurlijk nog wat performance, itt tot een HD die door alle I/O over zijn nek gaat. Die kan je dan ook als bootmedium gebruiken. Alleen die Windows varianten die je noemt zijn meteen weer wat hongeriger naar schijfruimte, wat dus een grotere en duurdere SSD vereist.
Twee oplossingen:

-Verhoog je budget zodat je alles op SSD kan zetten. ESXi ondersteurt geen TRIM, dus goede garbage collection is wenselijk, zoals de pricewatch: Kingston SSDNow V+100 SVP100S2/96G (stand-alone drive) 96GB.

-Gebruik een USB stick om ESXi van de booten, zet een tweede USB stick op passthrough naar een VM waar de NAS van boot en alle HD's beschikbaar maakt aan ESXi, hierop zet je de andere VM's.

Houd er ook rekening mee dat de i3 geen VT-D ondersteund, en of je dit nodig denkt te hebben.

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


  • YaaD
  • Registratie: April 2005
  • Laatst online: 24-12 10:56
Houd er ook rekening mee dat de i3 geen VT-D ondersteund, en of je dit nodig denkt te hebben.
Helaas niet waar :)

Zie ook http://ark.intel.com/Product.aspx?id=46472

bl44t


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Uh, wat er staat klopt toch? GEEN VT-d? VT-d != VT-x?

Even niets...


  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
vt-d is bij mijn weten niet hetzelfde als vt-x.
vt-d heb je nodig voor io mmu oftwel echte hardware passthrough.
meer info hier.

Dus volgens mij hebben Firedrunk en Nextron gelijk _/-\o_

[ Voor 11% gewijzigd door dutch_warrior op 28-06-2011 12:50 ]


Verwijderd

dutch_warrior schreef op dinsdag 28 juni 2011 @ 12:49:
vt-d is bij mijn weten niet hetzelfde als vt-x.
vt-d heb je nodig voor io mmu oftwel echte hardware passthrough.
meer info hier.

Dus volgens mij hebben Firedrunk en Nextron gelijk _/-\o_
idd ..

  • YaaD
  • Registratie: April 2005
  • Laatst online: 24-12 10:56
Gek genoeg heb ik in mijn BIOS wel de optie om VT-D in te schakelen? ik zou toch zweren dat het wel zou kunnen.

Maar democratisch gezien heb ik ongelijk 8)7

bl44t


  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
mja ik heb ook een optie om ecc in te schakelen op mijn amd bak maar dat geheugen is toch echt non ecc ram :).
Misschien dat er ergens in de intel specs een foutje staat maar ik weet vrij zeker dat intel officieel ook zegt dat de i3 geen advanced virtualization features aan boord heeft.

Verwijderd

YaaD schreef op dinsdag 28 juni 2011 @ 12:53:
[...]


Gek genoeg heb ik in mijn BIOS wel de optie om VT-D in te schakelen? ik zou toch zweren dat het wel zou kunnen.

Maar democratisch gezien heb ik ongelijk 8)7
maar VT-D werkt niet met een i3 540 op een MSI H55M-ED55 .. ESXi draait verder prima 8)

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
heeft iemand van jullie hier eigenlijk ervaring met die remote management features van q67 chipset ?
Volgens mij was dit vnc based maar moet je een licentie kopen van 100 euro voordat je de banner kwijt bent en remote media kan begruiken, klopt dit ?
Hebben supermicro borden wel zoiets als remote media aan boord, anders kan ik beter een 160 euro supermicro bord met xeon e3 kopen :P.
Vraag me alleen af wat de Supermicro X9SCM-F qua verbruik doet tegenover een standaard Q67 bordje als de DQ67SWB3.

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:45
Supermicro heeft IPMI.
Derde LAN aansluiting, steek er een kabeltje in, geef het een IP en via de browser kun je op afstand je machine beheren (console, maar ook power on/off bijvorbeeld).

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
@YaaD:
Klopt dat je het aan kan zetten in het BIOS, maar dat wil nog niet zeggen dat het werkt, dat wil alleen maar zeggen dat hij "probeert" het te activeren.

@Sleepie:
Tis zelfs soms nog beter, ik kan kiezen aan welke NIC ik de IPMI iKVM interface wil knopen in mijn BIOS :)

Even niets...


  • Nextron
  • Registratie: Maart 2005
  • Laatst online: 01:20

Nextron

Ik weet dat ik niets weet

Voor mijn ESXi server staat iig een SuperMicro op het verlanglijstje. Het SM bord heeft ook 2x NIC, hoewel jouw gekozen bord standaard geen ondersteuning heeft voor die 2e NIC, met extra drivers weer wel. Het bord heeft ook ander geheugen nodig; unbuffered ECC, waar nog niet veel keuze in is.

Mijn keuze is juist gevallen op de X9SCA-F, met belangrijkste verschillen:
X9SCA-F:
  • ATX
  • 1 (x16) PCI-E 2.0 slot
  • 2 (x4) PCI-E 2.0 (in x8) slots
  • 3 PCI 32-bit slots
  • 2 Intel 82574L NIC
X9SCM-F:
  • mATX
  • 2 (x8) PCI-E 2.0 in x8 slots
  • 2 (x4) PCI-E 2.0 in x8 slots
  • Intel 82579LM NIC
  • Intel 82574L NIC
Die eerste heeft denk ik net wat meer uitbreidingsmogelijkheden met hopelijk VGA mogelijkheden.
FireDrunk schreef op dinsdag 28 juni 2011 @ 13:28:
Tis zelfs soms nog beter, ik kan kiezen aan welke NIC ik de IPMI iKVM interface wil knopen in mijn BIOS :)
Standaard loopt IPMI over de 100Mbps Realtek, Waarom zou je die boven de 1Gbps gebruiken voor je OS? Of kan je 1 NIC voor zowel IPMI en het OS gebruiken?

[ Voor 17% gewijzigd door Nextron op 28-06-2011 13:52 . Reden: Wenslijst zichtbaar ]

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
offtopic:
Je verlanglijstje is niet openbaar...

Liever die CA versie, die LM NIC's heb je een OEM.tar.gz voor nodig volgens mij.

Even niets...


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:45
FireDrunk schreef op dinsdag 28 juni 2011 @ 13:28:
@Sleepie:
Tis zelfs soms nog beter, ik kan kiezen aan welke NIC ik de IPMI iKVM interface wil knopen in mijn BIOS :)
Je hebt natuurlijk altijd baas boven baas :>

Overigens is het wel zo dat IPMI wat rariteiten in ESXi kan geven, waarbij je opeens Disk Full errors voor je kiezen krijgt.
Het schijnt iets te maken te hebben met de fan-headers op het mobo, waarop geen fan is aangesloten wat door ESXi als een 'error' wordt geinterpreteerd die gelogd wordt.
Meer vind je hier: http://communities.vmware.com/thread/284310

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Hmm, nog nooit last van gehad, en ik heb maar 1 Fan aangesloten, vreemd probleem :)

PS:
Niets baas-boven-baas, ik heb ook SuperMicroTyan :P Was een compliment richting SuperMicro...
Waarschijnlijk kan jij dat ook wel :P

offtopic:
Foei toch Thijs, niet vergeten wat voor plank je hebt :+

[ Voor 62% gewijzigd door FireDrunk op 28-06-2011 15:05 ]

Even niets...


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:45
Ik heb er wel last van, na een tijdje kan ik geen wijzigingen in de ESXi config maken, ik krijg dan echt die Disk Full error.
Ik meen ergens gelezen te hebben dat het probleem is ontstaan in de laatste versie van ESXi, geen idee welke versie jij draait.

Of je hebt (al dan niet bewust) in de advanced config het vinkje bij IMPI uitgezet, dat lost het probleem schijnbaar op.

PS: Just kidding, SuperMicro is inderdaad gewoon duidelijk meer een serverbordje dan de consumentenbordjes.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Ik draai momenteel geen ESX(i) meer maar baremetal Ubuntu :)

Even niets...


  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 21:12
Aankomend weekend ga ik Debian installeren en mijn nieuwe disken inzetten :).
Ben nu al vooruit aan het kijken hoe ik mijn array kan vergroten.
Nu doe ik in een VM het volgende wat volgens mij prima werkt:

- nieuwe disk voorzien van partitie met fdisk
# mdadm --add /dev/mdx /dev/sdxx
# mdadm --grow /dev/mdx --raid-devices=x
# watch cat /proc/mdstat
- wanneer klaar ctrl + c
# xfs_growfs /your/mount/point
# vi /etc/mdadm/mdadm.conf
- delete in deze file de regel waarin de array staat
# mdadm --detail --scan >> /etc/mdadm/mdadm.conf

Dit is eigenlijk alles nu duurt het allemaal niet zo lang omdat mijn VM disken maar 512MB zijn.
Iemand op of aanmerkingen? Misschien heeft iemand er nog wat aan :> .

Verwijderd

DJ-Promo schreef op dinsdag 28 juni 2011 @ 14:54:

Iemand op of aanmerkingen? Misschien heeft iemand er nog wat aan :> .
gratis tip , me= mijn je weet nooit of je nog een sollicitatie brief moet schrijven.

[ Voor 52% gewijzigd door Verwijderd op 28-06-2011 14:59 ]


  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 21:12
Veranderd en ik let er nog wel op :S.

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Ik wist al wel dat super micro ipmi aan boord had, maar heb je standaard ook remote/virtual media zoals bij ilo van HP, dit is een feature welke ik op mijn hp server wel had en soms mis ik dit wel.
Bij ILO heb je echter een advanced license nodig voor remote media welke gelukkig in mijn server al was geactiveerd toen ik hem kreeg :P.

Ik heb tot nu toe alleen de ipmi wikipedia pagina gelezen maar daar kan ik niet zo snel vinden wanneer ipmi nou echt virtual media opties biedt. Ik wil bijvoorbeeld op afstand kunnen booten vanaf een iso welke op mijn nas (andere machine natuurlijk) staat, kan dit ?

Ik had al wel gevonden dat het kan bij bepaalde fabrikanten maar kan het ook met een standaard supermicro bordje ?

[ Voor 9% gewijzigd door dutch_warrior op 28-06-2011 15:02 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Mijn Tyan bord heeft iKVM, die kan alles wat jij nu opnoemt :)

Remote Keyboard, mouse, vga
Remote Media (ISO, Floppy image en volgens mij ook USB image)
Power managment (Force aan, force uit, gentle uit via ACPI, reset)
IPMI (monitoring van alle hardware...)

IPMI != KVM

IPMI wil alleen maar zeggen dat er op een standaard manier hardware monitoring gedaan kan worden, zoals fanspeed, voltages, en wat informatie zoals BIOS versie enzo.

Op wikipedia staat wel dat KVM een onderdeel is van IPMI, maar het is echt optioneel...
Bij Tyan noemen ze het iKVM.

[ Voor 38% gewijzigd door FireDrunk op 28-06-2011 15:04 ]

Even niets...


  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Kijk dat wilde ik horen :).
Dan denk ik niet dat het een Q67 bordje wordt :), even uitzoeken wat de supermicro qua features te bieden heeft.

Ach van buitenaf gaat die ikvm functionaliteit me toch niet zoveel helpen bij een crash want als deze bak echt crasht ligt me hele netwerk ook plat :P.

[ Voor 12% gewijzigd door dutch_warrior op 28-06-2011 15:11 ]


  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12 11:37

DJ-Visto

Aye aye, sir!

En ik ga dit weekend mijn hitachi's bestellen, 8*2TB! :D

Kan ik eindelijk met Q meedoen, helaas nog niet zo hoog als de rest :)

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Nou het scheelt vooral in het persé moeten aansluiten van een monitor, toetsenbord en muis... Nu kan je het ding gewoon in de kast mieteren en zelfs het installeren van een nieuw OS kan je remote doen ;)

Even niets...


Verwijderd

FireDrunk schreef op dinsdag 28 juni 2011 @ 16:01:
Nou het scheelt vooral in het persé moeten aansluiten van een monitor, toetsenbord en muis... Nu kan je het ding gewoon in de kast mieteren en zelfs het installeren van een nieuw OS kan je remote doen ;)
daar kwam ik ook later achter .. gewoon een iso uploaden via vSphere Client en die gebruiken voor nieuwe VM 8)
heb dat laptop dvd spelertje helemaal niet nodig

[ Voor 7% gewijzigd door Verwijderd op 28-06-2011 16:10 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Dat is het vooral van ESX, maar als je bijvoorbeeld firmware moet patchen of ESX zelf moet patchen is KVM access nog wel eens handig :) Voor mensen zoals ik, die nog wel eens van 'root' OS wisselen :)

Even niets...


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Hij bedoelt denk ik iLO (Integrated Lights Out).

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Ik had het inderdaad over ILO ja, dat zat op me oude server en ik was benieuwd of ik met een ipmi implementatie dezelfde features kon krijgen en dat kan.
Nu dus bij het kopen van een supermicro mobo van te voren alleen even in de specs zoeken wat het ding precies te bieden heeft.

  • Coenen
  • Registratie: September 2000
  • Laatst online: 17:05

Coenen

=LoT= IJsbier @ ET

dutch_warrior schreef op dinsdag 28 juni 2011 @ 15:00:
Ik wist al wel dat super micro ipmi aan boord had, maar heb je standaard ook remote/virtual media zoals bij ilo van HP, dit is een feature welke ik op mijn hp server wel had en soms mis ik dit wel.
Bij ILO heb je echter een advanced license nodig voor remote media welke gelukkig in mijn server al was geactiveerd toen ik hem kreeg :P.

Ik heb tot nu toe alleen de ipmi wikipedia pagina gelezen maar daar kan ik niet zo snel vinden wanneer ipmi nou echt virtual media opties biedt. Ik wil bijvoorbeeld op afstand kunnen booten vanaf een iso welke op mijn nas (andere machine natuurlijk) staat, kan dit ?

Ik had al wel gevonden dat het kan bij bepaalde fabrikanten maar kan het ook met een standaard supermicro bordje ?
De IPMI op mijn X8SIL-F heb ik virtual media gemount. Ging prima om een W2K8 ISO te mounten en vervolgns te installeren.

  • Spoooky
  • Registratie: September 2002
  • Laatst online: 24-12 23:05

Spoooky

Core temp 37°C

Zit al een tijdje na te denken om mijn huis-tuin-en-keuken CH3SNAS (RAID1) te vervangen voor een DIY RAID NAS. De CH3SNAS kan mijn gigabit verbinding lang niet vol trekken, en schijven groter dan 2TB lust hij niet, dus 2TB RAID1 is het maximale van dat doosje.

Nu heb ik heb een leuk AMD bordje met een Athlon X2 4200+ en 4GB geheugen liggen, waarom dan niet dienst laten doen als NAS dacht ik zo :-) Hup! CH3SNAS vervangen dus!

Aanvankelijk wilde ik beginnen met software RAID5, bijvoorbeeld onder Linux. Deze keuze was vooral gebaseerd op mijn ervaring met Linux, het gemak speelt ook wel een grote rol bij het samenstellen van mijn nieuwe NAS. Maar ik lees dat RAID5 wel nadelen heeft.. Een mogelijke 'write hole' bijvoorbeeld.

Toen kwam ik uit bij ZFS of beter gezegd RAIDz1. Een aantal grote voordelen maar ook een heel groot nadeel: het uitbereiden van je RAIDz1 is op zijn zachtst gezegd een rotklus...

Is er echt geen oplossing die de sterke punten van ZFS verenigt met het gemak van het uitbereiden zoals bij een RAID5 set?

Ik ben spuit 1011, aangenaam!


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Dan hadden velen vast daarvoor gekozen ;)
Iedere implementatie heeft zo de sterke en zwakke punten. Maar als je ervaring hebt met Linux en gemak een belangrijk punt is, dan zou ik voor MDADM gaan. Het is ook maar de vraag of je in de praktijk iets gaat merken van de write hole. Bij ZFS zou ik echt naar de BSD kant gaan en meer ram aanschaffen, wat de prijs wat omhoog zal brengen, anders kom je ook bij ZFS performance issues tegen.
Maar goed, als je de basis al hebt liggen, waarom probeer je dan eerst de MDADM kant niet uit? Bevalt het, dan laat je het zo, anders ga je verder kijken of ZFS iets beters te bieden heeft.

De CSL/OT kroeg !


Verwijderd

8GiB RAM heb je nu voor 5 tientjes, 16GiB voor iets meer dan 100. ECC is ook niet meer zo duur als eerst. Dus dat je prijs hiermee significant omhoog zou gaan hoeft niet perse zo te zijn.

Als je ZFS + expansion wilt gebruik dan gewoon RAID0+1; oftewel meerdere mirrors. Elke keer 2 schijfjes toevoegen dat is best te doen. Voordeel van ZFS is dat je niet dezelfde capaciteit schijven hoeft te gebruiken. Als je nu 2TB hebt en je wilt 3TB kopen dan gaat dat prima; mits je dezelfde type schijven in een vdev gebruikt dus een mirror van twee 2TB schijven + mirror van twee 3TB schijven gaat perfect.

Als je echt RAID5 + expansion wilt dan is mdadm handiger, maar dan mis je de veiligheid features van ZFS. Als je data echt veilig moet zijn zou ik voor RAID-Z2 gaan met regelmatige snapshots. Dan wil je ook een veilige SSD hebben zoals Intel 320. Een ZFS build van die strekking is niet supergoedkoop, maar hoeft ook weer geen beest van een machine te worden. Het zijn allemaal afwegingen.

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:45
Mijn testopstelling momenteel:
Afbeeldingslocatie: http://tweakers.net/ext/f/xccjNP8xRdzno84V4SmtxBZ9/full.jpg

Afbeeldingslocatie: http://tweakers.net/ext/f/zLYcsXo5M5LR47fRoaVdYVJv/full.jpg

Aangepaste Rebel12, zodat er (uiteindelijk) 4 IcyDock 5-in-3 modules in kunnen.
Voeding is nog een oude Tagan 480Watt die ik nog had liggen, misschien vervang ik die nog wel door een modulaire voeding om van de overtollige kabel-ellende af te komen.

Draait nu ESXi met een Ubuntu Server 11.04 VM waarin een mdadm RAID6 set is gemaakt.
De RAID6 set bestaat uit 2 disks die via (physial) RDM worden doorgegeven aan de VM en 4 disks op een SASUC8i, die via passthrough worden doorgegeven aan de Linux VM.

Allemaal nog test-fase, de bootdisk moet nog vervangen worden door 2 stuks 16GB SSD-tjes in RAID1, die dan meteen plaats bieden aan twee Linux VMs (Ubuntu als NAS en pfSense als firewall).

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Ziet er goed uit, zie ik het goed dat je de bovenrand van het front niet hoefde te slopen om de 5 in 3 module kwijt te kunnen?

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:45
dutch_warrior schreef op dinsdag 28 juni 2011 @ 21:52:
Ziet er goed uit, zie ik het goed dat je de bovenrand van het front niet hoefde te slopen om de 5 in 3 module kwijt te kunnen?
Jup, dat zie je goed :)
Er is een groot deel van de bovenrand weggedremeld, maar er is nog een heel klein stukje over en het past net (ik zou als ik zin heb die hoekjes nog net iets verder uit kunnen vijlen dan past het net ietsje soepeler, maar 'spelen' met ESX is leuker :+ )

[ Voor 7% gewijzigd door Sleepie op 28-06-2011 21:54 ]


  • Gkomega
  • Registratie: Augustus 2010
  • Laatst online: 25-12 13:36
[quote]Sleepie schreef op dinsdag 28 juni 2011 @ 21:50:
Mijn testopstelling momenteel:
[afbeelding]

[afbeelding]

Aangepaste Rebel12, zodat er (uiteindelijk) 4 IcyDock 5-in-3 modules in kunnen.
Voeding is nog een oude Tagan 480Watt die ik nog had liggen, misschien vervang ik die nog wel door een modulaire voeding om van de overtollige kabel-ellende af te komen.

-------

Ik zou graag willen weten wat je hier precies aan hebt aangepast om die icydocks erin te krijgen. Want dit is de tweede keer dat ik het hoor dat je die moet aanpassen. Maar er word niet verteld wat :P

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Zie hier, inclusief foto's
En hier voor de 22 drive rebel 12.

[ Voor 44% gewijzigd door dutch_warrior op 28-06-2011 22:02 ]


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:45
De bovenste bay is eigenlijk voor een 3.5" module (fancontroller denk ik dat de gedachte is).

Je schroeft er 2 brackets uit, dan is die bay al 5.25" breed, zodat je 4-in-3 module past. Dat is het makkelijke deel :)
Echter, de 4-in-3 module is ook te hoog, dus je moet aan de bovenkant meer ruimte maken. Dit doe je simpelweg door een deel van het front weg te slijpen en/of vijlen.

Als je het netjes doet, hou je net een heel klein randje aan de bovenkant over, wat nog net over je bovenste module heen valt.
edit:
Of je kijkt de plaatjes van hierboven 8)

[ Voor 5% gewijzigd door Sleepie op 28-06-2011 22:03 ]


  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Ik heb in mijn rebel een nieuw type coolermaster 4 in 3 module kunnen plaatsen zonder de kast aan te passen.
Hiervoor moest het zwarte front eraf en ik heb de fan op de 4 in 3 module een paar millimeter naar onderen geplaatst. Zal eens even zoeken of ik nog foto's heb.

@Sleepie: De plaatsjes in mijn vorige post zijn van een minder nette mod, jouw variant ziet er beter uit.

[ Voor 16% gewijzigd door dutch_warrior op 28-06-2011 22:06 ]


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:45
Ik ben er ook wel tevreden over, nog niet helemaal over m'n kabelmanagement (al is dat sowieso lastig in deze kast om het echt netjes te krijgen denk ik).
Maar daar pas ik nog wel het een en ander aan als alle definitieve hardware erin zit.

  • Gkomega
  • Registratie: Augustus 2010
  • Laatst online: 25-12 13:36
Bedankt voor alle replies. Dit geeft me een beter beeld op wat deze kast kan. Wil mijn NAS in een andere kast zetten. Zit al een week te twijfelen tussen Cooler master 590, Rebel nine, Rebel Twelve en nu is er onlangs de MS-Tech CA-0210.

De Rebel Twelve is dan toch wel het uiterste wat je ongeveer met docking bays uit een tower kan halen.

Edit: Overigens. Heeft de Rebel Nine dezelfde aanpassingen nodig om 3 docking bays voor in te krijgen?

[ Voor 13% gewijzigd door Gkomega op 28-06-2011 22:20 ]


  • Spoooky
  • Registratie: September 2002
  • Laatst online: 24-12 23:05

Spoooky

Core temp 37°C

Ik bedacht me net iets.. Die CH3SNAS kan mooi dienen voor een flexibele backup oplossing voor belangrijke data... En kritieke data zou ik zelfs nog op een ultrium tape kunnen dumpen..

Meer geheugen voor de bestaande hardware is niet verstandig (8GB ddr2 geheugen kost dik €100, dubbel zoveel als voor dezelfde hoeveelheid ddr3). En ik wil zo veel mogelijk gebruik maken van bestaande hardware (behalve disks en evt een intel sasuc8i). Het enige wat hij uiteindelijk goed moet kunnen doen is die gigabit verbinding dichttrekken en veel storage kunnen leveren...

Dus begin ik idd met MDADM en kijk hoe goed (of slecht :) ) me dat bevalt...

Welke kabels moet je eigenlijk bij je intel sasuc8i bestellen om je (sata) disks aan te kunnen sluiten?

Ik ben spuit 1011, aangenaam!


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:45
Spoooky schreef op dinsdag 28 juni 2011 @ 22:29:
Welke kabels moet je eigenlijk bij je intel sasuc8i bestellen om je (sata) disks aan te kunnen sluiten?
Forward break-out kabels bv hier:
http://www.takeitnow.nl/p...ff8087ocf-10m_3war_kabel/

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
http://www.chinabuye.com/...rive-hdd-splitter-cable-1

Goedkoper, maar langere levertijd...

Even niets...


Verwijderd

Spoooky schreef op dinsdag 28 juni 2011 @ 22:29:
Meer geheugen voor de bestaande hardware is niet verstandig (8GB ddr2 geheugen kost dik €100, dubbel zoveel als voor dezelfde hoeveelheid ddr3).
Ik zie hier op Tweakers anders regelmatig setjes van 4 GB DDR2 voor rond de 25-30 euro weg gaan de laatste paar weken. Misschien interessant om in de gaten te houden.

  • Spoooky
  • Registratie: September 2002
  • Laatst online: 24-12 23:05

Spoooky

Core temp 37°C

Ik zal ff kijken... Maar heb nu 4 reepjes van 1 GB er in zitten.

Het gaat nu toch echt kriebelen :)

Ik ben spuit 1011, aangenaam!


  • Splendid
  • Registratie: April 2005
  • Laatst online: 15-12 11:57
Ik loop nog met wat plannen om mijn huidige server over te zetten naar een nieuwe kast (tower) met hot swappables 5in3 of 4in3. Nu zat ik zelf te denken om een Sharkoon Rebel9 Aluminium te nemen met daarin, om te beginnen, één Norcotek SS-500 5in3.

Nu had ik 2 vraagjes:
Ik zie dat er een Sharkoon Rebel9 Aluminium is maar ook een Sharkoon Rebel9 Pro Aluminium. Kan iemand mij vertellen wat het verschil is tussen deze 2 is wat ik kan het niet vinden...op de prijs na dan ;)

En de norco is nog vrij prijzig hier in Nederland en wordt niet veel aangeboden, dat verklaart de prijs natuurlijk. Nu kun je bij norcotek ook bestellen via een webshop. Een stuk goedkoper. Heeft iemand al ervaring met deze webshop? http://www.ipcdirect.net

Verwijderd

Splendid schreef op dinsdag 28 juni 2011 @ 23:15:
Ik loop nog met wat plannen om mijn huidige server over te zetten naar een nieuwe kast (tower) met hot swappables 5in3 of 4in3. Nu zat ik zelf te denken om een Sharkoon Rebel9 Aluminium te nemen met daarin, om te beginnen, één Norcotek SS-500 5in3.

Nu had ik 2 vraagjes:
Ik zie dat er een Sharkoon Rebel9 Aluminium is maar ook een Sharkoon Rebel9 Pro Aluminium. Kan iemand mij vertellen wat het verschil is tussen deze 2 is wat ik kan het niet vinden...op de prijs na dan ;)

En de norco is nog vrij prijzig hier in Nederland en wordt niet veel aangeboden, dat verklaart de prijs natuurlijk. Nu kun je bij norcotek ook bestellen via een webshop. Een stuk goedkoper. Heeft iemand al ervaring met deze webshop? http://www.ipcdirect.net
zoiets > http://gathering.tweakers.net/forum/view_message/36292021

een NORCO koop je direkt bij de europese importeur waar je heel prima geholpen word.. ook de aftersales is dik in orde 8)
(voor die prijzen kan je zelf niet importeren gezien het gewicht van die kasten)

[ Voor 8% gewijzigd door Verwijderd op 28-06-2011 23:23 ]


  • Splendid
  • Registratie: April 2005
  • Laatst online: 15-12 11:57
Verwijderd schreef op dinsdag 28 juni 2011 @ 23:20:
[...]


zoiets > http://gathering.tweakers.net/forum/view_message/36292021

een NORCO koop je direkt bij de europese importeur waar je heel prima geholpen word.. ook de aftersales is dik in orde 8)
(voor die prijzen kan je zelf niet importeren gezien het gewicht van die kasten)
Ja maar dan wel de 5in3 denk ik, ik vind die toch een stuk mooier dan de 4in3...

Ja ik had hem gezien bij ri-vier, nog €101 terwijl het omgerekend $68 zou kosten via de webshop excl verzendkosten en importkosten, als je pech hebt. Maar vind het nog een groot verschil...

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Verwijderd schreef op dinsdag 28 juni 2011 @ 21:20:
8GiB RAM heb je nu voor 5 tientjes, 16GiB voor iets meer dan 100. ECC is ook niet meer zo duur als eerst. Dus dat je prijs hiermee significant omhoog zou gaan hoeft niet perse zo te zijn.
Dat gaat op voor DDR3, niet DDR2. De CPU is een socket AM2. Dan heb je voor veertig euro 4GB geheugen of vijftig euro 4GB geheugen met ECC. Daarnaast heb je dan modules van 2GB, niet 4GB. De groeimogelijkheden met een goede performance zijn dan ook, met een AM2 samenstelling, wat beperkter bij een beperkt budget (4GB modules zijn echt een stuk duurder, als je snel bent 75 euro bij amazon, anders 100 euro per stuk).
Argh...smartass door de bocht. Spooky heeft het deels zelf ook al aangegeven.

[ Voor 13% gewijzigd door Dadona op 29-06-2011 00:01 ]

De CSL/OT kroeg !


  • Nextron
  • Registratie: Maart 2005
  • Laatst online: 01:20

Nextron

Ik weet dat ik niets weet

Sleepie schreef op dinsdag 28 juni 2011 @ 21:50:
Mijn testopstelling momenteel:
[afbeelding]
[afbeelding]
Aangepaste Rebel12, zodat er (uiteindelijk) 4 IcyDock 5-in-3 modules in kunnen.
Dat wordt een dure kast. Ik vind het mooi aan die IcyDocks dat je HD's er direct in kunnen, maar de airflow lijkt me minimaal?
Spoooky schreef op dinsdag 28 juni 2011 @ 22:29:
Ik bedacht me net iets.. Die CH3SNAS kan mooi dienen voor een flexibele backup oplossing voor belangrijke data...
Ik zie dat je disks ook individueel kan gebruiken, dat het geplande backups ondersteunt en dat je de prestatiewinst van RAID1 niet haalt. Dan kan je toch beter je backup naar een van de schijven sturen en elke maand ofzo de tweede schijf laten synchroniseren? Dan heb je ook nog een gemiddeld twee weken oude reserve backup voor het geval er iets mis blijkt te zijn met het actuele bestand.

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 23:26

OMX2000

By any means necessary...

Nextron schreef op dinsdag 28 juni 2011 @ 11:25:
[...]
Een SSD geeft bij meerdere VM's natuurlijk nog wat performance, itt tot een HD die door alle I/O over zijn nek gaat. Die kan je dan ook als bootmedium gebruiken. Alleen die Windows varianten die je noemt zijn meteen weer wat hongeriger naar schijfruimte, wat dus een grotere en duurdere SSD vereist.
Twee oplossingen:

-Verhoog je budget zodat je alles op SSD kan zetten. ESXi ondersteurt geen TRIM, dus goede garbage collection is wenselijk, zoals de pricewatch: Kingston SSDNow V+100 SVP100S2/96G (stand-alone drive) 96GB.

-Gebruik een USB stick om ESXi van de booten, zet een tweede USB stick op passthrough naar een VM waar de NAS van boot en alle HD's beschikbaar maakt aan ESXi, hierop zet je de andere VM's.

Houd er ook rekening mee dat de i3 geen VT-D ondersteund, en of je dit nodig denkt te hebben.
Die Kingston is cool. Ik denk dat ik dan wel een Samsung ga inleveren. Dus 3x 2TB in Raid 5. Vraag me wel af of ik daarmee een GBit lijn dicht trek.

Dè developers podcast in je moerstaal : CodeKlets Podcast


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Licht een beetje aan het soort RAID :) En of ESXi ertussen zit :)

Even niets...


  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06 15:03
FireDrunk schreef op woensdag 29 juni 2011 @ 08:56:
Licht een beetje aan het soort RAID :) En of ESXi ertussen zit :)
En niet geheel onbelangrijk wat voor een data als je een bestand van 3gb probeert te kopieren of 3gb aan 4k bestandjes.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Zeer valide punt :P Dat scheelt 400% :)

Even niets...


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:45
Nextron schreef op woensdag 29 juni 2011 @ 01:45:
[...]
Dat wordt een dure kast. Ik vind het mooi aan die IcyDocks dat je HD's er direct in kunnen, maar de airflow lijkt me minimaal?
Dat is inderdaad geen goedkope kast, maar zoals ik al eerder in dit topic heb aangegeven heb ik geen plaats voor een Norco 19" kast. Deze oplossing is dan het beste wat je ervan kunt maken (doel was om 20 schijven + 1 of 2 bootschijven kwijt te kunnen in een enkele kast) en is niet eens zo heel veel duurder dan een Norco oplossing.

Achter op die IcyDocks zitten fans die ervoor zorgen dat er genoeg lucht langs de harddisks gaat. Sterker nog, de disks zijn nu koeler dan als ik ze gewoon los op mijn bureau leg ;)
Die fans zijn overigens redelijk stil (in ieder geval stiller dan Addonics modules).

  • Loekie
  • Registratie: Juli 2001
  • Laatst online: 15:11
Sleepie schreef op woensdag 29 juni 2011 @ 11:38:
Achter op die IcyDocks zitten fans die ervoor zorgen dat er genoeg lucht langs de harddisks gaat. Sterker nog, de disks zijn nu koeler dan als ik ze gewoon los op mijn bureau leg ;)
Die fans zijn overigens redelijk stil (in ieder geval stiller dan Addonics modules).
Heb je wellicht een foto van de internals? m.a.w. waar de fan bevestigd is en hoe vrij deze lucht kan aanzuigen?
Ik heb nu een chieftec unit, een daar zitten nog redelijk wat gaten aan de achterzijde, dit is echter vaak anders.
Icydock zou een mooie aanvulling voor me zijn, maar dan moet de koeling wel ok zijn.

specs


  • Markos
  • Registratie: November 2007
  • Laatst online: 25-09-2024

Markos

FKA > Ik_ben_Mark3

iMars schreef op maandag 27 juni 2011 @ 14:39:
[...]

Ga je windows of *nix erop draaien? En wat voor raid wil je? RAID 0,1,5,Anders?
En waarom 1TB schijven en niet 1,5TB of 2TB?
Sorry beetje late reactie. 1TB omdat deze omdat deze vrijwel even duur zijn per GB als 1,5 en 2TB (bij 7200rpm) En ik meer schijfruimte op dit moment toch niet nodig heb.
Ik ga er Windows 7 op zetten. Het wordt dus een boot partitie voor een reguliere Windows installatie. (ik kan geen algemeen schijven topic vinden)

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:45
Loekie schreef op woensdag 29 juni 2011 @ 12:04:
[...]

Heb je wellicht een foto van de internals? m.a.w. waar de fan bevestigd is en hoe vrij deze lucht kan aanzuigen?
Ik heb nu een chieftec unit, een daar zitten nog redelijk wat gaten aan de achterzijde, dit is echter vaak anders.
Icydock zou een mooie aanvulling voor me zijn, maar dan moet de koeling wel ok zijn.
Een paar replies terug staat een fototje van mijn systeem. De zwarte 'uitstulpingen' achter op de IcyDocks zijn de fans.

Als je meer/betere foto's wilt, laat het me even weten (mag ook via DM) dan probeer ik die vanavond wel even te maken.

  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 19-12 16:48

iMars

Full time prutser

Ik_ben_Mark3 schreef op woensdag 29 juni 2011 @ 12:19:
[...]

Sorry beetje late reactie. 1TB omdat deze omdat deze vrijwel even duur zijn per GB als 1,5 en 2TB (bij 7200rpm) En ik meer schijfruimte op dit moment toch niet nodig heb.
Ik ga er Windows 7 op zetten. Het wordt dus een boot partitie voor een reguliere Windows installatie. (ik kan geen algemeen schijven topic vinden)
Ok, ja met Windows heb ik weinig tot geen ervaring. Maar omdat je boot disk zei, dacht ik gelijk aan *nix ;)

Koop hier mijn P1 reader :)


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Waarom 7200RPM als je toch RAID gaat draaien? Voor de latency hoef je het niet te doen, en met 4 F4EG's haal je praktisch evenveel snelheid als met 4* 7200RPM schijven...
7200RPM is duurder, word warmer en verbruikt meer stroom... En sequentieel scheelt het amper...

Even niets...


  • Loekie
  • Registratie: Juli 2001
  • Laatst online: 15:11
Sleepie schreef op woensdag 29 juni 2011 @ 12:23:
[...]

Een paar replies terug staat een fototje van mijn systeem. De zwarte 'uitstulpingen' achter op de IcyDocks zijn de fans.

Als je meer/betere foto's wilt, laat het me even weten (mag ook via DM) dan probeer ik die vanavond wel even te maken.
Ik heb al even op de icy dock pagina gekeken, ze doen exact hetzelfde als bijna alle fabrikanten.
Persoonlijk zou ik graag zien dat ze power en sata aan dezelfde zijde op de module laten binnenkomen als de schijven zelf, van achter bezien links dus, en van daaruit evt de schijven wat naar rechts verschoven met een 92mm fan aangesloten zodat je die backplane niet in de weg hebt zitten.
Als je kijkt naar deze backplane zou dat een een verticale uitvoeren moeten lukken, of kijk ik nu over iets obvious heen?

specs


  • Markos
  • Registratie: November 2007
  • Laatst online: 25-09-2024

Markos

FKA > Ik_ben_Mark3

Ik ging er vanuit dat ik met 7200rpm sneller zou zijn. Ik wil overigens Raid0 gaan gebruiken.
En ook meteen even voor de duidelijkheid, de schijven waar ik het nu over heb zijn voor een normale desktop waar Windows 7 op gedraaid zal worden. De server waar ik het eerder over had is nog toekomst muziek. Ik vraag het alleen in dit topic omdat ik geen beter geschikt topic kan vinden over schijven.

Maar wat ik begreep is dat je bij een enkele schijf voor boot schijf het beste een 7200rpm kunt gebruiken met een lage acces time. Maar dat geld dus niet voor raid. Klopt het dat de acces time alleen langer wordt bij raid opstellingen?
Wat is in jullie mening dan een betere bootschijf in raid0? 2x 1TB is voor mij op dit moment in principe genoeg, tenzij ik voor iets meer natuurlijk meer kan hebben

edit: ik zie dat 2TB of eventueel 1,5TB een betere keus is qua prijs

[ Voor 4% gewijzigd door Markos op 29-06-2011 13:21 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Voor boot is een SSD altijd de beste investering, RAID voor boot is niet echt beter omdat door RAID je access times inderdaad omhoog gaan. En juist bij boot zijn access times belangrijk.

Liever een kleine SSD voor OS, en dan bijvoorbeeld je Program Files op een andere disk (hoewel je dan wel goed moet backuppen, omdat het foutgevoelig is :) )

Ikzelf heb een 2 * 80GB SSD, 1 voor windows en programma's en 1 voor games.
Dat werkt echt als een trein.

RAID0 performance is pas leuk bij sequentiele acties, verder scheelt het niet zo heel veel.

Even niets...


  • Markos
  • Registratie: November 2007
  • Laatst online: 25-09-2024

Markos

FKA > Ik_ben_Mark3

SSD is voor mij als student helaas een no-go
Dus ik kan beter voor een enkele 7200rpm geen zonder raid? Is het eigenlijk enkel de boot van windows die er met raid niet sneller op zal worden? Of geld dit ook gewoon voor het starten van programma's? (kan me voorstellen dat windows uit meer kleine losse bestanden bestaat dat een gemiddeld programma/spel)

En waar kan ik nou het beste naar kijken? Ik zie soms ook 7200rpm schijven met een hogere acces time dan 5400/5900rpm schijven. Is die 7200rpm dan nog steeds sneller?

  • michiel.686
  • Registratie: Maart 2011
  • Laatst online: 27-11 14:11
Ik_ben_Mark3 schreef op woensdag 29 juni 2011 @ 13:37:
SSD is voor mij als student helaas een no-go
Dus ik kan beter voor een enkele 7200rpm geen zonder raid?
Dat is in ieder geval de voordeligste oplossing

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Ik_ben_Mark3 schreef op woensdag 29 juni 2011 @ 13:37:
SSD is voor mij als student helaas een no-go
Dus ik kan beter voor een enkele 7200rpm geen zonder raid? Is het eigenlijk enkel de boot van windows die er met raid niet sneller op zal worden? Of geld dit ook gewoon voor het starten van programma's? (kan me voorstellen dat windows uit meer kleine losse bestanden bestaat dat een gemiddeld programma/spel)

En waar kan ik nou het beste naar kijken? Ik zie soms ook 7200rpm schijven met een hogere acces time dan 5400/5900rpm schijven. Is die 7200rpm dan nog steeds sneller?
Dat kan, maar kies dan ook een goede disk uit... De WD Black series zijn harddisks die het goed doen.
Of je er in programma's ook profijt van hebt ligt totaal aan de applicatie. Adobe programma's bestaan vaak uit heel erg veel kleine files, en zijn daarom traag op harddisks (en RAID).

Sommige spellen hebben 1 grote datafile die ze grotendeels in het geheugen laden bij start van het spel.
Deze spellen hebben wel weer profijt van RAID0.

Nee, 7200RPM heeft eigenlijk geen voordeel als de access time lager is. Sequentieel doen 5400RPM en 7200RPM schijven niet veel onder voor elkaar.

Even niets...


  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Ik had een tijd geleden besloten dat ik zelf een kast wilde bouwen voor mijn storage.
Nu is het idee om te werken met norco backplanes welke verkrijgbaar zijn bij ri-vier.
Ik heb toen hier ook al eens gevraagd of het veel zou uitmaken of ik de sata of mini-sas backplanes zou kiezen. De conclusie was toen dat de mini-sas backplane gewoon hetzelfde doet als een breakout cable alleen dan in printplaat vorm en dat het voor een ZFS nas dus niet uitmaakt.

Nu vraag ik me alleen nog af of iemand weet wat het verschil is tussen de onderstaande backplanes:
SAS3505 V3.6.
SAW400PM V31

Heeft dit puur met de verschillende norco kasten te maken of zijn er meer verschillen ?
De SAW400PM is in elk geval later in het asortiment gekomen, is deze misschien sata600 compatible?

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Ik vandaag maar eens 2 x een Kingston S100 16G gekocht om het OS van mijn server/NAS op te zetten. Nu draait alles nog op een WD Caviar Blue 500G die ik ergens heb gevonden, maar die is toch wel een tikkeltje lawaaierig zo af en toe en neemt een bay in beslag waar ik ook een mooie 2TB in kan hangen. Die SSD'tjes leg ik wel gewoon los op de bodem :7. Bovendien ga ik ze in raid 1 zetten (mdadm), zodat de availability wat beter gegarandeerd is. En de performance wordt wellicht ook nog wat beter, alhoewel die schijven toch nooit iets te doen hebben.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • parcifal
  • Registratie: September 2007
  • Laatst online: 14-02-2021
dutch_warrior schreef op woensdag 29 juni 2011 @ 17:33:
Ik had een tijd geleden besloten dat ik zelf een kast wilde bouwen voor mijn storage.
Nu is het idee om te werken met norco backplanes welke verkrijgbaar zijn bij ri-vier.
Ik heb toen hier ook al eens gevraagd of het veel zou uitmaken of ik de sata of mini-sas backplanes zou kiezen. De conclusie was toen dat de mini-sas backplane gewoon hetzelfde doet als een breakout cable alleen dan in printplaat vorm en dat het voor een ZFS nas dus niet uitmaakt.

Nu vraag ik me alleen nog af of iemand weet wat het verschil is tussen de onderstaande backplanes:
SAS3505 V3.6.
SAW400PM V31

Heeft dit puur met de verschillende norco kasten te maken of zijn er meer verschillen ?
De SAW400PM is in elk geval later in het asortiment gekomen, is deze misschien sata600 compatible?
Ik vermoed dat t verschil ergens zit in de hdd status leds , maar kan ook gewoon een verbeterde print zijn
want er waren soms nog wel eens problemen had ik vernomen.
t beste is denk ik even checken op t Norco forum http://hardforum.com/show...9&posted=1#post1037430509 dan zal er mischien wat meer duidelijk worden.
Verder zal er geen verschil zijn tussen de SATA en SAS backplanes behalve de manier van bekabeling/ connectors , ik zou de SAS aanraden dat scheelt een boel in de kabelmanagment
en voor de kosten van de kabels maakt t nou ook niet echt veel uit.

[ Voor 7% gewijzigd door parcifal op 29-06-2011 18:01 ]


  • clonedonkey
  • Registratie: Augustus 2003
  • Laatst online: 22-12 17:04
Ik ben bezig mijn DIY NAS met Freenas te installeren. Nu wil ik op dit moment nog niks met raid gaan doen. Er zit nu ook alleen 1 2tb schijf in om mee te beginnen. Nu moet ik alleen kiezen tussen UFS en ZFS. Welke kan ik in mijn geval het beste kiezen nu ?

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
parcifal schreef op woensdag 29 juni 2011 @ 17:58:
[...]

Ik vermoed dat t verschil ergens zit in de hdd status leds , maar kan ook gewoon een verbeterde print zijn
want er waren soms nog wel eens problemen had ik vernomen.
t beste is denk ik even checken op t Norco forum http://hardforum.com/show...9&posted=1#post1037430509 dan zal er mischien wat meer duidelijk worden.
Verder zal er geen verschil zijn tussen de SATA en SAS backplanes behalve de manier van bekabeling/ connectors , ik zou de SAS aanraden dat scheelt een boel in de kabelmanagment
en voor de kosten van de kabels maakt t nou ook niet echt veel uit.
Mja ik stuur ook wel even een mailtje naar ri-vier.
Ik had inderdaad al voor de mini-SAS backplanes gekozen, ik moet wel een 90 graden mini-sas plug op de kabels hebben want ik wil de backplanes met de harddisk aansluitingen naar boven plaatsen. Op deze manier kan ik dan de backblaze storagepod nabouwen maar dan met een iets andere indeling en voldoende bandbreedte per schijf. Ik had al wat mini-sas kabels gevonden met 90 graden connector dus dat zou geen probleem moeten zijn.

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
clonedonkey schreef op woensdag 29 juni 2011 @ 18:27:
Ik ben bezig mijn DIY NAS met Freenas te installeren. Nu wil ik op dit moment nog niks met raid gaan doen. Er zit nu ook alleen 1 2tb schijf in om mee te beginnen. Nu moet ik alleen kiezen tussen UFS en ZFS. Welke kan ik in mijn geval het beste kiezen nu ?
Dat is afhankelijk van je overige hardware, voor ZFS is het wel handig om minimaal 4 GB geheugen te hebben, dus bij minder ram kan je beter UFS kiezen. Eigenlijk moet je bij Freenas nog iets meer ram hebben omdat het FreeBSD based is.

Hmm dubbelpost :(

  • clonedonkey
  • Registratie: Augustus 2003
  • Laatst online: 22-12 17:04
Heb op dit moment 3gb ram erin zitten. Zal dus UFS worden. Wat zijn eigenlijk basic gezegt de grootste verschillen ? Kan niet echt een vergelijking vinden tussen de twee

Verwijderd

die SAW400PM V31 is het oude type print (zit in mijn rpc-3216)

  • Obscurax
  • Registratie: Februari 2008
  • Niet online

Obscurax

carpe noctem

Mijn installatie is zo goed als klaar.
Hierbij enkele foto's, aub borroz.

Lack Rack:
benodigdheden:
2 lack tafels
4 vijzen/schroeven (+- 8cm)
vijs/schroefmachine

Maak 1 lack tafel, draai ze om, vijs het 2de blad aan de onderkant, klaar is kees.

Afbeeldingslocatie: http://img827.imageshack.us/img827/5742/img2275pe.jpg

Afbeeldingslocatie: http://img3.imageshack.us/img3/7430/img2276zn.jpg

Afbeeldingslocatie: http://img853.imageshack.us/img853/8418/img2277s.jpg

Afbeeldingslocatie: http://img32.imageshack.us/img32/4453/img2281hh.jpg

Afbeeldingslocatie: http://img148.imageshack.us/img148/8293/img2282r.jpg

Hier kun je zien wat er in zit:
Obscurax in "Het grote ZFS topic"
Dit is ook te zien: TP-Link TL-SG1024, OmniView® PRO2 KVM

Wat staat er nog op het programma: een zwart keyboard en wat cable management.

Verder wil ik alle actieve forumgangers uit deze thread, zfs en storage showoff thread bedanken _/-\o_

Verwijderd

Obscurax schreef op woensdag 29 juni 2011 @ 19:06:
Mijn installatie is zo goed als klaar.
Hierbij enkele foto's, aub borroz.

Lack Rack:
benodigdheden:
2 lack tafels
4 vijzen (+- 8cm)
vijsmachine

Maak 1 lack tafel, draai ze om, vijs het 2de blad aan de onderkant, klaar is kees.

[afbeelding]

[afbeelding]

[afbeelding]

[afbeelding]

[afbeelding]

Hier kun je zien wat er in zit:
Obscurax in "Het grote DIY RAID NAS topic deel 3"
Dit is ook te zien: TP-Link TL-SG1024, OmniView® PRO2 KVM

Wat staat er nog op het programma: een zwart keyboard en wat cable management.

Verder wil ik alle actieve forumgangers uit deze thread, zfs en storage showoff thread bedanken _/-\o_
wow !! respect _/-\o_

de 'tweakerway ' ik vind het geweldig :9


* vraagt zich af wat 'vijzen zijn :?

[ Voor 3% gewijzigd door Verwijderd op 29-06-2011 19:21 ]


  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Nou de verschillen zijn eigenlijk te groot om zo even op te noemen en daarvoor heb ik ook niet voldoende kennis. In de basis komt het erop neer dat ZFS een vrij nieuwe oplossing is, ZFS is meer dan alleen een bestandsysteem ZFS is namelijk ook een raid engine. En ZFS biedt goede bescherming voor je data door de checksums, vooral in raid achtige opstellingen is ZFS superieur aan traditionele oplossingen.

Bij standaard raid-5 opstellingen zijn er een aantal situaties waarin mogelijk data verlies kan optreden door bijvoorbeeld een write hole bug, ZFS pakt dit soort problemen aan.

Het beste is om gewoon even wat informatie door te lezen over ZFS, meestal staat in de betere artikelen wel beschreven waarom een bepaalde ZFS feature zo goed is.
klik
Verwijderd schreef op woensdag 29 juni 2011 @ 19:06:
die SAW400PM V31 is het oude type print (zit in mijn rpc-3216)
Oke dus eigenlijk moet dit V3.1 zijn ipv v31 of de SAS3505 moet versie 36 zijn ipv 3.6.
Wel vreemd dat de SAW400PM pas sind maart 2011 in de catalogus staat bij ri-vier en de SAS3505 staat er al sinds maart 2010 in.

[ Voor 18% gewijzigd door dutch_warrior op 29-06-2011 19:15 ]


  • Obscurax
  • Registratie: Februari 2008
  • Niet online

Obscurax

carpe noctem

Verwijderd schreef op woensdag 29 juni 2011 @ 19:08:
[...]


wow !! respect _/-\o_


* vraagt zich af wat 'vijzen zijn :?
Belgisch-Nederlands voor shroeven :+

  • clonedonkey
  • Registratie: Augustus 2003
  • Laatst online: 22-12 17:04
ZFS is dus een stuk beter eigenlijk. Nu wil ik die wel kiezen eigenlijk. Is dit ook gewoon mogelijk met 1 schijf ?

Verwijderd

Obscurax schreef op woensdag 29 juni 2011 @ 19:12:
[...]


Belgisch-Nederlands voor shroeven :+
LOL :o

slim van je dat je het blad van die 2e tafel hebt gebruikt .. word het toch een sterk geheel zo.

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
clonedonkey schreef op woensdag 29 juni 2011 @ 19:13:
ZFS is dus een stuk beter eigenlijk. Nu wil ik die wel kiezen eigenlijk. Is dit ook gewoon mogelijk met 1 schijf ?
Let wel op dat je met 1 disk en 3GiB ram niet veel voordeel gaat hebben van ZFS, de prestaties zullen tegenvallen en de data bescherming zal nauwelijks beter zijn als bij UFS.
Wanneer je net begint en een nas inricht als test is UFS misschien de betere keuze.

  • clonedonkey
  • Registratie: Augustus 2003
  • Laatst online: 22-12 17:04
dutch_warrior schreef op woensdag 29 juni 2011 @ 19:17:
[...]


Let wel op dat je met 1 disk en 3GiB ram niet veel voordeel gaat hebben van ZFS, de prestaties zullen tegenvallen en de data bescherming zal nauwelijks beter zijn als bij UFS.
Wanneer je net begint en een nas inricht als test is UFS misschien de betere keuze.
Thanks ! Zal dan nu beginnen met UFS :)

Ik heb nu de schijf met UFS aangemaakt en een windows share gemaakt. Is dit nu eigenlijk een map op de HDD ?? Het werkt prima zover ik nu kan zien maar vroeg me af hij nu eigenlijk een soort map heeft gemaakt op die hdd.

[ Voor 20% gewijzigd door clonedonkey op 29-06-2011 19:30 ]


  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06 15:03
Als ik jullie zo steeds begrijp heb je 1gb per 1tb aan zfs storage nodig.
Mijn doel is om 2 intel kaarten te gebruiken en de onboard sata aansluitingen. Dan heb ik in totaal een 22 aansluitingen x 2tb = 44Tb laat zeggen verdeeld over 2 raidz2 sets heb je 40gb effectieve storage.
Betekend dat dat je 44gb aan geheugen moet hebben wil je dit laten performen of is er een reken sommetje en houd het bijvoorbeeld bij 8gb op en verliest iedere gb extra zijn meerwaarde?

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Nou voor zover ik het begrijp houdt het voordeel van meer geheugen niet zomaar op.
Wat je echter wel kan doen is bijvoorbeeld 16GB ram plaatsen en dan een intel320 SSD inzetten voor L2ARC en ZIL, dit zal ook nog wel acceptabele prestaties leveren.
De 1 tot 2 GB ram per TB is een advies voor enterprise storage systemen.

Ik draai 3x2TB wd ears in raidz momenteel en ik merkte toch wel veel verschil tussen 4 en 8GB zelfs tussen 8 en 16GB nog. Het is ook afhankelijk van wat je wilt bereiken, je kan eerst proberen of je met 16GB je bandbreedte maximaal kan benutten en wanneer dit niet het geval is of wanneer je opslagruimte te hard groeit kan je altijd meer ram bijsteken.

@clonedonkey,
In principe is die windows (samba) share een map op je schijf ja, Linux en BSD werken intern echter iets anders dan Windows. Bij het maken van de share gaf je bij freenas altijd een mount point op, ik neem aan dat dit nog steeds zo is :). Het kan dus zijn dat jij als mount point de root (basis) van de schijf hebt opgegeven dan staat je data zeg maar waar bij Windows C: zit. Maar deze locatie is nog steeds een "map" binnen het BSD bestandssysteem, ik weet zo uit mijn hoofd niet hoe FreeNAS precies in elkaar steekt op dit gebied.

Hou het er maar op dat je share te vergelijken is met een map op een schijf binnen windows.
Vaak zegt men binnen Unix is alles een bestand maar dit is niet helemaal correct. Ik kan echter niet kort en bondig uitleggen hoe alles precies in elkaar steekt, ik heb gewoon nog niet genoeg ervaring met non Windows besturingssystemen.

[ Voor 65% gewijzigd door dutch_warrior op 29-06-2011 20:53 ]


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:45
whocarez schreef op woensdag 29 juni 2011 @ 19:56:
Als ik jullie zo steeds begrijp heb je 1gb per 1tb aan zfs storage nodig.
Mijn doel is om 2 intel kaarten te gebruiken en de onboard sata aansluitingen. Dan heb ik in totaal een 22 aansluitingen x 2tb = 44Tb laat zeggen verdeeld over 2 raidz2 sets heb je 40gb effectieve storage.
Betekend dat dat je 44gb aan geheugen moet hebben wil je dit laten performen of is er een reken sommetje en houd het bijvoorbeeld bij 8gb op en verliest iedere gb extra zijn meerwaarde?
Hou er rekening mee dat je met schijven met 4kB sectoren het beste 2 RAIDZ2 pools van 10 disks elk kunt aanmaken. Op zich perfect natuurlijk, hou je nog twee poortjes over voor je OS/L2ARC/ZIL disks.

  • Spoooky
  • Registratie: September 2002
  • Laatst online: 24-12 23:05

Spoooky

Core temp 37°C

Zijn dit ook goede kabels voor die sasuc8i ?

http://www.informatique.nl/?M=I&A=508025

winkel zit namelijk heel erg in de buurt...

Ik ben spuit 1011, aangenaam!


Verwijderd

Spoooky schreef op woensdag 29 juni 2011 @ 20:53:
Zijn dit ook goede kabels voor die sasuc8i ?

http://www.informatique.nl/?M=I&A=508025

winkel zit namelijk heel erg in de buurt...
ja is goed spul .. verder een *** zaak .. zit al 2 maanden op mijn kapotte qnap439 te wachten :)

[ Voor 12% gewijzigd door Verwijderd op 29-06-2011 21:06 ]


  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
@Sleepie, wat ik me al een tijdje afvraag is hoe je een dergelijke setup nou precies opbouwt.
Mijn begrip van ZFS is dat je een pool vult met vdevs, in een vdev zouden eigenlijk niet meer dan 9 devices moeten zitten, maar hoe maak je hiermee dan een 10 disk raidz-2 ?
Of is het 9 devices advies al achterhaald ?

EDIT:
@Borroz
Mja het advies van sleepie staat hier, dan is het misschien ook wel handig als hier een kleine toelichting staat.
En ik begrijp natuurlijk wel dat je meerdere vdevs in een pool kan plaatsen en met kleinere vdevs kan werken maar hoe werkt dat met raidz/raidz2, dan heb je toch meerdere kleine raidz arrays?
Of pas je de redundancy toe op een hoger niveau en werk je dus met non raidz vdevs?

[ Voor 43% gewijzigd door dutch_warrior op 29-06-2011 21:24 ]


Verwijderd

dutch_warrior schreef op woensdag 29 juni 2011 @ 21:08:
@Sleepie, wat ik me al een tijdje afvraag is hoe je een dergelijke setup nou precies opbouwt.
Mijn begrip van ZFS is dat je een pool vult met vdevs, in een vdev zouden eigenlijk niet meer dan 9 devices moeten zitten, maar hoe maak je hiermee dan een 10 disk raidz-2 ?
Of is het 9 devices advies al achterhaald ?
zie > Het grote ZFS topic
Pagina: 1 ... 68 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.