DIY RAID NAS bouwen Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 6 ... 14 Laatste
Acties:
  • 61.189 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 20:48
Ik heb ook naar de A8V-VM zitten kijken, maar dan zonder SE. De SE heeft namelijk maar 2 SATA-poorten.

Met een hw-controller is dat echter geen probleem meer. De non-SE is echter nergens meer leverbaar.

2 3com nics? Staat je switch dat ook toe, en heb je voldoende concurrent gebruikers dat je er ook baat bij hebt? Anders kun je beter voor die 35 euro dat gigabit kaartje kopen: werkt ook op 100mbit en als je eens twee tientjes over hebt kun je je switch upgraden.


Ik heb een fileserver thuis, Areca controller, 16x 300gb, dual xeon 2.4/400, 1gb ram, en een corrupt filesystem |:(
Ik wordt dus maar weer even met de neus op de feiten gedrukt: RAID is geen backup!

Helaas heb ik geen backup, gelukkig valt er nog een hoop te redden, iig qua bestandsnamen. Een hoop valt wel opnieuw te downloaden, en de rest is erg jammer maar helaas. De fileserver stond al 3 maanden uit, en het enige dat ik in die tijd miste was mijn mp3-collectie :+

Dat zorgt er wel voor dat mijn backup-plannen in 1 klap een stuk tastbaarder worden :+ Aangezien je pricewatch-mandje in een cookie staat en ik nu niet thuis zit kan ik zo de beoogde setup niet posten, maar ik ga de RAID6 van de fileserver opsplitsen in 2x raid5, en een FreeNAS dingetje opzetten die in een fysiek ander gebouw komt te staan.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Diabolical
  • Registratie: Augustus 2005
  • Laatst online: 02-10-2023
Twynn schreef op maandag 07 mei 2007 @ 16:27:
Waarom dan nog freenas / waarom een losse raid-controller?

Als je en geen gigabit wilt doen en je wilt het maar in een thuisnetwerkje zetten dan kan dit allemaal prima met een softwarematige raid-5 oplossing. (scheelt toch behoorlijk wat geld voor een hardware controller).

Met een hardwarematige raid-5 kun je juist weer elk os gebruiken om genoeg snelheid te halen.
Kan inderdaad kiezen voor een softwarematige oplossing maar heb in het verleden wat issues gehad met softwarematige RAID waardoor ik er huiverig voor ben er gebruik van te maken.

Waarom toch kiezen voor deze setup, bedoeling is om uiteindelijk wel Gigabit te geen gebruiken maar niet ineens (kan bruin niet trekken zeg maar). Dus nu een goed systeem opzetten, later het netwerk aanpakken (had ook andersom gekunt maar heb nu even meer prio aan opslag gesteld).

En een losse RAID controller is ietwat flexibeler ipv onboard RAID in geval van hardware failure.

Waarom geen FreeNAS in een dergelijke opstelling? Systeem zal alleen storage gaan doen, verder niets. Dacht dat FreeNAS daar beter in was dan een multi purpose OS? Of vergis ik me?
Paul Nieuwkamp schreef op maandag 07 mei 2007 @ 16:39:
2 3com nics? Staat je switch dat ook toe, en heb je voldoende concurrent gebruikers dat je er ook baat bij hebt? Anders kun je beter voor die 35 euro dat gigabit kaartje kopen: werkt ook op 100mbit en als je eens twee tientjes over hebt kun je je switch upgraden.
Die 2 nic's heb ik al liggen. Dus kan ik ze net zo goed inzetten :). Switch kan het aan (16 poorts 3Com Dualspeed switch)

Ik heb een gezin van 3 personen die allen regelmatig tegelijkertijd de mp'3 verzameling (legaal, allemaal geript van eigen cd's) aanspreken en waarvan 2 personen tegelijkertijd (ikzelf en dochterlief) wel eens een filmpje willen trekken (ook weer legaal geripte eigen DVD's toen dat nog kon).
Ik heb een fileserver thuis, Areca controller, 16x 300gb, dual xeon 2.4/400, 1gb ram, en een corrupt filesystem |:(
Ik wordt dus maar weer even met de neus op de feiten gedrukt: RAID is geen backup!
Dat klopt. Op dit moment backup ik de handel op een 20/40GB DLT tape unit.
Helaas heb ik geen backup, gelukkig valt er nog een hoop te redden, iig qua bestandsnamen. Een hoop valt wel opnieuw te downloaden, en de rest is erg jammer maar helaas. De fileserver stond al 3 maanden uit, en het enige dat ik in die tijd miste was mijn mp3-collectie :+
Oef.. ken het gevoel :)
Dat zorgt er wel voor dat mijn backup-plannen in 1 klap een stuk tastbaarder worden :+ Aangezien je pricewatch-mandje in een cookie staat en ik nu niet thuis zit kan ik zo de beoogde setup niet posten, maar ik ga de RAID6 van de fileserver opsplitsen in 2x raid5, en een FreeNAS dingetje opzetten die in een fysiek ander gebouw komt te staan.
Fysiek ander gebouw.. de schuur? ;)

[ Voor 44% gewijzigd door Diabolical op 07-05-2007 16:48 ]

"The internet has given a voice to the voiceless, but unfortunately it hasn't given a brain to the brainless."


Acties:
  • 0 Henk 'm!

  • bord4kop
  • Registratie: Mei 2006
  • Laatst online: 01-07 21:30

bord4kop

maximaal 100KB!

Diabolical schreef op maandag 07 mei 2007 @ 16:40:
[...]


Kan inderdaad kiezen voor een softwarematige oplossing maar heb in het verleden wat issues gehad met softwarematige RAID waardoor ik er huiverig voor ben er gebruik van te maken.

Waarom toch kiezen voor deze setup, bedoeling is om uiteindelijk wel Gigabit te geen gebruiken maar niet ineens (kan bruin niet trekken zeg maar). Dus nu een goed systeem opzetten, later het netwerk aanpakken (had ook andersom gekunt maar heb nu even meer prio aan opslag gesteld).

En een losse RAID controller is ietwat flexibeler ipv onboard RAID in geval van hardware failure.
Wat ik me vanaf het lezen van begin van dit topic tot de laatste pagina 's (ik geef toe ik heb niet alle 20 pages doorgespit) afvraag;
Waarom dit soort huis-tuin &keuken, pleister-plak oplossingen?

Als ik belangrijke data centraal zou moeten bewaren en ook nog es veilig en liefst el cheapo, hoef ik echt niet lang na te denken;

1 "oude" server op de kop tikken, laten we zeggen € 100?
Hierin zit dan al wat geheugen en dual proccies
min. 5 disken
SCSI SCSI SCSI oftwel een echte RAID oplossing die ook echt RAID is, SATA is en blijft IDE in een leuk jasje, een aardig alternatief, wat zeg ik? Een beter (en goedkoper) alternatief voor "normale" PC 's.
Wil je redundant, snel en safe data schrijven en lezen moet je echt een ander protocol gebruiken, SCSI is veel beter geschikt.

Tweedehands RAID controllers, vaak zitten ze nog in de 2dehands server kosten echt niet veel (meer).

MInpunt:
Kritische punt zijn de disken, gebruikte zijn vaak lang gebruikt in servers of 24/7 omgevingen. Die zijn niet meer 100% betrouwbaar.
Nieuw zijn ze meestal te duur.

Gebruikte doen het vaak nog wel lang, maar veel aan/uit zetten is meestal funest.
Dat betekend een 'server' die altijd aanstaat, en dat kan nog best in de 'papieren' gaan lopen. Anderzijds, was het de bedoeling van de TS om zijn NAS-idee ook min-of-meer 24/7 te laten draaien? Maakt dus mischien ook geen verschil.

Slechte/onbetrouwbare schijven? en dan?
De oplossing hiervoor is ook redelijk simpel, goeie RAID controllers (en liefst ook de disken) geven tijdig error meldingen.
RAID5 -> kaduke diskje eruit -> nieuwe/gebruikte er weer in. Simpel!


Bij een server (nouja, de "betere") kan dat helemaal mooi, namelijk: terwijl het ding aanstaat!

Advies;
Koop voor weing een leuk servertje, iets van dual XEON of zelfs PIII, met 512MB mem en een raid controller en een aantal disken.
En tik een leuke backup unit met wat tapes op de kop. (ook niet zo belachelijk duur).

Mocht het een keer echt helemaal mis gaan (bijv. 2 disken tegelijkertijd), heb je je backup i.i.g. nog!

Nog een voordeel van "echte" RAID oplossingen, bij een hardware failure kun je meestal je configuratie dag zeggen. Which means: al je data!!!
Goeie (SCSI) Raid controllers hebben een batterij en "aanstuur" unit. Die kun je vaak opslaan of of helemaal overzetten. Nieuwe hardware, disken in dezelfde volgorde erin en draaien maar weer!
Been there, done that ;)

Geloof me, als er bij IDE wat kaduk gaat ben je 9/10x alles kwijt.
Waarom geen FreeNAS in een dergelijke opstelling? Systeem zal alleen storage gaan doen, verder niets. Dacht dat FreeNAS daar beter in was dan een multi purpose OS? Of vergis ik me?
True!


EDIT
Ik bedenk me net dat dit hele bijdehante verhaal niet echt opgaat als je meer dan 500GB op moet slaan... Dan MOET je haast wel nieuwe SCSI schijven kopen... En die zijn DUUUUUR!
Hmm...

Nouja, het was -mischien- toch informatief :P

| Security Management |


Acties:
  • 0 Henk 'm!

  • ylja
  • Registratie: November 2006
  • Laatst online: 24-12-2023
Anoniem: 41852 schreef op maandag 07 mei 2007 @ 15:42:
[...]

:'(

[...]

nVidia ethernet is reverse engineered, je hebt ws. een moderne versie van FreeBSD nodig om dat te supporten. FreeBSD 7-CURRENT. Een nadeel, maar niet onoverkombaar.

Aangezien het bordje drie ( :9 ) PCI-express x1 sloten heeft, kun je natuurlijk ook makkelijk een Intel PCIe Gbps kaartje kopen, Intel Pro/1000 PT voor 35 euro ofzo, werkt als een zonnetje bij mij. :)


[...]

Aangezien 4 schijven via PCI lopen is de maximum throughput (8/4) * 133MB/s = 266MB/s. Dus het zal sowieso minimaal 8 * 500 * 1000 / 266MB/s = 4,2 uur duren. Aangezien je gaat rebuilden zullen de schijven ook niet altijd sequentieel lezen en schrijven, dus is 6 uur best goed te noemen.


[...]

Kun je via de tools eens een STATUS en LIST commando output geven, zover als hij goed als (na de rebuild) als na de reboot als hij critical is?


[...]

Mwa hoeft niet aan je schijven te liggen hoor, denk dat het een partitieprobleem is, had iemand al eerder last van. Dus een probleem met FreeNAS zeg maar. Heb je toevallig geupgrade van een versie en begonnen daarne de problemen? Nieuwere FreeNAS maken partities aan ipv op een kale schijf te werken.
Enlightenment, mijn excuses :) Ja ik gebruikt dus enkel en alleen FreeNAS, dus modernere versie ofzo voor FreeBSD zal niet zo simpel worden :) Maar dat PCI-e kaartje is zeker interessant!

Ik heb niet upgegrade nee, ik deed altijd een clean install. Booten via de cdrom en dan direct installeren op aparte HD. Ben misschien aan het denken dat ik een sterkere voeding moet kopen, heb momenteel een goedkoop 500w voedingske, misschien dat dat al wat oplost...

Als thuis ben zal ik eens die error logs proberen te pasten.

Acties:
  • 0 Henk 'm!

Anoniem: 41852

Diabolical schreef op maandag 07 mei 2007 @ 16:03:
In hoeverre is er ondersteuning voor Hardware Raid ingebouwd in FreeNAS? Ik zit te denken aan Areca of 3Ware maar kan niet echt uit de support of uit de wiki van FreeNAS halen of er out of the box kaarten werken of dat j ze moet toevoegen als losse kernel modules...
Daarvoor kun je beter direct in FreeBSD hardware compatibility list kijken, of op Areca daar staat ook dat hun drivers standaard bijgeleverd worden, al veel eerder dan bij Linux. :)
Mogelijk nieuwe config:

FreeNAS 0.684b
Asus A8V-VM-SE
2 x 3com 3c980 10/100 server NIC
Waarom geen gigabit?
AMD Athlon 3000+
512 MB Dual Channel PC3200
Hoe wil je dual channel halen met 1 reepje? Of gaat het om 2x256MB?
Hardware RAID controller (to be defined)
3 x Hitachi 300GB SATA2 disks (in RAID 5)
Vind je het niet een beetje zonde een hardware controller aan te schaffen voor een NAS setup? Waarom zie je software RAID niet als een goed alternatief?
Gigabit ethernet niet aanwezig dus heeft weinig nut die te gebruiken (budget laat geen wijziging toe in netwerk materiaal).
Ik denk dat verwijdering van de hardware controller je ruimte geeft voor gigabit en dus stukken sneller uit bent. En als het kan ook een intel Gbit kaartje + dualcore proc.

Acties:
  • 0 Henk 'm!

Anoniem: 41852

bord4kop schreef op maandag 07 mei 2007 @ 17:05:
Wat ik me vanaf het lezen van begin van dit topic tot de laatste pagina 's (ik geef toe ik heb niet alle 20 pages doorgespit) afvraag;
Waarom dit soort huis-tuin &keuken, pleister-plak oplossingen?
Hogere performance
Significant lagere prijzen
Exacte op maat voor je eigen eisen
Bij veel gigabyte vaak niet echt een andere oplossing, tenzij je voor peperdure servers gaat

Ik zou het om willen draaien? Waarom 400 euro aan een hardware oplossing uitgeven als je daar netto niets mee opschiet? En nog inflexibeler bent doordat de afhankelijk bent van de controller. Voor dat geld bouw je een 2e NAS die je als nightly backup kunt gebruiken.
Als ik belangrijke data centraal zou moeten bewaren en ook nog es veilig en liefst el cheapo, hoef ik echt niet lang na te denken;

1 "oude" server op de kop tikken, laten we zeggen € 100?
Hierin zit dan al wat geheugen en dual proccies
min. 5 disken
Ohja 5 SCSI disks en dual processors voor 100 euro? Dan heb je het wel over oude hardware zoals 5* 9GB SCSI disks zeker? Hoe wil je daar 3 terabyte op opslaan?
SCSI SCSI SCSI oftwel een echte RAID oplossing die ook echt RAID is, SATA is en blijft IDE in een leuk jasje, een aardig alternatief, wat zeg ik? Een beter (en goedkoper) alternatief voor "normale" PC 's.
Wil je redundant, snel en safe data schrijven en lezen moet je echt een ander protocol gebruiken, SCSI is veel beter geschikt.
Leeg eens uit waarom SCSI beter geschikt zou zijn? SCSI is voor dit type I/O juist veel minder geschikt, weet je zelf het fundamentele verschil tussen SCSI en IDE wel?
Kritische punt zijn de disken, gebruikte zijn vaak lang gebruikt in servers of 24/7 omgevingen. Die zijn niet meer 100% betrouwbaar.
Dus omwille van veiligheid kun je beter voor onbetrouwbare disks gaan? Je spreekt jezelf tegen.
Slechte/onbetrouwbare schijven? en dan?
De oplossing hiervoor is ook redelijk simpel, goeie RAID controllers (en liefst ook de disken) geven tijdig error meldingen.
RAID5 -> kaduke diskje eruit -> nieuwe/gebruikte er weer in. Simpel!
Waarom zou dit niet of minder goed mogelijk zijn met Software RAID?
Nog een voordeel van "echte" RAID oplossingen, bij een hardware failure kun je meestal je configuratie dag zeggen. Which means: al je data!!!
Met een Hardware controller wel ja, met Software RAID bouw je de schijven zo over in een nieuw systeem, ook al heeft die een totaal andere controller, en aansluiten in totaal andere volgorde, en je kunt zo weer bij je data. :)
Geloof me, als er bij IDE wat kaduk gaat ben je 9/10x alles kwijt.
Hoezo, vatten de kabeltjes vlam? Hoezo zou een interface wat zeggen over de schijf zelf?
Ik bedenk me net dat dit hele bijdehante verhaal niet echt opgaat als je meer dan 500GB op moet slaan... Dan MOET je haast wel nieuwe SCSI schijven kopen... En die zijn DUUUUUR!
Hmm...
Ja idd en laten mensen in dit topic nou geinteresseerd zijn in meer dan een paar schamele gigabytetjes, even rekenen:

5000GB / 73GB = 68 en een halve SCSI schijf, kost dat? ach een kleine 8768, en met een budget van 10.000 euro heb je ook genoeg marge om de interessante stroomrekening te kunnen betalen. :+

Acties:
  • 0 Henk 'm!

  • Diabolical
  • Registratie: Augustus 2005
  • Laatst online: 02-10-2023
Anoniem: 41852 schreef op maandag 07 mei 2007 @ 18:03:
[...]

Daarvoor kun je beter direct in FreeBSD hardware compatibility list kijken, of op Areca daar staat ook dat hun drivers standaard bijgeleverd worden, al veel eerder dan bij Linux. :)
Had ook gekund ja.... :$
[...]

Waarom geen gigabit?
Nog geen geld en ik heb die 2 3com server nics liggen.
[...]

Hoe wil je dual channel halen met 1 reepje? Of gaat het om 2x256MB?
Juistem... ;)
[...]

Vind je het niet een beetje zonde een hardware controller aan te schaffen voor een NAS setup? Waarom zie je software RAID niet als een goed alternatief?
Waarom niet? Zoals ik hierboven al schreef heb ik nogal slechte ervaringen met software raid. Hardware RAID heeft een wat grotere veiligheid.
[...]

Ik denk dat verwijdering van de hardware controller je ruimte geeft voor gigabit en dus stukken sneller uit bent. En als het kan ook een intel Gbit kaartje + dualcore proc.
Dat klopt maar ben wat huiverig voor software RAID. Proc heb ik liggen evenals de nics. Dus die hoef ik niet aan te schaffen. Met een hardwarematige RAID heb ik ook wat meer veiligheid. Dat gigabit netwerk komt er wel maar waar ik nu behoefte aan heb is veilige en bereikbare (as opposed to time outs die ik nu ervaar ;)) storage. En met veilig bedoel ik zo min mogelijk foutgevoelig (binnen budget natuurlijk ;)).

"The internet has given a voice to the voiceless, but unfortunately it hasn't given a brain to the brainless."


Acties:
  • 0 Henk 'm!

Anoniem: 41852

ylja schreef op maandag 07 mei 2007 @ 17:28:
Enlightenment, mijn excuses :)
Goeeed zo. :+
Ja ik gebruikt dus enkel en alleen FreeNAS, dus modernere versie ofzo voor FreeBSD zal niet zo simpel worden :) Maar dat PCI-e kaartje is zeker interessant!
Ja als je gewoon het gemak van FreeNAS wilt behouden zou ik gewoon voor intel kaartje gaan, presteert goed en dankzij PCI-express in de toekomst nog lange tijd plezier van.
Ik heb niet upgegrade nee, ik deed altijd een clean install. Booten via de cdrom en dan direct installeren op aparte HD. Ben misschien aan het denken dat ik een sterkere voeding moet kopen, heb momenteel een goedkoop 500w voedingske, misschien dat dat al wat oplost...
Voor 8 schijven is 400W zat. Maar neem wel een merk voeding en niet van die goedkope zooi. Met name de vele beveiligingen in een goede voeding kan je data redden. Ik raad CoolerMaster iGreen 430W aan.
Diabolical schreef op maandag 07 mei 2007 @ 18:26:
Waarom niet? Zoals ik hierboven al schreef heb ik nogal slechte ervaringen met software raid. Hardware RAID heeft een wat grotere veiligheid.
Wil je eens vertellen over die slechte ervaringen, of ligt dat te traumatisch? :P
Welke RAID-software gebruikte je (windows, linux md, bsd gvinum/geom) en wat is er precies gebeurd?
Dat klopt maar ben wat huiverig voor software RAID. (..) Met een hardwarematige RAID heb ik ook wat meer veiligheid.
Theoretisch iig niet, want zonder BBU los je met een Areca niet de RAID5 write hole op; geom_raid5 (software RAID5) doet dat wel, zonder BBU; door de metadata op de schijven zelf bij te houden). Daarnaast als er iets aan je systeemhardware stuk gaat kun je het zaakje zo overzetten naar een ander systeem, zonder configuratiebestanden of wat dan ook nodig te hebben.

Waar je wel een mogelijk punt zou hebben, is dat iets als Areca meer, langer en beter getest is. Dat zou tot een hogere betrouwbaarheid kunnen leiden. Maar waar ben je precies bang voor wat er gebeurt? Ik zelf draai sinds november ofzo al een half jaar continue zonder problemen Software RAID5 (geom_raid5) en dat voldoet uitstekend. Elke keer rebooten geen probleem, systeemcrashed geen probleem, kabel uit schijf trekken en er weer in geen probleem. Rebooten tijdens rebuild geen probleem. Al met al erg prettig en onderhoudsloos dus.

Maar wat voor mij geldt hoeft natuurlijk niet perse voor jou te gelden. Als je echt een veiliger gevoel hebt bij hardware RAID dan is het misschien beter daarvoor te kiezen, al is het alleen maar om je gevoel van onveiligheid weg te nemen.

[ Voor 46% gewijzigd door Anoniem: 41852 op 07-05-2007 18:58 ]


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Het idee van een oud pentium 3/xeon bakje te kopen is niet zo verkeerd, zolang je maar die oude scsi schijven eruit gooit en er s-ata insteekt. Ik heb het zelf gedaan met een proliant ML350 waarin 6 SCSI schijven inkonden. Ik heb de brackets allemaal een beetje bewerkt en nu draait het als een trein. Er zitten 8x500GB in RAID6 op een Areca 1120 in en 2x160GB in RAID1 op een simpelere 3ware. Voorts zit er een dual poort intel gigabit kaartje in.
Afbeeldingslocatie: http://cijferman.no-ip.org:1337/img/proliant-ml350/2_tn.jpgAfbeeldingslocatie: http://cijferman.no-ip.org:1337/img/proliant-ml350/DSC_2319_tn.JPG
Afbeeldingslocatie: http://cijferman.no-ip.org:1337/img/proliant-ml350/DSC_2328_tn.jpgAfbeeldingslocatie: http://cijferman.no-ip.org:1337/img/proliant-ml350/3_tn.jpg

Het voeding verhaal kan ik deels ontkrachten ik draai nu al een tijdje thuis 8x250GB + 1x400GB + 3x200GB samen met een Sempron 64 2800+ op een 200watt aopen voedingkje (small form).

[ Voor 7% gewijzigd door analog_ op 07-05-2007 18:57 ]


Acties:
  • 0 Henk 'm!

  • Diabolical
  • Registratie: Augustus 2005
  • Laatst online: 02-10-2023
Anoniem: 41852 schreef op maandag 07 mei 2007 @ 18:48:
Wil je eens vertellen over die slechte ervaringen, of ligt dat te traumatisch? :P
Welke RAID-software gebruikte je (windows, linux md, bsd gvinum/geom) en wat is er precies gebeurd?
Okay... goed dan, je vroeg er om....

Op een kwade zondag avond (of was het maandag... hmmm... momentje....)

Nee... op een kwade maandagavond in november ergens rond 2003. Het was guur weer... Diabolical zat achter zijn systeem, rustig te genieten van een heerlijk nummer van Savatage....

Enfin, zal het lange verhaal skippen.... :+

Ik had op een linux (SuSE) systeem een software raid 0+1 opgebouwd met 4 x 20GB WD schijven en een 40GB boot/app disk). Alles draaide lekker tot op een gegeven moment 1 van de schijven uitviel. Ach.. geen probleem. Ik heb toch Raid 0+1. Data is "veilig". Niet dus. Whatever happened.. data was eveneens weg van de hele array. Tot op vandaag zal het mij een raadsel blijven. Geen fouten in de logs te ontdekken. Alles leek goed en rustig te wezen todat er dus 1 schijf uitknalde. Je zou toch denken dat dat niet mag kunnen maar ja.....
[...]

Theoretisch iig niet, want zonder BBU los je met een Areca niet de RAID5 write hole op; geom_raid5 (software RAID5) doet dat wel, zonder BBU; door de metadata op de schijven zelf bij te houden). Daarnaast als er iets aan je systeemhardware stuk gaat kun je het zaakje zo overzetten naar een ander systeem, zonder configuratiebestanden of wat dan ook nodig te hebben.
Tja, met dezelfde controller zou dat ook geen probleem moeten zijn.
Waar je wel een mogelijk punt zou hebben, is dat iets als Areca meer, langer en beter getest is. Dat zou tot een hogere betrouwbaarheid kunnen leiden. Maar waar ben je precies bang voor wat er gebeurt? Ik zelf draai sinds november ofzo al een half jaar continue zonder problemen Software RAID5 (geom_raid5) en dat voldoet uitstekend. Elke keer rebooten geen probleem, systeemcrashed geen probleem, kabel uit schijf trekken en er weer in geen probleem. Rebooten tijdens rebuild geen probleem. Al met al erg prettig en onderhoudsloos dus.
Nou.. verhaal hierboven dus... niet echt fijne ervaring als je denkt je data toch enigzins veilig te hebben maar achteraf blijkt van niet....
Maar wat voor mij geldt hoeft natuurlijk niet perse voor jou te gelden. Als je echt een veiliger gevoel hebt bij hardware RAID dan is het misschien beter daarvoor te kiezen, al is het alleen maar om je gevoel van onveiligheid weg te nemen.
Tja, liefst had ik een controller met BBU. Maar dat maakt de hele handel ook gelijk een stuk duurder.

Enlightenment (verlichting.... ;)), hoe lang ben je al bezig met RAID systemen? Je lijkt er veel vanaf te weten....

"The internet has given a voice to the voiceless, but unfortunately it hasn't given a brain to the brainless."


Acties:
  • 0 Henk 'm!

  • Kluk-Kluk
  • Registratie: Mei 2002
  • Laatst online: 21-06 20:52

Kluk-Kluk

laat maar vallen.....

Mr.SiS schreef op maandag 07 mei 2007 @ 18:56:

....verhaal.....

Het voeding verhaal kan ik deels ontkrachten ik draai nu al een tijdje thuis 8x250GB + 1x400GB + 3x200GB samen met een Sempron 64 2800+ op een 200watt aopen voedingkje (small form).
Ik neem aan dat dat een voeding uit een barebone is dan. Dat zijn vaak akelig stabiele PSU's al is het totaal opgegeven vermogen niet eens zo hoog.

Ze zijn in mijn ogen ideaal voor (veel) thuis-server doeleinden!

Ik draai trouwens op mijn "pc-van-alle-dag" al bijna 2 jaar een RAID 0 array als system disk (2x WD 120 Gb 7k2).op een Gigabyte GA-8KNXP rev2. Ik heb in die twee jaar geen enkel probleem met dit systeem gehad, en niet eens windows opnieuw geinstalleerd. Dus ik kan niet echt zeggen dat ik software RAID onbetrouwbaar vind.

[ Voor 23% gewijzigd door Kluk-Kluk op 07-05-2007 21:44 ]

Powered By C8H10N4O2


Acties:
  • 0 Henk 'm!

  • fv
  • Registratie: Augustus 2000
  • Laatst online: 04-07 18:30

fv

-------------------> hiero

Anoniem: 41852 schreef op zondag 06 mei 2007 @ 18:32:

Testen zou heel mooi zijn! Ik ga volgende week op vakantie dus ik heb niet veel tijd meer. Maar ik zal m'n best doen. Anders na mn vakantie, eind mei ofzo.
Indien het toch nog mocht lukken ;) : mail naar meelboxs at xs4all.nl.

Videoprojectie engineer, hardware & software development, ICT en veel meer. De meest nutteloze technische projecten zijn het leukst.


Acties:
  • 0 Henk 'm!

  • ylja
  • Registratie: November 2006
  • Laatst online: 24-12-2023
net weer proberen een raid-5 array te maken, het rebuilden is geen probleem, maar als ik dan de raid-5 wil gaan formateren komt er enkel:

Erasing MBR and all partitions.
Destroying old GPT information:
Creating GPT partition:
Creating filesystem with 'Soft Updates':
Done!

in die PDF van freenas staat dat er veel meer zou moeten bijkomen, maja :(
enig idee hoe dit oplosbaar is? want na een reboot van de freenas server wordt de raid-5 weer critical en mounten is niet mogelijk, altijd error status

Acties:
  • 0 Henk 'm!

Anoniem: 41852

ylja schreef op maandag 07 mei 2007 @ 23:37:
in die PDF van freenas staat dat er veel meer zou moeten bijkomen, maja :(
enig idee hoe dit oplosbaar is? want na een reboot van de freenas server wordt de raid-5 weer critical en mounten is niet mogelijk, altijd error status
Zonder de STATUS en LIST output kan ik je niet helpen. Je kunt deze informatie opvragen binnen de FreeNAS GUI bij 'tools' ergens.

Acties:
  • 0 Henk 'm!

  • ylja
  • Registratie: November 2006
  • Laatst online: 24-12-2023
JBOD gemaakt van 6 schijven om te testen...

jbod gemaakt en geformatteerd...

STATUS:
Name Status Components
concat/storage UP ad12
ad14
ad16
ad18
ad4
ad6

LIST:
Geom name: storage
State: UP
Status: Total=6, Online=6
Type: AUTOMATIC
ID: 885756049
Providers:
1. Name: concat/stein
Mediasize: 3000647169024 (2.7T)
Sectorsize: 512
Mode: r0w0e0
Consumers:
1. Name: ad12
Mediasize: 500107862016 (466G)
Sectorsize: 512
Mode: r0w0e0
Start: 0
End: 500107861504
2. Name: ad14
Mediasize: 500107862016 (466G)
Sectorsize: 512
Mode: r0w0e0
Start: 500107861504
End: 1000215723008
3. Name: ad16
Mediasize: 500107862016 (466G)
Sectorsize: 512
Mode: r0w0e0
Start: 1000215723008
End: 1500323584512
4. Name: ad18
Mediasize: 500107862016 (466G)
Sectorsize: 512
Mode: r0w0e0
Start: 1500323584512
End: 2000431446016
5. Name: ad4
Mediasize: 500107862016 (466G)
Sectorsize: 512
Mode: r0w0e0
Start: 2000431446016
End: 2500539307520
6. Name: ad6
Mediasize: 500107862016 (466G)
Sectorsize: 512
Mode: r0w0e0
Start: 2500539307520
End: 3000647169024

NIET gemount...

na reboot is de status van de JBOD blanco (staat niets)

STATUS:
Name Status Components
stein DOWN ad12
ad6
ad4

LIST:
Geom name: stein
State: DOWN
Status: Total=6, Online=3
Type: AUTOMATIC
ID: 885756049
Consumers:
1. Name: ad12
Mediasize: 500107862016 (466G)
Sectorsize: 512
Mode: r0w0e0
Start: 0
End: 0
2. Name: ad6
Mediasize: 500107862016 (466G)
Sectorsize: 512
Mode: r0w0e0
Start: 0
End: 0
3. Name: ad4
Mediasize: 500107862016 (466G)
Sectorsize: 512
Mode: r0w0e0
Start: 0
End: 0

bij disk management staat alles nog ONLINE:
ad12 476941MB SAMSUNG HD501LJ/CR100-10 Always on SoftRaid ONLINE [Edit disk] [Delete disk]
ad14 476941MB SAMSUNG HD501LJ/CR100-10 Always on SoftRaid ONLINE [Edit disk] [Delete disk]
ad16 476941MB SAMSUNG HD501LJ/CR100-10 Always on SoftRaid ONLINE [Edit disk] [Delete disk]
ad18 476941MB SAMSUNG HD501LJ/CR100-10 Always on SoftRaid ONLINE [Edit disk] [Delete disk]
ad4 476941MB SAMSUNG HD501LJ/CR100-10 Always on SoftRaid ONLINE [Edit disk] [Delete disk]
ad6 476941MB SAMSUNG HD501LJ/CR100-10 Always on SoftRaid ONLINE [Edit disk] [Delete disk]

Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 23:20
Diabolical schreef op maandag 07 mei 2007 @ 20:32:

Nou.. verhaal hierboven dus... niet echt fijne ervaring als je denkt je data toch enigzins veilig te hebben maar achteraf blijkt van niet....
Je had je raid zetup ook echt moeten testen nadat je em gemaakt had, maar voordat er belangrijke data opstond.
Dus: shutdown, trek random IDE kabel uit drive, boot, en kijken wat er gebeurt.
Daarnaast, RAID is geen backup!
Als die Areca straks de pijp aan Maarten geeft (of je voeding vindt het wel leuk geweest en laat met een flinke stroompiek de geest) ben je alsnog alles kwijt met een beetje pech.
Dus, test je systeem voordat je hem in gebruik neemt, dat levert meer betrouwbaarheid op dan er gewoon duurdere hardware in te gooien.

Overigens staat SCSI niet gelijk aan betrouwbaarheid. 10 jaar terug was de kloof tussen SCSI en IDE(/SATA) veel groter dan nu. IDE heeft veel voordelen gekregen met de jaren. Sneller, betrouwbaarder, grotere capaciteit. Alleen de seektime blijft nog steeds achter, maar boeie voor NAS.

Als je je geld niet in een areca steekt maar in een Gbit kaartje en een Gbit switch ben je beter af imho.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 20:48
P5ycho schreef op dinsdag 08 mei 2007 @ 09:49:
Alleen de seektime blijft nog steeds achter
Dat ligt enerzijds aan de toeren die de schijf draait (wat dus niets met zijn interface te maken heeft) en anderzijds aan trucjes in het SCSI-protocol die tegenwoordig ook in het SATA-protocol zitten, zoals command queuing enzo.

Het toerenprobleem kun je oplossen met Raptors, maar dan zit je weer op de oude bottleneck van SCSI: je portemonnee :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Twynn
  • Registratie: Maart 2001
  • Laatst online: 02-07 12:03
P5ycho schreef op dinsdag 08 mei 2007 @ 09:49:
Overigens staat SCSI niet gelijk aan betrouwbaarheid. 10 jaar terug was de kloof tussen SCSI en IDE(/SATA) veel groter dan nu. IDE heeft veel voordelen gekregen met de jaren. Sneller, betrouwbaarder, grotere capaciteit. Alleen de seektime blijft nog steeds achter, maar boeie voor NAS.
Nog net iets langer geleden was de kloof tussen scsi en ide eigenlijk veel kleiner. Vroeger (in de tijd van de 5400 rpm schijven) waren de mechanische delen gewoon gelijk, het enige verschil was de printplaat die erop geplakt was. (voorbeelden als de quantum fireball bijvoorbeeld).

Acties:
  • 0 Henk 'm!

Anoniem: 158574

Wij zitten hier thuis ongeveer hetzelfde probleem. We zitten hier met 3 (nerd) studenten die veel data gebruiken met pc's en laptops, die altijd beschikbaar moet zijn (mp3 verzameling centraal enzo).

Op dit moment hangt dat nog in onze server/router op een enkele schijf, we willen ook een extra raid controller gaan kopen om daar 3x 500GB in te hangen in raid5. Ik heb wat onderzoek gedaan en er waren wel een aantal problemen die zich dan zouden voordoen:

De breedte van de PCI bus - Ik weet niet of meer mensen zich dit hebben beseft, maar de PCI bus is niet zo breed. Als je een Raid Controller en een heftige(Gbit) NIC (in ons geval 2 omdat het systeem ook als router fungeert) erin hangt dan zal niet je HDD OF je NIC de bottleneck zijn maar de hoeveelheid data die over 1 PCI bus kan, aangezien ze allemaal op dezelfde aangesloten zitten.

Dit is op te lossen door een nieuw moederbord te kopen en daar een PCI express RAID controller in te zetten met NIC's op de PCI bus. Maar dat is dus weer een uitgave, dan moet er ook een nieuwe cpu en ram komen..

Ik ben wel benieuwd wat voor transfer rates je dan zou halen. In ons geval zullen er praktisch alleen bestanden van >3MB op komen dus de sector size zal wel redelijk groot kunnen worden, ik heb alleen geen idee hoeveel impact dit precies heeft op de snelheden, iemand?

Naast bovenstaand issue is het ook de vraag of, als je dan toch een nieuw mobo gaat kopen, je niet beter software raid kunt draaien - het punt daarmee is de CPU tijd die geslurpt wordt, alhoewel dat in ons geval niet veel boeit (ding idlet voornamenlijk op het moment).
Naast dat is het ook zo dat je dan een aparte schijf nog wilt voor je OS aangezien je anders niet kunt booten als er een schijf uit het array stuk gaat om het array te recoveren.

Nog een issue is de ondersteuning voor Linux van de meeste RAID arrays - Ik heb wat rondgegooglet en ik kom een boel problemen met de FastTrack controlers van Promise tegen onder linux. We draaien nu TUI Debian Sarge, en willen het liefst wel debian blijven draaien (geen distro-flamewar please :P) aangezien we daar de meeste ervaring mee hebben.

Allemaal beetje moeilijk, wij kijken de kat nog even uit de boom (en wachten tot onze bankrekeningen weer voldoende gespekt zijn om uberhaupt hardware inkopen te doen :P)

Acties:
  • 0 Henk 'm!

  • Twynn
  • Registratie: Maart 2001
  • Laatst online: 02-07 12:03
Even een tip: Neem eens de tijd en lees dit topic eens een keer door. Dan zul je zien dat de dingen die je vraagt allemaal al behandeld zijn in dit topic ;)
De breedte van de PCI bus - Ik weet niet of meer mensen zich dit hebben beseft, maar de PCI bus is niet zo breed. Als je een Raid Controller en een heftige(Gbit) NIC (in ons geval 2 omdat het systeem ook als router fungeert) erin hangt dan zal niet je HDD OF je NIC de bottleneck zijn maar de hoeveelheid data die over 1 PCI bus kan, aangezien ze allemaal op dezelfde aangesloten zitten.

Dit is op te lossen door een nieuw moederbord te kopen en daar een PCI express RAID controller in te zetten met NIC's op de PCI bus. Maar dat is dus weer een uitgave, dan moet er ook een nieuwe cpu en ram komen..
Klopt. de 133MB/s bandbreedte van de pci bus. Overigens ook op te lossen met oudere serverbordjes die een (bredere) pci-x bus hebben bijvoorbeeld.
Naast bovenstaand issue is het ook de vraag of, als je dan toch een nieuw mobo gaat kopen, je niet beter software raid kunt draaien - het punt daarmee is de CPU tijd die geslurpt wordt, alhoewel dat in ons geval niet veel boeit (ding idlet voornamenlijk op het moment).
Zoveel cpu power gebruikt software raid nou ook weer niet. Voorbeelden genoeg te vinden :)
Naast dat is het ook zo dat je dan een aparte schijf nog wilt voor je OS aangezien je anders niet kunt booten als er een schijf uit het array stuk gaat om het array te recoveren.
Je kunt ook denken aan bijv. een flashkaartje.
Nog een issue is de ondersteuning voor Linux van de meeste RAID arrays - Ik heb wat rondgegooglet en ik kom een boel problemen met de FastTrack controlers van Promise tegen onder linux. We draaien nu TUI Debian Sarge, en willen het liefst wel debian blijven draaien (geen distro-flamewar please :P) aangezien we daar de meeste ervaring mee hebben.
Tja, als je alleen bij debian wilt blijven mis je inderdaad de freenas mogelijkheden. Qua software raid is md nog best aardig. Met de nieuwere kernels ook de mogelijkheid om offline capacity expansion te doen.

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 20:48
Ook op oudere hardware kun je prima software raid doen. Ik heb eens mijn dmesg-output zitten bekijken, en een p4 2.4 XORt meerdere gigabytes per seconde. Met een celeron 2.0 en 6 schijven in MD raid5 (Debian Sarge, of was dat nog Woody? Hmm) haalde ik ook al 60mb/s via Samba (alles onboard, PSCH-L), al moet ik daar bij zeggen dat ik vaker 45mb haalde dan 60 :P

Hoge transferrates zijn fijn, maar op een beperkt budget moet je je er niet blind op staren. Hoe vaak zit je nu werkelijk meerdere gigabytes over te pompen? Normaal (mp3, dvd-filmpje kijken, spel installeren) heb je aan 100mbit al meer dan genoeg.

Ik weet niet wat de specs van die server nu zijn, maar als er genoeg (s)ata poorten vrij zijn zou ik eerst eens kijken wat je nu haalt met de onboard controllers en een sweex gigabit nicje van een tientje voordat je er een raidcontroller van een paar honderd euro inzet of zelfs de hele handel vervangt door iets nieuws :)


Ik ga voor de:
1x pricewatch: Asus M2N-MX, nForce 430 MCP (mATX, PCI-e, Sound, LAN, SATA II, RAID)
1x pricewatch: AMD Athlon 64 3200+ (AM2, 2.0GHz, 512KB, 400MHz Bus, 62W, Boxed)
2x pricewatch: 512MB PC6400 DDR2 CL5 (Kingston, KVR800D2N5/512)
1x pricewatch: Intel PRO/1000 PT Desktop Adapter (1000Mbps, PCI-e 1x)
2x pricewatch: Samsung SpinPoint T166 HD501LJ, 500GB (7200rpm, SATA II, 16MB, NCQ)
1x pricewatch: Antec SmartPower 2.0 SP-400, 400W (ATX12V v2.0)

Die Intel netwerkkaart omdat ik overal hoor dat nVidia's netwerkkaartdriver een bij elkaar gehackt zooitje is onder FreeBSD :)
Zodra het binnen is zal ik wel resultaten posten :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Kenny_NL
  • Registratie: Februari 2005
  • Laatst online: 03-07 20:55
Een S370-minibordje met een Celeron op 1.13Ghz met 256MB, en een Promise SATA300-TX4 met 3x Samsung van 250Gb (RAID5, maar ik weet nog niet of dit zo blijft), terwijl alles draait op een 128MB ATA-flashdrive met FreeNAS 0.68b4, werkt hier anders ook prima.
Zoveel zooi heb ik ook niet, en ik ben (nog) de enige gebruiker...

Het geheel gebruikt (relatief) weinig stroom, en doet wat het moet doen...

Wellicht verruil ik de RAID5-config van FreeNAS nog voor een "gewone" configuratie met 3 schijven, mogelijk is dit sneller (gezien de specs van het systeem) en minder fout-gevoelig (ik RTFM nog wel eens te weinig)...

[ Voor 23% gewijzigd door Kenny_NL op 08-05-2007 17:04 ]


Acties:
  • 0 Henk 'm!

Anoniem: 41852

Anoniem: 158574 schreef op dinsdag 08 mei 2007 @ 12:35:
De breedte van de PCI bus - Ik weet niet of meer mensen zich dit hebben beseft, maar de PCI bus is niet zo breed. Als je een Raid Controller en een heftige(Gbit) NIC (in ons geval 2 omdat het systeem ook als router fungeert) erin hangt dan zal niet je HDD OF je NIC de bottleneck zijn maar de hoeveelheid data die over 1 PCI bus kan, aangezien ze allemaal op dezelfde aangesloten zitten.
Idd daarom moet je zorgen dat je NIC via PCI-e loopt (onboard is dat bij moderne borden het geval) of een los PCIe kaartje. En storage hoort ook niet op een trage PCI bus, al helemaal niet met een grote RAID array. Gebruik je JBOD dan maakt het echter weer niets uit. :)
Dit is op te lossen door een nieuw moederbord te kopen en daar een PCI express RAID controller in te zetten met NIC's op de PCI bus. Maar dat is dus weer een uitgave, dan moet er ook een nieuwe cpu en ram komen..
Gebruik dan software RAID icm een leuke CPU (goedkoopste AMD dualcore b.v. X2 3800+) met 512MB of 1GB geheugen. Klinkt fors maar het kost echt niet veel meer tegenwoordig. Met Software RAID5 in FreeNAS/FreeBSD haal je dan leuke scores (meer dan wat gigabit aankan iig) en ben je zowel flexibel, veilig, snel als relatief goedkoop uit. Neem wel een bord met veel onboard SATA connectors. Je kan eventueel ook onboard PATA gebruiken. Vermijd losse controllers. Weet ook dat extra chipjes op veel moederborden die voor extra SATA-aansluitingen zorgen, vaak middels PCI zijn verbonden.
Ik ben wel benieuwd wat voor transfer rates je dan zou halen. In ons geval zullen er praktisch alleen bestanden van >3MB op komen dus de sector size zal wel redelijk groot kunnen worden, ik heb alleen geen idee hoeveel impact dit precies heeft op de snelheden, iemand?
Sector is altijd 512 bytes, maar je bedoeld block of clustersize. En ook met standaard 16KB op FreeBSD haal je boven de 100MB/s met bovengenoemde hardware, dus Gigabit snelheid.
Naast bovenstaand issue is het ook de vraag of, als je dan toch een nieuw mobo gaat kopen, je niet beter software raid kunt draaien.
Naast dat is het ook zo dat je dan een aparte schijf nog wilt voor je OS aangezien je anders niet kunt booten als er een schijf uit het array stuk gaat om het array te recoveren.
Je kunt het volgende doen:
- Network boot (PXE) gebruiken (geavanceerd)
- Compact flash / USB pendrive / losse schijf gebruiken (USB boot werkt helaas niet altijd)
- gewoon een partitie maken op primary master, en daarop FreeBSD of FreeNAS zetten. Software RAID is block device-based dus werkt ook op partities.

Bij de laatste optie kun je als je voor FreeBSD gaat ook een JBOD array maken op de rest van de disks, waarbij je van elke schijf een GB afsnoept ofzo. Want als je van 1 schijf 10GB wegplukt, kun je op ELKE andere schijf die 10GB niet gebruiken voor je RAID-array. Een software mirror als boot device enzo is ook mogelijk. Mogelijkheden genoeg!
Nog een issue is de ondersteuning voor Linux van de meeste RAID arrays - Ik heb wat rondgegooglet en ik kom een boel problemen met de FastTrack controlers van Promise tegen onder linux. We draaien nu TUI Debian Sarge, en willen het liefst wel debian blijven draaien (geen distro-flamewar please :P) aangezien we daar de meeste ervaring mee hebben.
Hm met linux worden je keuzes beperkt. Maar dan zou je md-RAID kunnen gebruiken. Fake RAID (waaronder silicon image, promise, jmicron, nvidia, intel, VIA, Acer Labs, SiS en wellicht nog anderen) moet je links laten liggen; die chips voeren helemaal geen RAID uit.
Twynn schreef op dinsdag 08 mei 2007 @ 14:21:
Even een tip: Neem eens de tijd en lees dit topic eens een keer door. Dan zul je zien dat de dingen die je vraagt allemaal al behandeld zijn in dit topic ;)
Lekker veel leesvoer onderhand. >:)
Zoveel cpu power gebruikt software raid nou ook weer niet. Voorbeelden genoeg te vinden :)
RAID5 natuurlijk wel, maar daarvoor kun je dus een betere proc nemen zoals X2 3800+. Niet duur, wel snel, jarenlang plezier van.

Acties:
  • 0 Henk 'm!

Anoniem: 41852

ylja schreef op dinsdag 08 mei 2007 @ 01:03:
JBOD gemaakt van 6 schijven om te testen...

jbod gemaakt en geformatteerd...
ylja zou je misschien je DM aan kunnen zetten? Of email geven, dan kan ik je helpen met het oplossen van je probleem, zonder hier offtopic te gaan. :)

Alvast bedankt!

.
Diabolical schreef op maandag 07 mei 2007 @ 20:32:
Okay... goed dan, je vroeg er om....

Ik had op een linux (SuSE) systeem een software raid 0+1 opgebouwd met 4 x 20GB WD schijven en een 40GB boot/app disk). Alles draaide lekker tot op een gegeven moment 1 van de schijven uitviel. Ach.. geen probleem. Ik heb toch Raid 0+1. Data is "veilig". Niet dus. Whatever happened.. data was eveneens weg van de hele array.
Weg array betekent niet weg data. Iemand met kennis zou hoogstwaarschijnlijk je data terug hebben kunnen halen. Ik weet ook niet precies hoe Linux met metadata werkt.
Tja, met dezelfde controller zou dat ook geen probleem moeten zijn.
Klopt, alhoewel je met Software RAID niet 'vastgeplakt' zit aan hardware, en dus bij een hardware storing het zaakje zo kunt overbouwen. Wel zo fijn vind ik. :)
Nou.. verhaal hierboven dus... niet echt fijne ervaring als je denkt je data toch enigzins veilig te hebben maar achteraf blijkt van niet....
Zeker, maar denk je dat je met hardware RAID hiervan verlost bent? Gister nog met het prutsen met Areca geweest: 1 disk was niet aangesloten en gelijk "no BIOS disks found" in de setup. Terwijl 7 andere member-schijven hadden moeten zorgen voor "RAID array #1 is missing disk #3!". Nu was het net alsof alle schijven leeg waren en het normaal was dat hij niks vond. Het was wel een RAID0 trouwens. Maargoed mijn punt: hardware RAID lost jouw angst voor dergelijke problemen niet helemaal op. Het enige argument zou zijn dat het meer getest is, maar dat zegt ook niet alles.
Enlightenment (verlichting.... ;)), hoe lang ben je al bezig met RAID systemen? Je lijkt er veel vanaf te weten....
Pas sinds een paar jaar vind ik storage superinteressant, en nadat ik de auteur van geom_raid5 has ontmoed en diep in de materie kwam vond ik het echt leuk. :)

[ Voor 72% gewijzigd door Anoniem: 41852 op 08-05-2007 18:27 ]


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 20:48
Anoniem: 41852 schreef op dinsdag 08 mei 2007 @ 18:10:
RAID5 natuurlijk wel, maar daarvoor kun je dus een betere proc nemen zoals X2 3800+. Niet duur, wel snel, jarenlang plezier van.
Hmm, dat is wel een idee natuurlijk. 1 core voor de XOR enzo, de andere voor de netwerkkaart >:)

Athlon 64 3200+ vs Athlon 64 X2 3600+: 3W hogere TDP, 2x zoveel cores, 2x zoveel cache, 100MHz minder en maar 16 euro duurder (Bij salland, waar de rest van mijn bestelling ook vandaan gaat komen). Niet eens zo'n slechte deal dus :P

Mijn Areca laat trouwens (op een 16disk RAID6) ook geen schijven zien aan de bios / in Linux als er @ boot 1 mist (dus echt letterlijk ontbreekt. Wat hij bij een kapotte schijf doet weet ik niet). Wel zo makkelijk: disk weer aansluiten en je hoeft niet te rebuilden of niets.

Zou hij de set wel exposen dan loop je kans dat er geschreven wordt en je dus mag gaan rebuilden.
Ik heb niet geprobeerd of ik de array degraded kan dwingen om er zo toch bij te kunnen, maar het lijkt me wel te kunnen.
Aangezien het zooitje nu toch corrupt is (zie een eerdere post) kan ik dat binnenkort wel even testen :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

Anoniem: 41852

Paul Nieuwkamp schreef op dinsdag 08 mei 2007 @ 19:03:
[...]
Hmm, dat is wel een idee natuurlijk. 1 core voor de XOR enzo, de andere voor de netwerkkaart >:)
Nou op FreeBSD (en zelfs Windows) werkt het iets geavanceerder. ;)
geom_raid5 bestaat uit drie threads en kan dus gebruik maken van 3 cores. Alhoewel de main thread de meeste werk krijgt. Maar het idee is idd dat met 2 cores je veel gemakkelijker twee dingen tegelijk kunt doen (graid5 en je gigabit kaart). Met een goede netwerkkaart en ondersteunend netwerk zou je dan erg hoge snelheden kunnen bereiken.
Athlon 64 3200+ vs Athlon 64 X2 3600+: 3W hogere TDP, 2x zoveel cores, 2x zoveel cache, 100MHz minder en maar 16 euro duurder (Bij salland, waar de rest van mijn bestelling ook vandaan gaat komen). Niet eens zo'n slechte deal dus :P
TDP zegt ook niets; het is slechts in zeer grove zin een afleiding van de stressed vermogen opname. Maar veel belangrijker is het energieverbruik bij idle gebruik, aangezien dat veel vaker zal voorkomen.
Mijn Areca laat trouwens (op een 16disk RAID6) ook geen schijven zien aan de bios / in Linux als er @ boot 1 mist (dus echt letterlijk ontbreekt. Wat hij bij een kapotte schijf doet weet ik niet). Wel zo makkelijk: disk weer aansluiten en je hoeft niet te rebuilden of niets.
Bij RAID0 valt er ook weinig te rebuilden. ;)
RAID6 natuurlijk wel. Maar mja, ik vind dat dus niet zo netjes. Hij kan aan de metadata zien dat een array is gedefined, en dat 7 van de 8 schijven aanwijzig zijn (of bij jou dus 15 van de 16). Waarom dan zo moeilijk doen? Wat als je 1 schijf verbrand hebt en met RAID6 dus gemakkelijk door kunt gaan, maar dat van Areca niet 'mag'? Je array is gewoon single degraded dan.
Zou hij de set wel exposen dan loop je kans dat er geschreven wordt en je dus mag gaan rebuilden.
Misschien wil je dat ook wel? Als je geen nieuwe schijf voorhanden hebt maar gewoon bij je data wilt. Destijds met read-only access. Ik vind het geen fijne feature iig.

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 20:48
Gaat je schijf @ runtime dood of plug je hem uit, dan is je array ook inderdaad degraded.

@ boot is het echter veeeeeel vaker een losse kabel oid, iig iets wat vaak binnen 2 tellen op te lossen valt. Markeer je dan al meteen de hele array degraded dan zit je door een @$%$^*%#^#$ los kabeltje 4 uur lang tegen compleet ingestorte performance aan te staren.

Is er daadwerkelijk tijdens transport een schijf de trap af gestuiterd dan kun je (lijkt me, maar dat heb ik dus nog niet getest) alsnog de array (degraded) online brengen en zo toch doorwerken.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

Anoniem: 41852

Ok daar heb je een punt. Maar wat als je schijf niet meer wilt opspinnen of gewoon echt dood is, terwijl de computer uitstond. Of tijdens 'transport' naar een andere kast oid. Je wilt gewoon bij je array kunnen. Als je toch door kunt, middels een feature, heb ik niks gezegd. Maar dan nog vind ik dat hij het tijdens boot moet melden:

"RAID set #1 has missing disks! Disks missing: #3 #4. Please connect them and reset, or enter setup utility to force degraded mode"

Zoiets dus. Gewoon een message als "no array defined" kijk je wel even op je neus. :+

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 20:48
Wat die op het post-scherm zegt weet ik zo niet. De mijne gaat iig piepen, en in de webinterface zie je alles staan, inclusief het woordje "missing" bij desbetreffende schijf.

TDP (en met name dus Max. TDP, wat er eigenlijk altijd mee bedoeld wordt) zegt inderdaad alleen iets over het stressed verbruik. Over idle verbruik kan ik echter heel weinig te vinden helaas.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

Anoniem: 41852

Nouja het is nog erger, TDP is bedoeld voor systeembouwers om rekening te houden met afvoer van warmte. Dat is enigszins gekoppeld aan energieverbruik maar absoluut geen directe meting daarvan. 70W TDP betekent in principe dat de systeembouwer 70W aan warmte goed moet kunnen afvoeren, en vooral bij kleine behuizingen is dat van belang aangezien daar minder koelingsmogelijkheden zijn. Daar is TDP voor bedoeld!

Nu is Intel weer slim aan het doen en presenteert het zijn TDP, waarbij een heel andere rekensom wordt gebruikt, zodat het lijkt alsof Intel veel energiezuiniger is, terwijl juist AMD met 300% verschil zuiniger is in idle verbruik (wat verregaand het meest belangrijk is - afgezien van high-end serverprocs misschien). Een AMD proc kan 69W TDP hebben en toch maar max 40W verbruiken, bij intel kan het verbruik boven de TDP liggen. Zoals zoveel in de IT-wereld zijn de grote bedrijven gebaat bij misinformatie, gebrek aan transparantie, verwarring, misleiding en leugens.

Acties:
  • 0 Henk 'm!

  • Twynn
  • Registratie: Maart 2001
  • Laatst online: 02-07 12:03
Anoniem: 41852 schreef op dinsdag 08 mei 2007 @ 18:10:
RAID5 natuurlijk wel, maar daarvoor kun je dus een betere proc nemen zoals X2 3800+. Niet duur, wel snel, jarenlang plezier van.
Dat geld alleen als je zeer hoge transfer rates wilt halen. Als je niet voor gigabit gaat kun je gewoon met een simpele oude proc genoeg performance halen en die zal zelfs bij raid 5 maar een paar procent van z'n capaciteit gebruiken.

Ik heb zelf windows raid 5 op een P3-1GHz draaien, linux MD-raid 5 op een celeron 1 GHz en freenas raid-5 op een P3-733 en allemaal presteert het goed genoeg voor mijn doeleinden (namelijk gewoon opslag over een 100Mbit verbinding).

Acties:
  • 0 Henk 'm!

Anoniem: 41852

Akkoord, maar aangezien velen hier een multi-Terabyte NAS willen bouwen ligt het voor de hand dat ze iets sneller willen communiceren dan 9MB/s. Als je met grote bestanden werkt is dat echt supertraag.

Acties:
  • 0 Henk 'm!

  • ylja
  • Registratie: November 2006
  • Laatst online: 24-12-2023
ylja zou je misschien je DM aan kunnen zetten? Of email geven, dan kan ik je helpen met het oplossen van je probleem, zonder hier offtopic te gaan. :)

Alvast bedankt!
wat is DM? :)

ben nu nogmaals de raid-5 van 8 schijven aan het rebuilden, net een nieuwe 460w zalman voeding eringestoken en 3x 120mm fans voor de schijven te koelen, eens zien wat dat geeft...

Acties:
  • 0 Henk 'm!

Anoniem: 74530

@Enlightment en anderen:

EINDELIJK ben ik dan begonnen aan de bouw van mijn eigen FreeNAS 0.684b

Ik heb uiteindelijk dus toch een MSI MSI K8N Neo4 Platinum uitvoering weten te krijgen met de X2 3800 proc er op!
Ik zal morgenavond een aantal foto's en specs van de drives plaatsen, ik heb begrepen dat jullie die graag willen zien!

Ik heb wel nog een aantal problemen waar ik denk dat jullie me kunnen helpen, voor het gemak heb ik ze van een nummering voorzien.....

Q1a:
Het bord heeft 2 netwerkkaarten onboard:
- 1 LAN supports 10/100/1000 Fast Ethernet by Marvell 88E1111 PHY
- 1 LAN supports 10/100/1000 Fast Ethernet by Marvell 88E8053
->Is dat wat? of kan ik beter 2 losse realtek 8139 PCI (niet express) kaarten inzetten?

Q1b:
Als de Marvels WEL ok zijn:
->Waar haal ik de drivers vandaan en HOE krijgt een n00b als ik die in FreeNAS?


Q2:
Ik wil een zo hoog mogelijk throughput op mijn gigabit netwerk hebben (en heb een switch die dat ook aan kan!)
->Hoe TRUNK ik de verbindingen in FreeNAS?

Q3:
Ik ben nu al mijn oude schijven 1-voor-1 aan het overzetten richting de FreeNAS doos; ik heb er nu 3x500Gb schijven aan hangen in geomRaid5, maar wil er dus nu extra 500Gb schijven bij zetten die inmiddels "leeg" zijn; @Enlightment, spreekt eerder terug over een handleiding die ze aan het schrijven is....
->Hoe doe ik dat?

Q4:
Ik heb ook een aantal 250Gb schijven in een Geomraid5 geschakeld....ik heb dus nu een 500gb-drives RAID5 pool en een 250Gb-drive RIAD5 pool
->Is het verstandig om deze 2 RAID5 pools "virtueel" samen te voegen als een RAID0 pool voor de snelheid, wat zijn dan de evt consequenties?

Tot slot: ;)
Ik wil jullie allemaal danken voor het geweldige leervoer tot nu toe, ik ben echt helemaal in mijn element met de FreeNAS oplossing, en kan IEDEREEN aanraden er mee te experimenteren....buiten dat het echt heel profi in elkaar zit, is het ook een ongelooflijk LEUK project om aan te werken !

[ Voor 20% gewijzigd door Anoniem: 74530 op 09-05-2007 15:15 . Reden: Leesbaarheid verbeterd, het was nl een drama! 8)7 ]


Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 23:20
Paul Nieuwkamp schreef op dinsdag 08 mei 2007 @ 10:21:
[...]
Dat ligt enerzijds aan de toeren die de schijf draait (wat dus niets met zijn interface te maken heeft) en anderzijds aan trucjes in het SCSI-protocol die tegenwoordig ook in het SATA-protocol zitten, zoals command queuing enzo.

Het toerenprobleem kun je oplossen met Raptors, maar dan zit je weer op de oude bottleneck van SCSI: je portemonnee :)
Compleet offtopic:
Zo heb ik inderdaad nog een Quantum Fireball LM draaien in de bak van mn vriendin met een seektime van 7,2 ms (!), heb nog nooit een sneller seekende IDE drive gehad. Met uitzondering van de Raptor natuurlijk.

Hmm, dat brengt herinneringen, Abit BP6, dual celeron @ 650, water/peltier cooled, RAID0 met 2x 30GB Fireball LM op een gemod fasttrak kaartje, die goede oude tijd!

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

Anoniem: 41852

Direct Messaging, zonder dat in te schakelen kan ik je geen bericht sturen, en je email heb je ook niet ingevuld. Dus je bent niet (direct) benaderbaar.
ben nu nogmaals de raid-5 van 8 schijven aan het rebuilden, net een nieuwe 460w zalman voeding eringestoken en 3x 120mm fans voor de schijven te koelen, eens zien wat dat geeft...
Aangezien je het krijgt bij rebooten mag dat dus geen verschil geven.

Acties:
  • 0 Henk 'm!

  • ylja
  • Registratie: November 2006
  • Laatst online: 24-12-2023
DM gestuurd Enlightenment! Thx

Acties:
  • 0 Henk 'm!

  • bum
  • Registratie: Juli 2001
  • Laatst online: 20-04 20:33

bum

Ik wil ook zelf een NASje bouwen, maar de moederbordjes die hier in de topic zijn genoemd kan ik niet meer vinden. Dus ik hoop dat jullie me iets aan kunnen raden:

Qua processor dacht ik aan een Athlon 64 (3200 of 3500) of misschien een Athlon 64 X2 3800. Op de prijs maakt 't maar zo'n 2 tientjes uit en idle verbruik scheelt maar weinig. Misschien overkill, maar ik wil er misschien later nog webserver of emailserver op draaien.

Daar zoek ik dus een bordje bij:
-Zuinig (daarmee vallen Nvidia chipsets af?) en natuurlijk niet te duur.
-Lieft Gbit en simpele video onboard.
-Minstens 6 SATA ports.
-En werkend te krijgen onder FreeNAS.

't Plan was om er in eerste instantie 4 x Samsungs T166 500G inbouwen.

Verder nog een vraagje: soms zitten er 4 SATAII poorten en 2 SATAI poorten op een mobo. Maakt het mixen van SATAI en SATAII in 1 RAID5 nog uit qua performance of boeit dat sowieso niet vanwege de netwerk bottleneck?

HP Zbook G8 | Synology DS1511+


Acties:
  • 0 Henk 'm!

  • El Cid
  • Registratie: September 2003
  • Niet online
bum schreef op vrijdag 11 mei 2007 @ 10:34:
Maakt het mixen van SATAI en SATAII in 1 RAID5 nog uit qua performance of boeit dat sowieso niet vanwege de netwerk bottleneck?
Dat, en volgens mij halen zelfs de snelste schijven van dit moment nog geen 150MB/s.

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

El Cid schreef op vrijdag 11 mei 2007 @ 10:44:
Dat, en volgens mij halen zelfs de snelste schijven van dit moment nog geen 150MB/s.
Ehh je hebt wel iets van een soort Bus Delay verschil tussen de 2 en als het even kan zou ik gewoon alleen SATA II / 300 schijven nemen :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Turbosjaak
  • Registratie: Januari 2007
  • Laatst online: 20-05 12:47

Turbosjaak

Un Chien De Liege

Ik heb Freenas op een oude Neoware Thinclient staan, HD eraan en gaan met die banaan.

Ga er even een tijdje mee experimenteren.

Powered By: Lenovo Thinkpad T61p & IBM Thinkpad X21


Acties:
  • 0 Henk 'm!

  • El Cid
  • Registratie: September 2003
  • Niet online
Weet iemand toevallig waar meer informatie te vinden is over RAID-5 met Gvinum? Ik kan namelijk nergens een goede handleiding vinden. Normaal gesproken kun je in het FreeBSD handboek veel vinden, maar nu niet.

Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 23:20
nero355 schreef op vrijdag 11 mei 2007 @ 13:32:
[...]

Ehh je hebt wel iets van een soort Bus Delay verschil tussen de 2 en als het even kan zou ik gewoon alleen SATA II / 300 schijven nemen :)
Pardon? leg me dat dan maar eens uit dan, liefst met wat bronnen.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

Anoniem: 41852

El Cid schreef op vrijdag 11 mei 2007 @ 15:06:
Weet iemand toevallig waar meer informatie te vinden is over RAID-5 met Gvinum? Ik kan namelijk nergens een goede handleiding vinden. Normaal gesproken kun je in het FreeBSD handboek veel vinden, maar nu niet.
man gvinum?

Maar waarom zou je gvinum willen? Een supertrage superoude en minder handige RAID-level met veel minder features en veiligheidsfuncties dan geom_raid5.
P5ycho schreef op vrijdag 11 mei 2007 @ 17:34:
[...]

Pardon? leg me dat dan maar eens uit dan, liefst met wat bronnen.
Om 300MB/s op een 300MB/s link te vervoeren kost je 1 seconde. Om 30MB te vervoeren kost je dus 0,1 seconde. Heb je een tragere bus, zoals 150MB/s (SATA/150) dan duurt het dus dubbel zo lang: 0,2 seconde. Doorvoersnelheid is niet de enige variabele, net als geheugen is ook latency van belang. Maar wel in mindere zin. Want een hardeschijf is trager dan zijn bus, en begint al met verzonden zodra data naar de FIFO verstuurd wordt.

Conclusie: SATA/150 of SATA/300 zal een nihil verschil opleveren in performance. Maar er IS wel een verschil, ook al kan de schijf bij lange na niet 150MB/s halen bij sequentiele overdracht.

Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 23:20
Natuurlijk zal het een verschil uitmaken, maar het maakt toch helemaal geen fluit uit op transferrates van 70MB/s sustained per schijf... Ik zocht eigenlijk naar benchmarks waar het verschil in SATA/150 en /300 duidelijk gemaakt wordt. Je kunt beter zorgen dat je schijven niet op de PCI bus hangen dan letten op SATA varianten imho.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • El Cid
  • Registratie: September 2003
  • Niet online
Omdat dat de enige mogelijkheid voor RAID-5 is die in FreeBSD 6.2 zit.

Acties:
  • 0 Henk 'm!

Anoniem: 41852

El Cid schreef op vrijdag 11 mei 2007 @ 19:27:
[...]


Omdat dat de enige mogelijkheid voor RAID-5 is die in FreeBSD 6.2 zit.
geom_raid5 zit inderdaad niet standaard in FreeBSD, maar is er eenvoudig in te compileren. Wil je wat instructies van me? Draai je i386 of AMD64?

[ Voor 3% gewijzigd door Anoniem: 41852 op 11-05-2007 21:17 ]


Acties:
  • 0 Henk 'm!

Anoniem: 74530

Zoals beloofd hierbij enkele foto's van de huidige setup!

@Enlightement, wil je nog eens kijken naar mijn vragen die ik even hierboven heb gesteld? Ik kom zonder hulp op het moment niet verder!


Afbeeldingslocatie: http://imageshack.us/thumbnmail.png
Afbeeldingslocatie: http://imageshack.us/thumbnmail.png
Afbeeldingslocatie: http://imageshack.us/thumbnmail.png
Afbeeldingslocatie: http://imageshack.us/thumbnmail.png
Afbeeldingslocatie: http://img444.imageshack.us/img444/4085/p1000788ge3.th.jpg
Afbeeldingslocatie: http://imageshack.us/thumbnmail.png
Afbeeldingslocatie: http://imageshack.us/thumbnmail.png
Afbeeldingslocatie: http://imageshack.us/thumbnmail.png

Acties:
  • 0 Henk 'm!

  • El Cid
  • Registratie: September 2003
  • Niet online
Anoniem: 41852 schreef op vrijdag 11 mei 2007 @ 21:17:
[...]
Wil je wat instructies van me?
Is niet meer nodig. De server in kwestie draait inmiddels op Debian.

Acties:
  • 0 Henk 'm!

Anoniem: 41852

Anoniem: 74530 schreef op vrijdag 11 mei 2007 @ 22:34:
Zoals beloofd hierbij enkele foto's van de huidige setup!
Wat een kleine plaatjes. :'(
Als je grote hebt zet ik ze voor je op mijn 100Megabit server. :)
@Enlightement, wil je nog eens kijken naar mijn vragen die ik even hierboven heb gesteld? Ik kom zonder hulp op het moment niet verder!
Mja sorry, had al wel op gereageerd, eigenlijk hele reply klaar. Maar ik gebruikte Gran Paradiso (Firefox 3 alpha) en die klapte er na 2GB memoryleak uit en weg was mijn reactie (Firefox2 houdt forms behouden zelfs na een crash). Best wel :'( dus.

Nieuwe poging:
Enlightenment!! :P
EINDELIJK ben ik dan begonnen aan de bouw van mijn eigen FreeNAS 0.684b
Wees je wel voorzichtig met een beta! Eerst heel goed testen he. :)
Ik heb uiteindelijk dus toch een MSI MSI K8N Neo4 Platinum uitvoering weten te krijgen met de X2 3800 proc er op!
Ik zal morgenavond een aantal foto's en specs van de drives plaatsen, ik heb begrepen dat jullie die graag willen zien!
Mooie proc! En ja na al deze pagina's hier is het leuk om te zien hoe iets in de praktijk gebruikt wordt. Ik kwam niet meer bij van het lachen toen ik het servertje van iemand hier zag in het gootsteenkastje met ColorReus ernaast :+ :D
Q1a:
Het bord heeft 2 netwerkkaarten onboard:
- 1 LAN supports 10/100/1000 Fast Ethernet by Marvell 88E1111 PHY
- 1 LAN supports 10/100/1000 Fast Ethernet by Marvell 88E8053
->Is dat wat? of kan ik beter 2 losse realtek 8139 PCI (niet express) kaarten inzetten?
Marvell gaat wellicht niet lukken met standaard FreeNAS, wel met FreeBSD 7-CURRENT mogelijk. Aangezien je een mooie proc hebt is het misschien wel een goede investering een Intel Pro/1000 PT PCI-Express x1 gigabit kaartje te kopen. Deze werkt prima met FreeBSD/FreeNAS, heeft weinig CPU belasting, goede drivers en PCI-express link.
Q2:
Ik wil een zo hoog mogelijk throughput op mijn gigabit netwerk hebben (en heb een switch die dat ook aan kan!)
->Hoe TRUNK ik de verbindingen in FreeNAS?
Met ng_one2many, zie de manpage (man ng_one2many) voor meer info. Maar ik betwijfel of dat via FreeNAS gaat werken. Misschien dat ik er meer over kan zeggen als ik het daadwerkelijk zelf ga gebruiken.
Ik ben nu al mijn oude schijven 1-voor-1 aan het overzetten richting de FreeNAS doos; ik heb er nu 3x500Gb schijven aan hangen in geomRaid5, maar wil er dus nu extra 500Gb schijven bij zetten die inmiddels "leeg" zijn; @Enlightenment, spreekt eerder terug over een handleiding die ze aan het schrijven is....
->Hoe doe ik dat?
Heb je het over capacity expansion? M.a.w. wil je de data erop behouden? Zo niet, dan maak je gewoon een nieuwe array aan dat is wel zo handig. Ik heb capacity expansion geschreven maar nog onvoldoende getest om op live data uit te voeren, zou vervelend zijn als je toch data kwijtraakt!

Om gewoon een nieuwe array te maken in FreeNAS moet je even kijken of je de geom_raid5 array kunt deleten ofzo, en dan een nieuwe aanmaken. Als dat niet lukt zou je via de tools handmatig kunnen doen:
graid5 remove <volumename> <disk1>
graid5 remove <volumename> <disk2>
graid5 remove <volumename> <disk3>
graid5 remove <volumename> <disk4>
(tot er geen disks meer over zijn)
graid5 destroy <volumename>
graid5 clear <disk1>
graid5 clear <disk2>
graid5 clear <disk3>
graid5 clear <disk4>
En dan een nieuwe array aanmaken.
Q4:
Ik heb ook een aantal 250Gb schijven in een Geomraid5 geschakeld....ik heb dus nu een 500gb-drives RAID5 pool en een 250Gb-drive RIAD5 pool
->Is het verstandig om deze 2 RAID5 pools "virtueel" samen te voegen als een RAID0 pool voor de snelheid, wat zijn dan de evt consequenties?
Waarom voeg je die 250GB schijven niet samen tot 500GB schijven (JBOD, 2x250GB = 1x500GB) en gebruik je die samen met je 500GB schijven? Stel je hebt 4x 250GB en 4x 500GB dan heb je effectief 6x500GB en kun je dus 5x500GB gebruiken voor data (1 parity schijf). JBODs maken doe je met geom_concat ofwel gconcat, verkorte instructie:
gconcat label 500a /dev/ad4a /dev/ad6a
Maakt van twee 250GB schijven (ad4a en ad6a) een virtuele 500GB schijf die /dev/concat/500a wordt. Bij het labelen van geom_raid5 gebruik je dan:
graid5 label volumename ad8a ad10a ad12a ad14a concat/500a concat/500b
Dan heb je effectief 6x500GB (minus 1 parity schijf). :)
Het kan zijn dat je 'wasting ... bytes' ziet, als dat meer dan een paar MB is komt dat omdat de 250GB schijven een andere grootte hebben dan de helft van de 500GB schijven, scheelt altijd wel iets. Is geen probleem verder.

Superveel succes! Ik ga wel met vakantie nu voor 2 weken, dus kan je gedurende die tijd niet helpen. Mocht je problemen ondervinden met geom_raid5 kun je ook de auteur emailen: arne_woerner@yahoo.com. Hij is duits maar kan goed engels, voeg zoveel mogelijk output van commando's zoals graid5 status, graid5 list, welke versie van graid5 en je OS (freebsd/freeNAS). Succes iedereen!

Acties:
  • 0 Henk 'm!

  • tilde
  • Registratie: November 2000
  • Laatst online: 23:21
Die Marvell 88E8053 werkt met de drivers van de marvell-site gewoon onder freenas. Drivers instaleren is niet heel erg lastig ;)

Acties:
  • 0 Henk 'm!

Anoniem: 41852

Oh goed dat je het zegt, zijn geen opensource drivers dan waarschijnlijk, maar oke dat is mooi. Houd wel rekening dat je b.v. een nVidia MAC kunt hebben en Marvell PHY, dan moeten beide dus ondersteund worden wil het zaakje werken.

Acties:
  • 0 Henk 'm!

Anoniem: 74530

Op verzoek van Enlightenment grotere plaatjes!

Afbeeldingslocatie: http://img519.imageshack.us/img519/5279/p1000787yk5.th.jpg
Afbeeldingslocatie: http://img148.imageshack.us/img148/4379/p1000808it1.th.jpg
Afbeeldingslocatie: http://img148.imageshack.us/img148/613/p1000812kk7.th.jpg

Afbeeldingslocatie: http://img175.imageshack.us/img175/4328/p1000807ij3.th.jpg

Afbeeldingslocatie: http://img516.imageshack.us/img516/8117/p1000811ya5.th.jpg
Afbeeldingslocatie: http://img175.imageshack.us/img175/746/p1000805xr0.th.jpg
Afbeeldingslocatie: http://img152.imageshack.us/img152/1187/p1000794uf1.th.jpg
Afbeeldingslocatie: http://img152.imageshack.us/img152/5331/p1000793wa7.th.jpg
Afbeeldingslocatie: http://img152.imageshack.us/img152/1236/p1000791wo2.th.jpg
Afbeeldingslocatie: http://img152.imageshack.us/img152/2604/p1000792sq6.th.jpg


Ik ga mijn vragen opnieuw stellen, daar de antwoorden niet helemaal passen bij de vragen die ik bedoelde te stellen :+

[ Voor 7% gewijzigd door Anoniem: 74530 op 12-05-2007 22:26 ]


Acties:
  • 0 Henk 'm!

  • Shuriken
  • Registratie: November 1999
  • Laatst online: 23:28

Shuriken

Life is all about priorities

Ik ben klaar met mijn NAS server opbouw. En ik moet zeggen dat ik erg tevreden ben.

Mijn Systeem setup:
  • Moederbord: Asus A8N-VM CSM, GeForce 6150 (mATX, PCI-e, Sound, G-LAN, SATA II, VGA)
  • Processor: AMD Athlon 64 3000+ Venice (S939, 1.8GHz, 512KB, 400MHz Bus, 67W)
  • Koeler: Silverstone SST-NT06 (Socket 478/479/775/754/939/940)
  • Geheugen: 2 x 512MB PC3200 DDR (Infineon Original)
  • Schijven: 3 x Hitachi Deskstar 7K250, 120GB (7200rpm, SATA, 8MB)
  • Behuizing: Silverstone SG-01 Evolution (mATX, Geen PSU, Zwart)
  • Voeding: Silverstone ST50EF+, 500W (ATX12V 2.2, Short Cable, 80 Plus)
  • Drive Cage: Chieftec SNT-2131SATA Harddisk Rack
Hier het resultaat:
Afbeeldingslocatie: http://www.xs4all.nl/~joeribl/images/front_small.JPG


Mijn wens was een kleine stille en zuinige server. Vandaar dat ik voor de Silverstone setup gekozen heb. De behuizing is klein en de voeding en koeler zijn er op afgestemd.De koeler valt nl.onder de ventilator van de voeding en heeft dus geen extra ventilator nodig.
Afbeeldingslocatie: http://www.xs4all.nl/~joeribl/images/side_small.JPG

FreeNas staat op een el-cheapo USB stickje van 128 MB.

Ik had eerst getest met een Adaptec 2610SA maar Georaid 5 werkt eigenlijk perfect en is nog zuiniger ook (adaptec kaart is een klein kacheltje). De onboard NIC heb ik uitgeschakeld. De driver (nvidia) is een beetje buggy en bij veel I/O krijg je timeouts. Dus er zit voorlopig even een Intel Gigabit PCI kaart in.
De Hitachi schijven had ik al een tijdje liggen. Wellicht dat bij intensief gebruik die nog een keer vervangen worden.

Ik heb met ATTO even een benchje gedaan via iscsi en via windows share (cifs)
iscsi
Afbeeldingslocatie: http://www.xs4all.nl/~joeribl/images/iscsi_small.JPG
cifs
Afbeeldingslocatie: http://www.xs4all.nl/~joeribl/images/cifs_small.JPG

[ Voor 15% gewijzigd door Shuriken op 17-05-2007 14:55 ]

I rather have a bottle in front of me, then a frontal lobotomie


Acties:
  • 0 Henk 'm!

  • Coenen
  • Registratie: September 2000
  • Laatst online: 03-07 17:12

Coenen

=LoT= IJsbier @ ET

Ik vandaag nog even een testje gedaan om eens te zien wat voor snelheid ik nu kan halen.
Ik kwam erachter dat m'n laptop stiekem een Gigabit Ethernet poort heeft, dus ik heb m'n laptop direct aan m'n FreeNAS machine gehangen via een cross cable.
Via FTP files uploaden gaat met ongeveer 150Mbps, ik heb wel uitschieters gezien naar 300Mbps, maar dat is het dan ook wel. Ik zou toch eigenlijk wel wat meer verwachten.
Of zit ik nu tegen de limieten van bv m'n laptop HD aan een Seagate ST9100824A schijf?


Hier nog een foto'tje van mijn FreeNAS machine:

Afbeeldingslocatie: http://img149.imageshack.us/img149/7505/freenasserverii5.jpg

Acties:
  • 0 Henk 'm!

  • webinn
  • Registratie: Oktober 2002
  • Laatst online: 06-06 12:44
Een vraagje dat in dit genre zit:

Ik wil een soort van storage-server bouwen, op win 2003. Er zullen een paar interne schijven inzetten, maar ook een aantal USB2-disks aanhangen (omdat we die schijven al hebben). Schijven hebben een NTFS filesystem en ik ga win 2003 gebruiken om verschillende gebruikers, verschillende rechten te geven op de schijven.

Is het nu nog mogelijk om deze externe USB schijven apart te gebruiken? Is het dan nog mogelijk om een schijf ergens anders in te steken, (misschien je username en paswoord opnieuw moeten opgeven ofzo) en ze verder te gebruiken. Of is dat alleen mogelijk als je via de server werkt?

Thanks!

Acties:
  • 0 Henk 'm!

  • tilde
  • Registratie: November 2000
  • Laatst online: 23:21
Zo, gisteren de 3 samsung t166 500gig schijven binnengekregen :P. Dus ik kan nu serieus aan de slag!

Maar ik loop toch nog tegen een paar vragen aan:

1: stripe size van geom_raid5, wat is het beste? Op de nas komen vooral veel files van 500 tot 1000mb te staan (films). Ok komen er mijn mp3's op te staan, dit zijn dus duidelijk kleinere files, maar hiervoor is de performance iets minder belangrijk.

2: Bij de keuze voor welk file system je wilt gebruiken heb je 4 USF opties (geloof ik), wat info hier over zou wel fijn zijn.

3: Hoe kun je onder freenas(freebsd) je hardeschijven controleren op bad sectors ed. ?

4: Ik ben van plan versie 0.68 (stable) te gebruiken. Is het om bepaalde redenen toch handiger om om een nieuwere beta versie te gebruiken?

Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 23:20
1: Ik neem aan dat je je stripesize altijd kleiner wilt dan je filegrootte, anders lees je veel extra data voor niets en moet je vaak onnodige reads doen om een file weg te schrijven. Of het nu files van 1MB of 1GB is, dat maakt niet zoveel meer uit. kleinere files zoals bijv. mail is een reden om een kleinere stripesize te pakken. Wat is normaal/aangeraden voor grote files, 128K ofzo?

2: Ik neem aan dat je gewoon UFS2 + Softupdates gaat gebruiken?

Ik gebruik geen freenas zelf, dus welke versie je wilt gebruiken, geen idee :)

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

Anoniem: 22623

Shuriken schreef op donderdag 17 mei 2007 @ 14:26:
Ik ben klaar met mijn NAS server opbouw. En ik moet zeggen dat ik erg tevreden ben.

KNIP
Mag ik vragen hoeveel je totaal kwijt was en wat de geluidsproductie ongeveer is?

Acties:
  • 0 Henk 'm!

  • Shuriken
  • Registratie: November 1999
  • Laatst online: 23:28

Shuriken

Life is all about priorities

Anoniem: 22623 schreef op vrijdag 18 mei 2007 @ 09:38:
[...]

Mag ik vragen hoeveel je totaal kwijt was en wat de geluidsproductie ongeveer is?
Mja, dat is lastig. Ik had een groot gedeelte van de spullen al in huis. Maar goed je kan natuurlijk een mandje bij elkaar clicken vanuit de pricewatch aan de hand van mn lijstje.

Geluidsproductie is nog niet helemaal zoals ik het wil. De voeding hoor je zo goed als niet. Ik heb de ventilator van de Chieftec drive cage al aangepast. Maar is nog steeds luidruchtig (er staat nu een panaflo 80 cm fan op). Maar goed ik ben erg kritisch en kijk toch veel rond op silentpcreview.com voordat ik spullen koop. Dus waarschijnlijk zal de doorsnee tweaker em erg stil vinden :P

I rather have a bottle in front of me, then a frontal lobotomie


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 20:48
Ik heb mijn hardware binnen \o/ Ik zal morgenvandaag wel wat foto's posten.

Hij is lekker stil, procfan geregeld door het moederbord, voeding draait op 1 fan (op 1100 toeren) en kan een 2e bijschakelen indien gewenst. De disks worden wat warm dus daar moet ik nog wat aan doen, maar aangezien hij op zolder komt te staan is dat niet erg :P

Ik heb echter een groot probleem: Freenas schijnt @ boot en shutdown een muziekje af te spelen, en die doet het niet ;( De bios-beep hoor ik wel, dus de speaker zit goed. Ik heb bij System -> Advanced de disable-knop al aan en uit gezet, maar het werkt nog niet :P

Ook valt de snelheid nog wat tegen (145 mbit) maar daar heb ik hier thuis meer problemen mee, dus dat zal niet aan de FreeNAS-server liggen. Daarvoor moet ik nog eens een keer een Pro/1000 in het PCI-X slot van mijn mobo drukken, kijken of de nVidia gigabit onboard dingen het probleem zijn.

Edit: Oh ja, de installer vond mijn pre-formatted USB-stick niet lief, die wilde hij gebruiken om config op te slaan ipv op te installeren.

cp /dev/zero /dev/da0s1 (na unmounten) loste dat op (Gevonden in de bugtracker van FreeNAS). Andere optie is om op een andere pc gewoon de pre-fab partitie eraf te gooien.

[ Voor 14% gewijzigd door Paul op 22-05-2007 01:02 ]

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Twynn
  • Registratie: Maart 2001
  • Laatst online: 02-07 12:03
webinn schreef op donderdag 17 mei 2007 @ 15:03:
Een vraagje dat in dit genre zit:

Ik wil een soort van storage-server bouwen, op win 2003. Er zullen een paar interne schijven inzetten, maar ook een aantal USB2-disks aanhangen (omdat we die schijven al hebben). Schijven hebben een NTFS filesystem en ik ga win 2003 gebruiken om verschillende gebruikers, verschillende rechten te geven op de schijven.

Is het nu nog mogelijk om deze externe USB schijven apart te gebruiken? Is het dan nog mogelijk om een schijf ergens anders in te steken, (misschien je username en paswoord opnieuw moeten opgeven ofzo) en ze verder te gebruiken. Of is dat alleen mogelijk als je via de server werkt?

Thanks!
Dit soort vragen horen eigenlijk meer thuis in Windows Clients of Windows Servers en Server-software maargoed..
Wat je wilt gaat inderdaad niet werken. Als je die disk op een andere pc aansluit zal windows de gebruikers waar jij rechten aan hebt gegeven niet herkennen (guid bestaat niet op die pc), dus geen filetoegang. Het enige wat zal werken is files met rechten voor de groepen everyone en users etc.

Acties:
  • 0 Henk 'm!

Anoniem: 41852

Ik ben weer terug van vakantie. *O*
Coenen schreef op donderdag 17 mei 2007 @ 14:46:
Via FTP files uploaden gaat met ongeveer 150Mbps, ik heb wel uitschieters gezien naar 300Mbps, maar dat is het dan ook wel. Ik zou toch eigenlijk wel wat meer verwachten.
Of zit ik nu tegen de limieten van bv m'n laptop HD aan een Seagate ST9100824A schijf?
Een laptop HDD behaald veel minder performance. De benches die je ziet op internet zijn gedaan op een lege schijf, niet op een gebruikte schijf zoals bij jou ws. het geval is. Gevolg is dat je ideaal 45MB/s uit je laptop HDD krijgt maar in de praktijk misschien 17MB/s in de tracks die aan de binnenkant van de schijf liggen. Dus ja, hardeschijf van je client kan een bottleneck zijn.

Je kunt eenvoudig isoleren waar de bottleneck ligt, indien op je geom_raid5 server met singlecore CPU de CPU onder de 100% zit, is deze geen bottleneck. Wat ook vaak voorkomt is dat de gigabit NIC van de client een bottleneck is. Soms via PCI, soms slurpt deze veel CPU terwijl de laptop niet zo'n sterke CPU heeft. Etc. Nog even goed testen dus. :)
Hier nog een foto'tje van mijn FreeNAS machine:
Lief orb koelertje. O+
Nu nog sparen voor meer schijfjes en volwaardig gigabit. :)


tilde schreef op donderdag 17 mei 2007 @ 16:59:
1: stripe size van geom_raid5, wat is het beste? Op de nas komen vooral veel files van 500 tot 1000mb te staan (films). Ok komen er mijn mp3's op te staan, dit zijn dus duidelijk kleinere files, maar hiervoor is de performance iets minder belangrijk.
64KB of 128KB. Afhankelijk van de hoeveelheid schijven en ook ERG belangrijk de hoeveelheid RAM in je systeem. Met weinig RAM zul je misschien wel voor 32KB willen kiezen. Anders bij 6 of minder schijven 128KB, wat de meeste performance geeft aangezien geom werkt met requests van maximaal 128KB en er dus geen onnodige splits hoeven plaats te vinden.
2: Bij de keuze voor welk file system je wilt gebruiken heb je 4 USF opties (geloof ik), wat info hier over zou wel fijn zijn.
UFS = Unix File System, dan kun je nog kiezen voor SoftUpdates als extra. Veel maakt het niet uit, behalve dan dat SoftUpdates zorgt voor delayed writes en derhalve voor mogelijk hoger risico kan zorgen bij crashes/stroomstoringen. SoftUpdates schrijft metadata echter wel eerder weg dan dir/file data, zodat je bestandssysteem niet ernstig verminkt wordt bij stroomuitval. In die zin is het weer 'veiliger' dan zonder SoftUpdates. Gjournal is het beste maar nog niet stabiel helaas.
3: Hoe kun je onder freenas(freebsd) je hardeschijven controleren op bad sectors ed. ?
Na het aanmaken van de array zal geom_raid5 je array gaan rebuilden om de pariteit juist in te stellen. Dit betekent dat alle (gebruikte) sectoren van je array gelezen zullen worden. Bad sectors betekent dat je array degraded wordt omdat die schijf uit de array gekickt gaat worden. Conclusie: is je rebuild succesvol dan zijn je disks ok. Wil je later nog een keer een rebuild doen dan kan dat via de geom_raid5 tools (commando: "graid5 configure -R <volumename>" maar REBUILD commando ofzo zal er ook wel bij staan).
4: Ik ben van plan versie 0.68 (stable) te gebruiken. Is het om bepaalde redenen toch handiger om om een nieuwere beta versie te gebruiken?
Performance en features, maar er zitten best wat goeie bugs in de beta's, dus misschien kun je daar nog beter wegblijven. En bij upgraden ook erg voorzichtig zijn; eigenlijk zorgen voor een backup dat je dat doet. FreeNAS is (nog) niet erg upgrade-vriendelijk.

Acties:
  • 0 Henk 'm!

Anoniem: 41852

P5ycho schreef op donderdag 17 mei 2007 @ 22:41:
1: Ik neem aan dat je je stripesize altijd kleiner wilt dan je filegrootte, anders lees je veel extra data voor niets
Intelligente RAID subsystems lezen alleen de data die nodig is, en niet de hele stripe block. Dus als je stripesize 1MB is en je leest 20 bytes dan worden er fysiek ook maar 20 bytes gelezen en niet 1MB. Sommige 'domme' RAID implementaties zoals onboard en mogelijk windows RAID lezen wel onnodig data en verspillen daarmee de snelheidspotentie van RAID.
kleinere files zoals bijv. mail is een reden om een kleinere stripesize te pakken.
Juist andersom: voor kleinere files (of random-achtige I/O zoals bij een databaseserver) is het verstandig een zo groot mogelijke stripesize te kiezen, zodat een lees of schrijf request in 1 stripe block past. Is je stripesize 32KB en lees je een file van 48KB zijn daarbij 2 schijven bezig, hetgeen de potentie tot parallellisatie van RAID ondermijnt.
Wat is normaal/aangeraden voor grote files, 128K ofzo?
Bij grote files is het verstandig een kleinere stripesize te kiezen ivm geheugengebruik. Maar dit soort vragen hangen sterk af van de RAID-implementatie. geom_raid5 lust een aardige hoeveelheid RAM en kies je een grote stripesize zoals 128KB dan kan dat voor geheugentekort en daaraan gepaarde performance-belemmeringen zorgen. Bij oudere versies dan TNG kan het ook voorkomen dat geom_raid5 daarop crasht met het bericht panic: kmem_map too small (x bytes allocated). Dan heb je dus een tekort aan RAM.

Voor geom_raid5 kun je dus het beste kiezen tussen 64KB of 128KB. Heb je veel schijven (>6) en weinig RAM (<= 256MB) kies dan een veel lagere stripesize zoals 16KB of 32KB.

Acties:
  • 0 Henk 'm!

  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 20:59
Ik heb al wat gestoeid met freenas doormiddel van vmware O-)
Vanmiddag een p3 1000mhz gepakt met 512mb ram en een 60gb notebook hardeschijf.
Nu wilde ik instaleren op een usb stick maar dit ging niet dus dacht ik dan maar op de harddisk maar dan heb ik het probleem zodra ik reboot en van harddisk wil booten zegt ie doodleuk dat er geen besturingssysteem op staat :'( hier heb ik al op gezocht en er zijn meer mensen met dit probleem maar wat het is weet ik nog niet.
Dus ben ik maar gewoon live van de cd-rom bezig geweest en heb dit gedaan:

Ip adres vast gezet op 192.168.1.6
en via de browser:

harddisk in ntfs gezet en geformat
samba ingesteld als local user inloggen bla bla
toen users en groups aangemaakt bij het tabje acces

Nu zie ik met netwerkverkenner freenas ertussen staan als pc als ik hier op klik krijg ik een share als ik die aanklik moet inloggen maar dat lukt niet 8)7 ik gebruik een user met wachtwoord die ik aangemaakt heb bij het tabje acces.
Iemand die mij kan helpen ?
Als ik namelijk weet hoe het werkt ben ik van plan een echte nas server neer te zetten _/-\o_

Acties:
  • 0 Henk 'm!

  • tilde
  • Registratie: November 2000
  • Laatst online: 23:21
Gelukkig :) .
64KB of 128KB. Afhankelijk van de hoeveelheid schijven en ook ERG belangrijk de hoeveelheid RAM in je systeem. Met weinig RAM zul je misschien wel voor 32KB willen kiezen. Anders bij 6 of minder schijven 128KB, wat de meeste performance geeft aangezien geom werkt met requests van maximaal 128KB en er dus geen onnodige splits hoeven plaats te vinden.
De stripe size staat standaard op 128k en is in de webgui niet aan te passen. Ik heb er 3 schijven (500GiB) inzitten en 512mb ram, dus de stripesize laat ik maar lekker op 128k staan.
UFS = Unix File System, dan kun je nog kiezen voor SoftUpdates als extra. Veel maakt het niet uit, behalve dan dat SoftUpdates zorgt voor delayed writes en derhalve voor mogelijk hoger risico kan zorgen bij crashes/stroomstoringen. SoftUpdates schrijft metadata echter wel eerder weg dan dir/file data, zodat je bestandssysteem niet ernstig verminkt wordt bij stroomuitval. In die zin is het weer 'veiliger' dan zonder SoftUpdates. Gjournal is het beste maar nog niet stabiel helaas.
Ik geloof dat de softupdates standaard aan staan als je geom_raid5 gebruikt. dus dat is makelijk.
Performance en features, maar er zitten best wat goeie bugs in de beta's, dus misschien kun je daar nog beter wegblijven. En bij upgraden ook erg voorzichtig zijn; eigenlijk zorgen voor een backup dat je dat doet. FreeNAS is (nog) niet erg upgrade-vriendelijk.
Daar ben ik dus achter gekomen. Ik heb versie 0.684b geprobeerd, raid array aanmaken gaat ergens fout en het bliepje doet het ook niet ;( .
Dus doe versie 0.68 maar.

Nu nog een gigabit netwerk kaartje en "i'm ready to roll" 8) .

Acties:
  • 0 Henk 'm!

  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 20:59
Update van mij kant me disk is wel online maar kan niet mounten :'(
Hoe moet ik me disk instellen en formatten ?

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 20:48
DJ-Promo schreef op donderdag 24 mei 2007 @ 16:20:
Nu wilde ik instaleren op een usb stick maar dit ging niet
Waarom niet? Iets in de richting van een boken pipe? Dan moet je de bestaande FAT-partitie er even af knikkeren, deze unmounten en overschrijven met nulletjes of de stick pas in de pc stoppen nadat FreeNAS is geboot :)
Ander wordt hij door FreeNAS al gebruik om de settings op op te slaan, waardoor de installer hem niet kan overschrijven.

Mijn FreeNAS server, of iig het enige afwijkende stuk, de rest is gewoon 13-in-een-dozijn.
Afbeeldingslocatie: http://tweakers.net/ext/f/0485493693a1f74f57aa2416d47ec935/full.jpg
U ziet hier: mijn bootschijf. Van zo'n backplate afgeschroefd en met tie wraps tegen de mobotray
gezet :P

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 20:59
Gaaf gedaan Paul :) thanks voor de tip ga het morgen middag proberen !

Acties:
  • 0 Henk 'm!

  • tilde
  • Registratie: November 2000
  • Laatst online: 23:21
Das opzicht wel een makkelijke oplossing natuurlijk :) .

Ik heb wat zitten klooien met het raid5 gebeuren, maar echt fantastisch werkt het niet.
Het volgende heb ik gedaan:

-een hd met behulp van een boot disk opnieuw gepartitioneerd en geformateerd (fat 32).

-vevolgens die bewuste hd losgekoppeld.

-freenas opnieuw opgestart, en zoals verwacht en degraded raid array. Alles is nu nog OK. Lezen en schrijven gaat ook prima.

-Vervolgens de hd weer aangesloten, en freenas weer opgestart. De raid array word nu ge-rebuild. MAAR vervolgens kan op een of andere manier de raid array niet gemount worden. Ook bij de disk- status staat er niks.
Na het opnieuw formateren is alles weer ok, maar dan is de data natuurlijk weg |:( .

Ik heb dit geprobeerd om een gecrachte schijf te simuleren, vandaar een hd los te koppelen en vervolgens zonder de oorspronkelijke data weer terug te steken.

Kan best zijn dat ik iets doe wat niet hoord, maar ik kan nergens een handleiding vinden van freenas 0.68 (wel van 0.684b).

Ik hoop dat hier een oplossing voor bestaat, want om nu xp op dat ding zetten is ook weer zoiets :/

Acties:
  • 0 Henk 'm!

Anoniem: 41852

De grootste vraag is natuurlijk, waarom kun je niet mounten. Als dat wel werkt is je hele probleem weg en werkt het zoals verwacht. Krijg je een foutmelding bijvoorbeeld?

En trouwens, waarom gebruik je FAT? Kun je via ssh kijken of je met fsck_msdosfs fouten in je filesystem ontdekt? Als een filesystem fouten bevat dan kun je hem niet zonder meer mounten (ter bescherming van het FS).

Acties:
  • 0 Henk 'm!

  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 20:59
Paul dankzij jou kon ik nu wel op usb stick instaleren :) alleen kan het mobo niet van usb booten.
Gelukkig is dit toch alleen een test systeem om freenas te leren kennen.

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 20:48
Ik had het ook maar gevonden in de bug-reports op SourceForge ;) Specifieker: Dit report.

Het duurde wel even voordat ik doorhad dat de "topicstart" bovenaan staat en de replies vervolgens in omgekeerde volgorde, dus nieuwste net niet bovenaan 8)7

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • fv
  • Registratie: Augustus 2000
  • Laatst online: 04-07 18:30

fv

-------------------> hiero

Ondertussen draait mijn FreeNAS (0.684b) nu ook alweer een tijdje (stabiel) :) . Ik wil nu een tweede graid5 setje erin bouwen (weer 3x 500GB IDE) dmv een extra Promise SATA300 TX4 kaart (4x SATA port).
Aangezien het PATA schijven zijn heb ik hiervoor zo'n IDE naar SATA adapter voor gebruikt (zo'n rood klein adapter printje met Sunplus chip). Helaas gaat het hier bij het booten van het systeem vaak mis. Heel vaak wordt 1 (soms ook 2) harddisk(en) niet gedetecteerd door de Promise kaart (Promise BIOS), maar soms ook gewoon wel. Indien het wel goed gaat (alle 3 schijven worden gedetecteerd) werkt FreeNAS hiermee foutloos.
Hebben hier misschien andere gebruikers van zo'n IDE naar SATA adaptertje hier ook last van icm. de Promise kaart? Het lijkt erop dat de harddisk detectie van Promise niet zo betrouwbaar is...

Videoprojectie engineer, hardware & software development, ICT en veel meer. De meest nutteloze technische projecten zijn het leukst.


Acties:
  • 0 Henk 'm!

  • tilde
  • Registratie: November 2000
  • Laatst online: 23:21
Anoniem: 41852 schreef op donderdag 24 mei 2007 @ 22:28:
De grootste vraag is natuurlijk, waarom kun je niet mounten. Als dat wel werkt is je hele probleem weg en werkt het zoals verwacht. Krijg je een foutmelding bijvoorbeeld?
Geen idee, het enigste wat ik zie is "error" in de tabel van de mountpoints achter het het mountpoint van de raid array. Je kunt daar ook op retry klikken, maar dan blijft ie een error aangeven. Ik vind verder ook niks terug in de log. Probleem was opgelost na het formateren van de raid array, maar das geen oplossing natuurlijk.
En trouwens, waarom gebruik je FAT? Kun je via ssh kijken of je met fsck_msdosfs fouten in je filesystem ontdekt? Als een filesystem fouten bevat dan kun je hem niet zonder meer mounten (ter bescherming van het FS).
Ik had de hd in fat geformateerd buiten freenas om. Dit om de hd "leeg" te maken zodat het lijkt dat het een vervanger is voor de zogenaamd gecrashte schijf.

Het lijkt er op dat als de nu lege schijf weer aangesloten word en freenas de array gaat rebuilden, de boel corrupt word.

Acties:
  • 0 Henk 'm!

Anoniem: 41852

Je zou via ssh eens handmatig kunnen proberen te mounten na een fsck_msdosfs gedraaid te hebben, waarmee je je FAT partitie op je RAID5 volume controleert. Voordat je je schijf liet 'crashen' heb je wel de rebuild volledig laten voltooien? Je zou moeten controleren of de array in status COMPLETE verkeert.

[ Voor 16% gewijzigd door Anoniem: 41852 op 25-05-2007 11:05 ]


Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 23:20
Mijn epiaatje met nieuwe voeding

Links Epia EN15000, rechts de te vervangen Epia 'Classic' 800, staande op een APC SmartUPS 750.

Die PicoPSU is wel een verbetering, serververbruik is idle van ~48W naar ~35W gezakt! (Afwijkingen van cheape lidl wattmeter daargelaten)
Nog ruimte voor 2 extra schijven in de toekomst, tegen de tijd dat ZFS stable is in FreeBSD.

[ Voor 13% gewijzigd door P5ycho op 25-05-2007 15:48 ]

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • tilde
  • Registratie: November 2000
  • Laatst online: 23:21
Anoniem: 41852 schreef op vrijdag 25 mei 2007 @ 02:24:
Je zou via ssh eens handmatig kunnen proberen te mounten na een fsck_msdosfs gedraaid te hebben, waarmee je je FAT partitie op je RAID5 volume controleert. Voordat je je schijf liet 'crashen' heb je wel de rebuild volledig laten voltooien? Je zou moeten controleren of de array in status COMPLETE verkeert.
Raid volume is gewoon UFS geformateerd hoor. Alleen de "gecrashte" schijf heb ik tussendoor naar fat geformateerd. En de status was complete voor de "crash".

Acties:
  • 0 Henk 'm!

Anoniem: 41852

Oke dan begreep ik je verkeerd. Een mogelijkheid zou zijn dat FreeNAS die FAT disk automatisch mount ofzo, en daardoor geom_raid5 hem niet kan of wilt gebruiken. Graag zie ik een graid5 status output van je, dat kan via SSH maar ook via de graid5 tools in de FreeNAS GUI.

En via SSH handmatig een filesystem check doen:

fsck -t ufs /dev/raid5/<volumenaam>

Alhoewel betas van FreeNAS nu GPT partities gebruiken, ook op graid5 volumes (ben ik zelf geen voorstander van).

Acties:
  • 0 Henk 'm!

  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 20:59
Net bezig geweest met me test freenas systeem:

P3 100mhz, 512mb ram en 100mbit nic

Het lukt nu om op usb te instaleren maar het mobo kan niet booten van usb.
Dus ik had hem op een harddisk gezet maar als ik daar van boote zei de pc dat er geen besturingssysteem op stond.
Ik heb vanmiddag eerst de bios van het mobo geupdate maar ik zag weinig nieuws ook nog steeds geen boot functie vanaf usb.
Ik heb hiermee ook weer freenas op de harddisk geinstalleerd en jawel nu boot ie freenas wel :)
Leven de bios updates :P.
Ik heb er een oude harddisk naast gehangen en geshared.
Nu heb ik een 100mbit crosscable tussen de freenas en mij pc gehangen mij pc is overigens 2x gigabit.
Ik kon gelijk op me share komen en natuurlijk wat files erop gezet wat toch aardig vlot ging en lekker werkte :).

Ik haal zo 4mb per seconde en de cpu load is maar 1 keer over de 50% gesprongen.
Dit komt waarschijnlijk omdat het een crosscable is en maar 100mbit ook zijn de harddisken niet snel 5400rpm ( oude 30gb 3,5inch en 60gb notebook ).
Ik ben nu heftig aan het nadenken voor een echte freenas server met 3x320gb in raid5 dus 640gb effectief.
Als ik nu een switch tussen de freenas en me pc zet is dat sneller als een crosscable?
Het blijft natuurlijk wel 100mbit dan.
En me laatste vraag werkt de raid 5 functie van freenas goed ? Als er 1 harddisk uitvalt kan ik die dan zo verwisslen voor een ander en heb ik dan al me data nog?
Alvast bedankt voor alle hulp ! :)

Acties:
  • 0 Henk 'm!

Anoniem: 41852

Neem dan de Samsung 500GB schijfjes voor 98 euro per stuk:
pricewatch: Samsung SpinPoint T166 HD501LJ, 500GB (7200rpm, SATA II, 16MB, NCQ)
Houd je 1TB over (900GiB) in RAID5.

Een switch is niet sneller dan een directe crosslink verbinding, eerder een kleine vertraging alhoewel dat verwaarloosbaar is. En je geom_raid5 wat FreeNAS gebruikt werkt uitstekend, maar ik ben nog niet echt overtuigd van de kwaliteit van de FreeNAS beta's. Als je die features niet nodig hebt blijf je beter dus nog bij de stable versie.

Acties:
  • 0 Henk 'm!

  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 20:59
Ik gebruik nu Freenas 0.68 dat is toch een stable versie?
Daarin zit neem ik aan gewoon raid 5 of alleen in de beta?
Die samsung schijfjes zien er goed uit :).

Acties:
  • 0 Henk 'm!

Anoniem: 41852

Samsung schijfjes hebben de beste prijs per gigabyte en zijn erg stil en verbruiken ook weinig energie. Ideale schijfjes voor je RAID5 array denk ik.

FreeNAS 0.68 heeft geom_raid5 ja, alhoewel FreeNAS achterloopt bij de versies; nieuwe graid5 is sneller, veiliger en beter maargoed ik denk dat als je problemen tegenkomt deze met FreeNAS te maken zullen hebben; dat is namelijk nog volop in ontwikkeling.

Acties:
  • 0 Henk 'm!

  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 20:59
Oke bedankt voor je antwoorden ik ga eens nadenken over een freenas systeem :).

Acties:
  • 0 Henk 'm!

  • tilde
  • Registratie: November 2000
  • Laatst online: 23:21
Zo, ik ga toch maar voor XP met softraid5 ipv. freenas. Twee redenen hiervoor:

-Ik krijg de geomraid5 niet goed werkend onder freenas. Ik kan nog wel een tijd doorklojen hiermee en gaan wachten op een nieuwe release die wel werkt, maar ik heb de opslag nu toch wel echt nodig. En dan moet het gewoon werken.

-Ik heb mijn tweede systeem een tijdje terug verkocht, en daar moet nog een vervanger voor komen. Dus ik had gedacht om de boel maar te combineren.

Ik zal evengoed de ontwikkeling van freenas blijven volgen, want ik vind het toch een mooie oplossing. Ik verwacht eigenlijk toch wel dat dat ik in de toekomst een freenas based nas ga neerzeten als de bugs er een beetje uit zijn ;) .

Acties:
  • 0 Henk 'm!

  • Tomsworld
  • Registratie: Maart 2001
  • Niet online

Tomsworld

officieel ele fan :*

ik ga ook eens proberen in vmware

"De kans dat een snee brood op een nieuw tapijt valt met de beboterde zijde onderaan, is recht evenredig met de prijs van het tapijt"


Acties:
  • 0 Henk 'm!

Anoniem: 41852

tilde schreef op zaterdag 26 mei 2007 @ 16:24:
Zo, ik ga toch maar voor XP met softraid5 ipv. freenas.
Alhoewel ik het natuurlijk erg jammer vind wel een juiste beslissing denk ik, gezien de redenen die je ervoor geeft.

Toch wil ik je vragen een bug report te doen en zoveel mogelijk informatie (meldingen etc.) te geven zodat het probleem mogelijk met jouw informatie opgelost kan worden. Tevens vraag ik me af of je de stabiele 0.68 of een van de beta's hebt geprobeerd?
Ik zal evengoed de ontwikkeling van freenas blijven volgen, want ik vind het toch een mooie oplossing. Ik verwacht eigenlijk toch wel dat dat ik in de toekomst een freenas based nas ga neerzeten als de bugs er een beetje uit zijn ;) .
Je kunt ook met vmware een FreeBSD installatie draaien met geom_raid5 die disks van je windows systeem gebruikt. Dat werkt redelijk, mits je vmware image exclusieve hardware toegang geeft. Dan kun je wel redelijke snelheden verwachten.

Dan heb je dus workstation en server in een met geom_raid5, zonder FreeNAS.

Acties:
  • 0 Henk 'm!

  • El Cid
  • Registratie: September 2003
  • Niet online
Anoniem: 41852 schreef op zondag 27 mei 2007 @ 14:14:
Dan heb je dus workstation en server in een met geom_raid5, zonder FreeNAS.
Je lijkt wel een dealer, zoals je iedereen aan de geom_raid5 wilt krijgen. :P

Acties:
  • 0 Henk 'm!

Anoniem: 41852

El Cid schreef op zondag 27 mei 2007 @ 14:46:
[...]


Je lijkt wel een dealer, zoals je iedereen aan de geom_raid5 wilt krijgen. :P
Op dit moment wel de meest complete software RAID5 implementatie, met veel veiligheidsfeatures en zeer goede performance. :)

Maar ik geef toe, misschien klink ik iets teveel als een autoverkoper. :P
Maarja het is dat geom_raid5 open source is, dus aandelen kan ik niet hebben. :+

Acties:
  • 0 Henk 'm!

  • Demo
  • Registratie: Juni 2000
  • Laatst online: 30-06 15:42

Demo

Probleemschietende Tovenaar

Anoniem: 41852 schreef op zondag 27 mei 2007 @ 14:14:
[...]

Alhoewel ik het natuurlijk erg jammer vind wel een juiste beslissing denk ik, gezien de redenen die je ervoor geeft.

Toch wil ik je vragen een bug report te doen en zoveel mogelijk informatie (meldingen etc.) te geven zodat het probleem mogelijk met jouw informatie opgelost kan worden. Tevens vraag ik me af of je de stabiele 0.68 of een van de beta's hebt geprobeerd?

[...]

Je kunt ook met vmware een FreeBSD installatie draaien met geom_raid5 die disks van je windows systeem gebruikt. Dat werkt redelijk, mits je vmware image exclusieve hardware toegang geeft. Dan kun je wel redelijke snelheden verwachten.

Dan heb je dus workstation en server in een met geom_raid5, zonder FreeNAS.
Ik heb daar ook over zitten nadenken. De reden waarom ik het niet aandurf, is dat ik bang ben voor een hoge CPU-load bij netwerkverkeer. De data moet immers eerst in TCP/IP pakketjes ingepakt worden door de virtuele machine en dan ook nog gerouteerd worden over de fysieke netwerkaansluiting van de hostmachine. Ik zit er over te denken om zo'n Intel Pro/1000PT kaart te kopen om mijn CPU wat te ontlasten (Areca 1220 is al in aantocht) maar dat zou weinig nut hebben als ik voor de VMware oplossing ga. Bovendien kom ik dan nooit boven de 100 MB/s uit (lokaal op de machine) terwijl ik met 8 schijven (Samsung 500GB) toch makkelijk tot 400MB/s moet kunnen komen.
Met een dual/quad core processor is de CPU-load niet echt een probleem natuurlijk. Als je het voor elkaar krijgt om een aantal NIC's te teamen binnen FreeBSD op de virtuele machine, dan zou daarmee ook het snelheidsprobleem opgelost zijn.

Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done


Acties:
  • 0 Henk 'm!

  • vandijk
  • Registratie: Oktober 1999
  • Laatst online: 19:35
Zolang het netwerk verkeer op de pc (host <-> gast) blijft heb je geen limiet (100 of 1000 mbit/s) VMWare. Alleen als je 2 nics hebt, en 1 dedicated voor een VM reserveert, gaat het verkeer over je switch.
Dan heb je dezelfde bottleneck als wanneer je 2 losse pc's hebt.

Canon cameras en lenzen. Elinchrom flitsers, Lowepro en Pelican tassen/koffers. Polestar 2


Acties:
  • 0 Henk 'm!

Anoniem: 14762

Als ik kort door de bocht mag gaan:

File Area Network zie Wikipedia:en
  • Neem een systeem met tweevoudige 1Gbs nic. operating system is OpenFiller.
  • 1e nic is LAN.
  • 2e nic is FAN.
  • De FAN een is een dedicated network, of tenminste een vlan met ditto ondersteunende switch.
  • Op de FAN hang je x-aantal slaves tbv van openfiller, de nas/nas-head.
  • De slaves hebben toegang tot y-storage, met elk 1 Gbs nic.
  • Communicatie op de FAN verloopt via het Ata over Ethernet protocol. (AoE).
  • Storage bestaat uit kosten oogpunt uit SATA-2.
Doorbreidend hierop
De slaves booten met behulp van
  1. een flashdisk, of
  2. een bootable nic.
Bij (mijn persoonlijke) voorkeur is het operating system voor de slaves van *BSD.

Acties:
  • 0 Henk 'm!

  • tilde
  • Registratie: November 2000
  • Laatst online: 23:21
Anoniem: 41852 schreef op zondag 27 mei 2007 @ 14:14:
Alhoewel ik het natuurlijk erg jammer vind wel een juiste beslissing denk ik, gezien de redenen die je ervoor geeft.

Toch wil ik je vragen een bug report te doen en zoveel mogelijk informatie (meldingen etc.) te geven zodat het probleem mogelijk met jouw informatie opgelost kan worden. Tevens vraag ik me af of je de stabiele 0.68 of een van de beta's hebt geprobeerd?
Ik vind het ook jammer, want het heeft duidelijk voordelen ten opzichte van windows.

Ik had versie 0.68 stable gebruikt.
Een bug report word wat lastig denk ik, want er stond niks in de log :? . Tenzij er ergens een logfile is waar ik het bestaan niet van weet. Ik heb het compactflash kaartje met de freenas install nog wel trouwens.

Zo'n vmware oplossing is me toch iets te complex om een paar bestandjes op te slaan. Ik hoef niet perse "firebreathing performance" ;) .

Acties:
  • 0 Henk 'm!

  • Unicron
  • Registratie: November 2001
  • Laatst online: 04-07 16:26
Ik ben ook een beetje aan het kijken naar het bouwen van een NAS. Ik zou dan gaan voor een RAID-5 in combinatie met een Asus M2A-VM HDMI, 690G (erg zuinig) en een simpele Sempron processort.

Mijn vraag is of er ook AM2 moederborden zijn die meer dan 4xSATA2 onboard hebben?

Deze Asus heeft er namelijk maar 4 en in de toekomst lijkt het mij wel interessant om een 4x500GB RAID5 uit te breiden met meer schijven.

Acties:
  • 0 Henk 'm!

  • tilde
  • Registratie: November 2000
  • Laatst online: 23:21
[b][message=28114308,noline]
Mijn vraag is of er ook AM2 moederborden zijn die meer dan 4xSATA2 onboard hebben?
Ben ik eigenlijk ook naar aan het zoeken. Ze bestaan wel, maar dan krijg je van die nforce gevallen :/ .

Acties:
  • 0 Henk 'm!

  • Coenen
  • Registratie: September 2000
  • Laatst online: 03-07 17:12

Coenen

=LoT= IJsbier @ ET

Ik wou vandaag even via FTP m'n FreeNAS systeem aan een collega laten zien.
Dus ik heb een groep aangemaakt, daar heb ik een user met pass aangemaakt.
Vervolgens bij FTP; Enable anonymous login uitgevinkt.
Als ik dan probeer in te loggen met die user en pass gebeurd er niks.
Uit de logs: Authentication failed for user [xxx]
Ik gebruik versie: 0.684b.
Zie ik nog iets over het hoofd?

Edit; nadat ik er helemaal niet meer bij kon, de users en group gedelete.
Toen kon ik er tenminste anoniem weer bij, vervolgens netjes eerst een groep aangemaakt apply en vervolgens users, apply. Nu werkt het wel.

Edit2: Met een group en wat users gebeuren er toch wat rare dingen.
Via FTP kan je best een eind door je dir's heen browsen, tot dat je opeens geen permission meer hebt.
Vaag, ik heb geen permissions gezet, terwijl ik dit stiekem eigenlijk wel zou willen.

[ Voor 38% gewijzigd door Coenen op 28-05-2007 19:15 ]


Acties:
  • 0 Henk 'm!

  • sPENKMAN
  • Registratie: April 2002
  • Laatst online: 26-06 10:08
Ik zit langzaam aan ook rond te kijken naar een centrale storage omgeving. Nou zijn er een aantal voordelen met een hardwarematige controller zoals online expansion (dit is een eis vanuit mijn kant), lagere rebuild tijden maar ook hoge performance.

Ik ben echter niet echt bereid om € 500, - voor een controller (Areca 1220 8x) neer te leggen wanneer ik de performance totaal niet kan benutten vanaf mijn werkstation. Alle bestand bewerkingen lopen immers via de client als ik mij niet vergis.

Als ik nu een Windows share open op een andere computer en daar een rarset uitpak dan worden de files eerst naar mijn pc gehaald, lokaal uitgepakt en vervolgens weer weggeschreven op de share met op dit moment 8 MB/ps :z

Als ik logisch nadenk dan zal altijd de data lokaal gehaald moeten worden ookal maak je gebruik van iSCSI, CIFS of NFS. Maak ik hier nu een denkfout of klopt mijn beredenering en is het dus relatief zonde om een dure controller aan te schaffen?

Edit: Uit eerdere posts blijkt dat Online Expansion ook via een software matige oplossing mogelijk is dus in dat opzicht zit ik niet "vast" aan een hardware matige oplossing.

[ Voor 8% gewijzigd door sPENKMAN op 28-05-2007 17:40 ]

Eve char: Warock <TEST>


Acties:
  • 0 Henk 'm!

Anoniem: 41852

Ja als het over ethernet gaat biedt hardware RAID geen performancevoordeel met moderne softwarematige oplossingen.

Er zijn momenteel drie softwarematige RAID5 oplossingen die expansion ondersteunen (linux md raid5, freebsd's geom_raid5 en ZFS in FreeBSD en OpenSolaris). Is het geen optie om een van die te gebruiken? Scheelt je ook weer 500 euro voor een controller. :)

Acties:
  • 0 Henk 'm!

  • sPENKMAN
  • Registratie: April 2002
  • Laatst online: 26-06 10:08
Anoniem: 41852 schreef op maandag 28 mei 2007 @ 17:39:
Ja als het over ethernet gaat biedt hardware RAID geen performancevoordeel met moderne softwarematige oplossingen.

Er zijn momenteel drie softwarematige RAID5 oplossingen die expansion ondersteunen (linux md raid5, freebsd's geom_raid5 en ZFS in FreeBSD en OpenSolaris). Is het geen optie om een van die te gebruiken? Scheelt je ook weer 500 euro voor een controller. :)
Dat is zeker wel een optie en dat zal het ook wel worden alhoewel ik me toch veiliger voel bij een hardwarematige oplossing. Maar het geld wat ik bespaar kan ik mooi gebruiken om te beginnen met 3 750GB schijven.

Ik weet in ieder geval in welke richting ik verder moet gaan zoeken qua configuratie. De server zal namelijk niet enkel als filestorage gaan fungeren maar neemt ook andere taken op zich waardoor ik niet simpel weg voor de minst stroomverbruikende oplossing kan gaan. Ik zal dus op zoek moeten gaan naar de gulden middenweg.

In ieder geval bedankt voor je snelle reply _/-\o_

Eve char: Warock <TEST>


Acties:
  • 0 Henk 'm!

Anoniem: 41852

sPENKMAN schreef op maandag 28 mei 2007 @ 17:49:
Dat is zeker wel een optie en dat zal het ook wel worden alhoewel ik me toch veiliger voel bij een hardwarematige oplossing. Maar het geld wat ik bespaar kan ik mooi gebruiken om te beginnen met 3 750GB schijven.
Vind je dat niet zonde? 500GB schijven koop je nu voor 96 euro en zijn daarmee stukken goedkoper dan 750GB schijven die 200 euro kosten. Bovendien stukken stiller en energiezuiniger. Koop dan 6x500GB, hou je ook meer over bij RAID5 aangezien daarbij de overhead afneemt bij het aantal schijven.

3x750GB = 1.5TB opslag tegen 600 euro - 400 euro per TB <---- erg ongunstig
4x500GB = 1.5TB opslag tegen 384 euro - 256 euro per TB
5x500GB = 2.0TB opslag tegen 480 euro - 240 euro per TB
6x500GB = 2.5TB opslag tegen 576 euro - 230 euro per TB <--- een veel beter alternatief
8x500GB = 3.5TB opslag tegen 768 euro - 219 euro per TB

:)
Ik weet in ieder geval in welke richting ik verder moet gaan zoeken qua configuratie. De server zal namelijk niet enkel als filestorage gaan fungeren maar neemt ook andere taken op zich waardoor ik niet simpel weg voor de minst stroomverbruikende oplossing kan gaan. Ik zal dus op zoek moeten gaan naar de gulden middenweg.
Dan denk ik aan AMD Athlon 64 X2 4400+ Energy Efficient voor 80 euro met Samsung T166 500GB schijven en een "groene" voeding (85% efficient). Dan heb je een krachtige processor voor weinig geld, leuke schijven en een goede en zuinige voeding.

Draai je windows kun je overwegen om de 'storage' in vmware te draaien voor meer performance en veiligheid (beter filesystem).
Pagina: 1 ... 6 ... 14 Laatste

Dit topic is gesloten.