• Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Q schreef op vrijdag 11 september 2009 @ 23:41:
10 GB Nics zou geweldig zijn, maar de prijzen zijn belachelijk.
Een tussenstapje voor jouw NAS zou misschien fibre zijn? Je hebt PCI-e kaartjes die voor minder dan 100 euro over de toonbank gaan en dan tot zo'n 800MB/sec halen.

De CSL/OT kroeg !


  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 09-09 15:49
Eergisteren mijn thuisserver ook maar eens opnieuw ingericht.
A64 X2 4000+ @ 1Ghz / 1V
1x 320Gb WD
2x 1Tb WD

Ik tik net 60 watt aan idle, maar ik zit met een oude voeding dus als ik er binnekort zo'n seasonic in gooi zal dat nog ietsje beteren.
OS is Ubuntu server 9.04 met 2.6.29 kernel.

Nu nog de filetransfers over samba goed krijgen, want ik zit ergens met een bottleneck waardoor ik in linux-linux transfers max 15,4MB/s haal.

  • remmelt
  • Registratie: Januari 2001
  • Laatst online: 09-04 12:25
Waarom zou je linux-linux over samba doen? Waarschijnlijk is ftp of misschien zelfs scp sneller. Of nfs?

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
Dadona schreef op zaterdag 12 september 2009 @ 16:18:
[...]
Een tussenstapje voor jouw NAS zou misschien fibre zijn? Je hebt PCI-e kaartjes die voor minder dan 100 euro over de toonbank gaan en dan tot zo'n 800MB/sec halen.
Wat voor technologie is dat?

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Ik doelde op een glasvezel netwerk. Los van de prijs, snelheid, .. ik doelde op een kaartje als deze Intel

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Dadona schreef op zaterdag 12 september 2009 @ 23:55:
Ik doelde op een glasvezel netwerk. Los van de prijs, snelheid, .. ik doelde op een kaartje als deze Intel
Zijn nog steeds Gbit kaarten en geen Gbyte.
Je hebt daarvoor ook gewoon een PCI-E 2.0 16x slot voor nodig om in de buurt van 10GB/s te komen :P
Maar ja 10Gb is voorlopig ook snel zat en dat is met een PCI-e 4x slot nog te doen (1.0 standaard = 4x 250MB/s)

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Ik zet toch ook nergens dat je GByte snelheden haalt, daarom ook het tussenstapje :) Overigens, als je snelheden van 10GB/sec wil bereiken dan kun je jezelf laten registreren als semi professioneel datacentrum denk ik :+

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
Dadona schreef op zondag 13 september 2009 @ 00:43:
Ik zet toch ook nergens dat je GByte snelheden haalt, daarom ook het tussenstapje :)
:( Wijsneus.

[ Voor 24% gewijzigd door Q op 13-09-2009 01:10 ]


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Dadona schreef op zondag 13 september 2009 @ 00:43:
Ik zet toch ook nergens dat je GByte snelheden haalt, daarom ook het tussenstapje :) Overigens, als je snelheden van 10GB/sec wil bereiken dan kun je jezelf laten registreren als semi professioneel datacentrum denk ik :+
Je had het wel over 800MB/sec dus dan heb je het bijna over 10Gb /sec en daarna geef je een link naar een kaart die 1Gb/sec doet. Wat een max heeft van 125MB/s. Daarom deed ik me vorige reply ;)

En daarom zie ik de investering om over te stappen naar glas niet nuttig omdat je het ook via koper haalt.

[ Voor 9% gewijzigd door The-Source op 13-09-2009 11:13 ]

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • Sjoerten
  • Registratie: Oktober 2008
  • Laatst online: 16:56
Om mijn onstilbare opslag honger te temmen ben ik van plan een NAS te bouwen ter vervanging van mijn CH3SNAS.

De belangrijkste reden om over te gaan is om deze te gaan is voor mij het feit dat ik bij een CH3SNAS gebonden ben aan maximaal 2TB relatief veilige opslag. Hiermee doel ik op 2 2TB HD's waarbij ik wekelijks een kopie maak van HD1 naar HD2.

Mijn doel is dan ook om een configuratie op te stellen met een RAID5 array. Echter heb ik een paar grote vragen waarvan ik hoop dat jullie mij op de goed weg kunnen helpen. Mijn linux kennis is (nog) niet bijster groot, echter ben ik bepaald niet te beroerd om wat te leren.

Mijn doel met de NAS is als volgt:

- Ik ga hem voornamelijk gebruiken om films te bewaren en te streamen naar mijn tv's en pc's
- Downloaden van films, dit doe ik volledig van nieuwsgroepen en ik wil er dus een nzb client als NZBget of Hellanzb op kunnen draaien.

Verder eisen die ik heb zijn:

- Ik wil gebruik kunnen maken van Capacity Expansion, gezien het gebruik van de nas hoeft dit niet Online te zijn. Ik wil beginnen met 4 x 1tb schijven en dit later indien dit weer nodig is verder uitbreiden.
- Ik ga de NAS in de meterkast plaatsen en wil hem dus volledig remote kunnen beheren. Aangezien ik zoals aangaf geen linux ster ben, zou een browserbased beheer iets prettig.

Wat heb ik zelf als opties uitgezocht:

Een setup met een RocketRaid 2320 controller, deze biedt ondersteuning voor OCE, alleen wil ik vanwege het kostenplaatje liever geen hardware raid controller, van dat geld koop ik liever extra diskspace :)

Dan kom je dus uit bij software raid.

- FreeBsd: Klinkt goed, ik kan ook enkele hints vinden over Capacity Expansion. Echter krijg ik heel sterk de indruk dat CE nooit verder dan de beta fase is gekomen??

- Openfiler: Klinkt ook erg leuk, SW raid 5 middels mdadm, inclusief capacity expansion :) en een leuke webinterface om het geheel te managen, echter kan ik niet helemaal achterhalen of ik hier nou op een relatief eenvoudige manier een tool als hellanzb bij kan installeren??

- Ubuntu (server?) + webmin; lijkt mij een beetje een uitgebreide installatie om alleen dingen te downloaden en te streamen, maar is volgens mij wel een optie. Is ook veel info over te vinden.

- Een andere optie

Kunnen jullie mijn vragen beantwoorden en mogelijk een optie aandragen die ik over het hoofd zie?

Alvast onwijs bedankt!

"Never underestimate the bandwidth of a station wagon full of tapes hurtling down the highway"


Acties:
  • 0 Henk 'm!

  • remmelt
  • Registratie: Januari 2001
  • Laatst online: 09-04 12:25
Weet je wat je zou kunnen doen? Al deze opties zelf bekijken in een virtuele server. Kan je meteen kijken of expension werkt (doet het in elk geval op linux/mdadm, dat weet ik) en hoe software RAID werkt en alles. Je kan er zelfs (virtueel) schijven uit trekken.

Ik heb zelf voor Ubuntu gekozen, mede omdat ik dat OS behoorlijk ken. Webadmin voor het maken van RAID sets is misschien iets te hoog gegrepen maar er zijn echt veel sites te vinden die het van begin tot eind uitleggen. Het is eigenlijk relatief simpel, je moet alleen oppassen dat je door de bomen het bos blijft zien. Ubuntu heb ik als server draaien (alternative download) en dat is redelijk klein nog. Daar zit dus helemaal geen GUI op, met monitor is het gewoon een terminal. Daar moet je dan wel je weg in weten.
Sabnzbd+ en rtorrent heb ik via webinterface, appletalk shares (disk en printer) doen het ook. Verder hebben we alleen maar macs, dus geen samba oid, maar dat is ook simpel te fixen.

Maar goed, ik zou zeggen: experimenteer vooral in een vm. Kan je niks fout doen, kost geen geld. Succes!

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
klaasbram schreef op zondag 13 september 2009 @ 11:12:
[...]

Je had het wel over 800MB/sec dus dan heb je het bijna over 10Gb /sec en daarna geef je een link naar een kaart die 1Gb/sec doet. Wat een max heeft van 125MB/s. Daarom deed ik me vorige reply ;)

En daarom zie ik de investering om over te stappen naar glas niet nuttig omdat je het ook via koper haalt.
De link ging puur en alleen om te laten zien over wat voor techniek ik het had :) Maar ik had een foutje gemaakt, de kaart zelf kon geen 800MB/sec, maar 'slechts' tot 500MB/sec (gebruikt en nieuw). Ofwel een 4Gb kaartje.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
Bepaalde FC HBA's worden door Linux standaard ondersteund. Maar of IP over FC werkt hangt af van de HBA. Lastig. Maarja.

[ Voor 75% gewijzigd door Q op 14-09-2009 23:32 ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
Debian Lenny of Ubuntu is denk ik toch het fijnste. Iets meer moeite, maar je kunt het helemaal aanpassen naar je eigen zin. Wat jij wilt heb ik zo draaien.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Als je het relatief snel in de lucht wil hebben zou ik voor Debian gaan (of anders Ubuntu). Beiden hebben een grote actieve community en ontelbare guides, ports, .. maar ook op Tweakers lopen velen rond met ervaring met Linux. Met Unix begeef je je in een hele mooie wereld (ja 100% persoonlijke mening :)), maar het aantal bereikbare gebruikers ligt significant lager.
Zelf heb ik dan ook met Debian snel een tweetal servers opgezet en ik ben rustig daarnaast aan het spelen met FreeBSD. Op termijn zal ik dan FreeBSD tot mijn primaire server OS maken, maar dan wil ik het ook echt goed doen (echt weten wat er gebeurd, ipv alleen domweg apt-get of tar acties na een relatief standaard installatie, alleen RAID is wat minder standaard).

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Sjoerten
  • Registratie: Oktober 2008
  • Laatst online: 16:56
Ten eerste tnx voor alle reacties!!
remmelt schreef op maandag 14 september 2009 @ 22:44:
Maar goed, ik zou zeggen: experimenteer vooral in een vm. Kan je niks fout doen, kost geen geld. Succes!
Ik heb hier even naar gezocht omdat het idee wel heel relaxed klinkt om een beetje te kunnen oefenen en ik ga dit denk ik wel proberen, alleen nog even uitzoeken hoe het werkt O-)

Het is me duidelijk dat de het een Linux variant gaat worden;

Ik wil een keuze maken tussen Debian en Ubuntu, alleen liggen deze twee mi heel dicht bij elkaar. Als ik dan op de Ubuntu site ook nog lees dat Ubuntu is op Debian is gebaseerd lijkt het me helemaal niet echt uit te maken. Ik neig richting Ubuntu, maar dit komt volgens mij vooral omdat dit wat bekender klinkt dan Debian.

Als iemand nog een concreet relevant verschil tussen Debian en Ubuntu weet te melden houd ik mij aanbevolen, anders wordt het denk ik toch Ubuntu. Verder weet ik voor nu even voldoende, jullie horen ongetwijfeld van me zodra ik met een installatie ben vastgelopen }:O

"Never underestimate the bandwidth of a station wagon full of tapes hurtling down the highway"


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Voor een server zou ik voor Debian kiezen, Ubuntu voor een desktop. Dat komt wel overeen met de uitkomsten van een poll op Tweakers. Voor mij is de belangrijkste reden dat Ubuntu (Desktop) de filosofie heeft om snel nieuwe versies uit te brengen om tot ultiem comfort te komen. Ze brengen in principe iedere zes maanden een nieuwe versie uit. Dat is ideaal bij een desktop omdat je niet jaren wil wachten tot je een nieuw stukje hardware kunt gebruiken, of dat je eindelijk gebruik kan maken van een nieuwe grafische kaart. Die filosofie zal vast deels ook invloed hebben op de server kant van Ubuntu.
Debian aan de andere kant heeft als filosofie om alles van onder tot boven, bij iedere stand van zon en maan, ... te testen. Het gevolg is dat Debian niet meedoet in de race om als eerste exotische hardware te ondersteunen (de grafische interface is altijd wat stoffiger), maar in ruil daarvoor wel een veilig en stabiel platform aflevert. Of dat Ubuntu ook het geval zou zijn hangt mijns inziens ook van de gebruiker af, maar als één gericht is op wat jij belangrijk (zou moeten) vindt(en), waarom niet?

De CSL/OT kroeg !


  • remmelt
  • Registratie: Januari 2001
  • Laatst online: 09-04 12:25
In principe ben ik het met Dadona eens, Debian is geschikter voor een server. Waarom heb ik dan toch zelf Ubuntu op m'n server?

Debian test, test en test nog meer. Dat met die standen van de maan was bijna geen grapje, en het is de running gag van de softwarewereld dat de apocalypse waarschijnlijk eerder zal komen dan de volgende Debian stable.
Kijk, voor de allerlaatste versies van software zou ik het niet doen. Ik weet het verschil tussen sabnzbd+ 0.3.8 en 0.3.9 niet, ze downloaden allebei prima.
Aan de andere kant, bij Debian wordt zo veel en lang getest dat je soms gewoon geen toegang hebt tot de nieuwste major versie. Een paar jaar geleden was PHP5 de boosdoener, die kon gewoon niet geïnstalleerd worden uit de repositories in stable.
Je kan dan twee dingen doen. Of je gaat voor backports, of je installeert unstable. Met backports ga je zelf lopen kutten in je dependencies, hier heb ik me een keer hard aan gebrand en blijf ik verre van. YMMV. Wat mij betreft gooi je dan apt bijna overboord en kan je net zo goed gewoon uit source gaan installeren. Gedoe.
Unstable is in principe ook prima, maar goed, dan heb je dus het voordeel van ultiem geteste software niet meer en kan je wat dat betreft net zo goed doorstomen naar Ubuntu.

Overigens moet je niet denken dat Ubuntu/Debian unstable dan helemaal niet stabiel draait. In tegendeel, ik heb er totaal geen problemen mee. Met Debian stable wordt bedoeld: stabiel genoeg voor 99,99999% uptime servers, nooit maar dan ook nooit crashend, in welke software combinatie dan ook. Ik kan je verzekeren dat je ook met Ubuntu geen crashende computers zal meemaken en als het wel gebeurt zal het waarschijnlijk eerder aan jou liggen dan aan het OS ;) (ervaringsdeskundige, overigens)
Wat je zelfs nog zou kunnen doen is een Ubuntu LTS versie nemen (long time support) maar ik denk niet echt dat je die support nodig gaat hebben.

Groot voordeel van Ubuntu is dat het meer een newbie OS is, waardoor er heel erg veel simpele tutorials te vinden zijn. Het forum is ook wat meer gericht op de leek.

Kortom, Debian en Ubuntu zijn allebei prima, en je hebt in allebei nog onderverdelingen. Wat je ook gaat kiezen, je zal uitkomen op een stabiel en goed getest systeem.

  • jayvol09
  • Registratie: Augustus 2009
  • Laatst online: 02-09-2020
Wil een systeempje maken met om te beginnen 1,5TB in RAID1. Gezien ik ook een kleine voeding neem leek het me beter om geen RAID5 te nemen (ja dan had ik wel 3 drives gekocht om te beginnen). Dit omdat de spin-up van een 2 disc array sneller en minder stroom kost dan een 3+ disc array upspinnen. Nou zie ik mezelf niet meer dan 8 drives nodig hebben, eerder 6 na een tijd. Dus ervanuitgaande dat ik alleen 1,5TB discs koop, zit ik met 3 a 4 RAID1 arrays van 1,5TB. Dus 4,5 a 6TB totaal. Met RAID5 kan ik voor 2 (langzamer opstartende) arrays gaan van 3of4 disc per array voor 6 a 9TB totaal. Verschil RAID1 en RAID5 neemt dus toe naarmate ik meer schijven neem: met 8 drives verlies ik t meest op RAID1.

Vraag:
Als ik voor de RAID1 variant ga, rechtvaardigen robuustere data, de snellere prestaties en lager 'verbruik onder load' het verlies aan opslag t.o.v het genoemde RAID5 oplossing? Wat zouden jullie doen? Misschien een combinatie van bv 2xRAID1 en 1 RAID5 array in een 8-disc setop voor 7,5TB. Als het mogelijk is zowel RAID1 als RAID5 onder software RAID te draaien...
Evt nog verschillende adviezen voor 8 en 6 drives?

"Between the weak and the strong one it is the freedom which oppresses and the law that liberates" [Jean Jacques Rousseau]


  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
jayvol09 schreef op woensdag 16 september 2009 @ 21:15:
Wil een systeempje maken met om te beginnen 1,5TB in RAID1. Gezien ik ook een kleine voeding neem leek het me beter om geen RAID5 te nemen (ja dan had ik wel 3 drives gekocht om te beginnen). Dit omdat de spin-up van een 2 disc array sneller en minder stroom kost dan een 3+ disc array upspinnen.
Opspinnen duurt niet langer en het extra verbruik is misschien 5 - 10 wat extra. Voeding trekt het prima.
Nou zie ik mezelf niet meer dan 8 drives nodig hebben, eerder 6 na een tijd. Dus ervanuitgaande dat ik alleen 1,5TB discs koop, zit ik met 3 a 4 RAID1 arrays van 1,5TB. Dus 4,5 a 6TB totaal. Met RAID5 kan ik voor 2 (langzamer opstartende) arrays gaan van 3of4 disc per array voor 6 a 9TB totaal. Verschil RAID1 en RAID5 neemt dus toe naarmate ik meer schijven neem: met 8 drives verlies ik t meest op RAID1.
RAID 1 is zonde van het geld.
Vraag:
Als ik voor de RAID1 variant ga, rechtvaardigen robuustere data, de snellere prestaties en lager 'verbruik onder load' het verlies aan opslag t.o.v het genoemde RAID5 oplossing? Wat zouden jullie doen? Misschien een combinatie van bv 2xRAID1 en 1 RAID5 array in een 8-disc setop voor 7,5TB. Als het mogelijk is zowel RAID1 als RAID5 onder software RAID te draaien...
Met 1 loss TB disk trek je Gigabit al dicht. Voor een NAS boeit performance geen drol. Als je toch al 3 disks hebt is het zonde om niet meteen een RAID 5 aan te maken, dan kun je daarna lekker groeien met disks. Van RAID 1 naar RAID 5 kan maar is rot.

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Met +/- 8 Disk is juist RAID 6 iets wat heel leuk gaat worden.
Want dan kunnen 2 willekeurige HDD's uitvallen zonder data verlies.
Bij RAID 1 kan altijd maar 1 disk uit die array weg vallen. Vallen er 2 disk weg van de 8 en zitten die net in dezelfde array dan ben je nog data kwijt!
Raid 5 is bij 3 disk of meer gewoon een betere oplossing want stel je hebt 2x RAID 1 (4disks totaal) dan is de kans dat er 2 disk uitvallen al vrij klein maar als ze uitvallen is de kans ook vrij groot dat ze uit dezelfde array komen. Alleen bij de 1e optie heb je 3 data schijven en 1 pariteit dus 4.5TB aan ruimte voor je data. En bij de laatste optie maar 3TB aan data ruimte.

Bij de 8 disk is het als volgt:
4x RAID 1 = 6TB ruimte. / 1 disk tot 4 disks mogen uitvallen zonder data verlies.
RAID 5 = 10.5 TB ruimte / 1 disk mag uitvallen zonder data verlies.
RAID 6 = 9TB ruimte / 2 disks mogen uitvallen zonder data verlies.

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Leuk? Noodzakelijk kwaad eerder. Rebuilden van 4x 1TB in RAID5 kost hier al rond de 50 uur. Als daadwerkelijk een schijf omvalt en je hebt de schijven in één keer gekocht dan heb je een wat grotere kans dat er ook een tweede binnenkort omvalt. Dan ga je in diezelfde periode ook nog even alles rebuilden, waardoor alles even lekker belast raakt, gevolg is dat je de kans nog groter maakt dat er een schijf omvalt. De tijdsduur van belasting is ook nog eens een paar dagen, lekker. (Dan heb ik het alleen nog maar over de harde schijven, niet over een controller die misschien oververhit raakt, zoals Q bijna een keer overkwam.)

De CSL/OT kroeg !


  • jayvol09
  • Registratie: Augustus 2009
  • Laatst online: 02-09-2020
Opspinnen duurt niet langer en het extra verbruik is misschien 5 - 10 wat extra. Voeding trekt het prima.
Je bedoelt dus dat de vertraging niet merkbaar is met zo weinig schijven vanuit standby neem ik aan. Wil wellicht een 120W pico.
RAID 1 is zonde van het geld
je bedoelt RAID1 kost meer :) het is een stuk veiliger dan raid5 hier omdat er meer arrays van zijn. Ook is verlies capaciteit bij 6 disc systeem is maar 1,5TB , krijg ik dit ervoor terug: geen extreme rebuild nodig en ong. 10W minder is toch op jaarbasis 20€ zuiniger.
Met 1 loss TB disk trek je Gigabit al dicht.
geen idee wat je hiermee bedoelt ;) bedoel je dat je extra read prestaties die RAID1 levert niet merkbaar zijn.
Raid 5 is bij 3 disk of meer gewoon een betere oplossing want stel je hebt 2x RAID 1 (4disks totaal) dan is de kans dat er 2 disk uitvallen al vrij klein maar als ze uitvallen is de kans ook vrij groot dat ze uit dezelfde array komen. Alleen bij de 1e optie heb je 3 data schijven en 1 pariteit dus 4.5TB aan ruimte voor je data. En bij de laatste optie maar 3TB aan data ruimte
Hoe t werkt met t uitvallen en capaciteit heb ik van de RAID wiki en dit forum wel kunnen leren, toch bedankt ^^*.
maarrr:
De kans bij RAID5 dat een 2e schijf in een array uitvalt is toch vergelijkbaar met de kans dat een 2e schijf in mn RAID1 array uitvalt, misschien zelfs groter. Dus je argument voor het kiezen voor RAID5 terwille van data veiligheid is niet sterk. Wat je ook niet opmerkt is bij het heel ongelukkig uitvallen van 2 discs in 1 array, ben ik bij RAID1 1,5TB kwijt, bij RAID5...worst case 4,5TB.... dan pink ik wel meer dan een traantje weg.


Ik heb veel gepiekerd over de mogelijkheden ook al heb ik pas 2 weken geleden RAID ontdekt. Eerst was ik ook van RAID5 FTW!!, maar RAID1 maakt het leven ook wel makkelijker tegen een kost van capaciteit. Ik krijg het gevoel dat jullie response soort van automatisch is geworden en dat er niet kritisch over is gedacht mbt tot mn situatie. Begrijp me niet verkeerd natuurlijk vind ik RAID5 of RAID6 met veel schijven vaak de beste keus net als jullie, want t is logisch. Maar 6 of 8 drives is toch een beetje grensgeval, mede door de redelijke prijsverhouding. Want hier spelen, nu na afstrepen van de spinup probleem dankzij Q (nogmaals bedankt), 3 factoren bij RAID1 een rol:
-stroom besparing (20€ per jaar is toch redelijk)
- korte rebuild tijd (zeker na de post van dadona)
-minder verlies bij array loss

De vraag was of het verlies van wat mogelijke capaciteit het waard is voor zowel de 6 drive case als de 8 drive casus.
Laten we beide gevallen beschouwen^^

Kanttekening:
Ik koop schijven per arrays dus, per periode een array. Zodra mn 2e array binnen is zal ik de schijven switchen in de arrays om zo wellicht het probleem van dadona te minimaliseren.
Trouwens die 10,5TB klopt niet, want ik wou, als ik RAID5 nam, verdelen over 2 arrays van 4,5TB each om zo toch nog een beetje te kunnen slapen 's avonds :P
RAID6 lijkt op mn 2x raid5 van 9TB, minder zuinig, wel iets robuuster, maar speelt hier een staggerd spinup toch een grotere rol bij met mn voeding?

"Between the weak and the strong one it is the freedom which oppresses and the law that liberates" [Jean Jacques Rousseau]


  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Vooropgesteld, ik heb het over een situatie waarin één enkele RAID1 array geen optie meer is, omdat je meer dan 2TB aan ruimte nodig hebt, of een bepaalde grootte schijf nog niet wil hebben.
Allemaal losse RAID1 arrays (dus maar twee schijven) is veiliger dan RAID5. Bij RAID5 ben je de per definitie de klos bij uitval van twee schijven. Bij RAID1 heb je inderdaad kans dat het een schijf uit de andere array betreft. Maar nogmaals, de versterkende factor van het kans bij RAID5 is de maximale activiteit bij een rebuild. Een rebuild bij RAID1 is veel simpeler, gewoon een kopieer actie. Dat duurt minder lang en de controller heeft het minder zwaar. En inderdaad het risico is ook hoger bij RAID5. Als het fout gaat dan ben je bij RAID5 in principe alles kwijt, bij RAID1 niet.
Tot zover het grote voordeel van RAID1. Want stroombesparing zul je niet behalen bij RAID1 en naar mate de array groter wordt ga je het verschil op de Watt meter merken. Je zou hooguit kunnen beargumenteren dat je bij een hele actieve NAS bij RAID5 altijd alle schijven actief blijft houden, terwijl je bij RAID1 maar een array belast. Het gevolg is dat er bij RAID1 een groot deel idle kan blijven. Of dit zo is hangt van de schijf in kwestie af en hoe de nas wordt ingezet. Ikzelf heb er voor gekozen om zaken als email, ftp, .. kortom het spul dat gedurende de hele dag actief blijft op een aparte schijf neer te zetten. 's Avonds spint de array op en maakt dan een backup van die schijf. Op die manier ben ik ervan verzekerd dat RAID5 zuiniger is dan RAID1. Een ander voordeel (dat imo te weinig naar voren komt) is dat je bij RAID5 één schijf krijgt. Je kunt dan veel efficienter omgaan met de ruimte. (Hoe vaak had ik wel niet dat partitie 1 wat ruimte over had, partitie 2 wat ruimte over had en dat de som voldoende was om een map te plaatsen, maar ik dat nu niet in één keer kon doen....grr..) Een andere (imo) belangrijke opmerking/vraag is de volgende: hoe lang is het geleden dat je een harde schijf had die is uitgevallen? Ik heb er nu ééntje in al die jaren waarvan ik vermoed dat die binnen nu en een jaar omvalt. Een andere schijf was een DOA.
En tot slot een opmerking die je bij zo ongeveer ieder bericht zou moeten zien: RAID heeft als doel om schijfuitval op te vangen, niet een backup. Als een schijf zou uitvallen dan ga ik, voordat ik er een nieuwe harde schijf inhang, eerst de (manueel) backup starten. Daarna pas start ik het rebuild proces!

De CSL/OT kroeg !


  • jayvol09
  • Registratie: Augustus 2009
  • Laatst online: 02-09-2020
We tweaken door tot in de late uurtjes ^^
merci voor het overzicht, teveel RAID en je verliest t grote plaatje uit t oog :)
Ik gooi die krengen er los in, er komt vooral films en muziek op, en evt. later een tweede systeem die dat systeem zal backuppen^^
Belangrijk fotos en bestanden passen voorlopig nog wel op mn 500GB extern hdd.

"Between the weak and the strong one it is the freedom which oppresses and the law that liberates" [Jean Jacques Rousseau]


  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
@jayvol9
Een hdd trekt 25watt @ spinup en zakt terug naar 5watt 5400rpm schijf of 6.7 watt 7200rpm schijf.
In standby gaat dat verbruik omlaag ;)
Maar de grote vraag is of je controller wel stagered spin-up ondersteund ? Want dan is je 120w pico psu zeker niet voldoende ;) tevens is de vraag hoeveel A hij levert op de 12v lijn :?
Persoonlijk zou ik voor een 80PLUS Bronze voeding gaan met 1 12V rail welke voldoende A levert voor toekomst plannen. Voordeel van deze PSU's is dat deze over de gehele belasting lijn ( 1% tm 100% minimaal 80% rendement moet hebben) of was het 82% ?

Daarnaast misschien nog een oplossing om van je losse RAID 1 disk of te komen... Deze RAID 1 arrays weer samenvoegen dmv JBOD :) Alleen weet je dan zelf niet op welke disk welke data wordt opgeslagen...

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


  • jayvol09
  • Registratie: Augustus 2009
  • Laatst online: 02-09-2020
volgens mij was die certi voor benchmarks efficiente op bepaalde percentages loads, 1% zat daar denk ik niet bij :( . En idd kijk ik eerder naar de 12V lijn dan het totale vermogen bij een voeding. Bij de zuinige server topic is staggered spinup aan bod gekomen een beetje, aparte controller nodig zeggen sommige.

"Between the weak and the strong one it is the freedom which oppresses and the law that liberates" [Jean Jacques Rousseau]


  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Hier een overzichtje (muis over logo doen).
Bij de 230volt intern zijn de eisen niet ietsjes lichter bij Bronze.
Maar bij 20% load 81% efficiëntie
50% load 85% efficiëntie
100% load 81% efficiëntie

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
jayvol09 schreef op donderdag 17 september 2009 @ 00:48:
[...]
Je bedoelt dus dat de vertraging niet merkbaar is met zo weinig schijven vanuit standby neem ik aan. Wil wellicht een 120W pico.
Pico = nogo met meer ddan 2 schijven denk ik. Koop gewoon een 'gewone' zuinige voeding.

[quote]

je bedoelt RAID1 kost meer :) het is een stuk veiliger dan raid5 hier omdat er meer arrays van zijn. Ook is verlies capaciteit bij 6 disc systeem is maar 1,5TB , krijg ik dit ervoor terug: geen extreme rebuild nodig en ong. 10W minder is toch op jaarbasis 20€ zuiniger.
geen idee wat je hiermee bedoelt ;) bedoel je dat je extra read prestaties die RAID1 levert niet merkbaar zijn.
Dan heb je thuis geen gigabit netwerk liggen en dan boeit performance van je NAS helemaal niet.
Hoe t werkt met t uitvallen en capaciteit heb ik van de RAID wiki en dit forum wel kunnen leren, toch bedankt ^^*.
maarrr:
De kans bij RAID5 dat een 2e schijf in een array uitvalt is toch vergelijkbaar met de kans dat een 2e schijf in mn RAID1 array uitvalt, misschien zelfs groter.
Die kans is niet groter of kleiner.
Ik heb veel gepiekerd over de mogelijkheden ook al heb ik pas 2 weken geleden RAID ontdekt. Eerst was ik ook van RAID5 FTW!!, maar RAID1 maakt het leven ook wel makkelijker tegen een kost van capaciteit. Ik krijg het gevoel dat jullie response soort van automatisch is geworden en dat er niet kritisch over is gedacht mbt tot mn situatie.
Je moet je afvragen in hoeverre jou situatie anders is dan anderen. Dat snap ik niet zo.

Als je de kosten wilt betalen van RAID 1 dan kun je beter meteen de kosten van RAID 6 betalen (4 disk minimum) en dan je array gewoon laten groeien, hou je meer capaciteit over en het is veiliger dan RAID 1 omdat twee willekeurige disks kunnen uitvallen.

Anders moet je met RAID 1 ook allemaal losse arrays gaan maken en je data over de arrays verdelen: beheersnachtmerrie. Als performance inderdaad niet boeit kun je dat weer oplossen met LVM.

[ Voor 13% gewijzigd door Q op 18-09-2009 00:15 ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
Dadona schreef op woensdag 16 september 2009 @ 21:46:
Leuk? Noodzakelijk kwaad eerder. Rebuilden van 4x 1TB in RAID5 kost hier al rond de 50 uur.
Hoe kan dat nou? Dat duurt wel erg lang?

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Bij een rebuild speelt de snelheid van de schijven wel een rol (in tegenstelling tot in netwerksituaties omdat gigabit lan langzamer is dan menig degelijke raid opstelling). Nu heb ik vier Western Digital Green Points en die schijven zijn veel langzamer dan jouw Spinpoints. Daarnaast helpt het (neem ik aan) niet mee dat de cache methode op Write Through staat/stond. (Met het oog op een eventuele stroomstoring is dat een wat veiligere methode bij afwezigheid van een UPS of een backupbatterij.)

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • psy
  • Registratie: Oktober 1999
  • Laatst online: 13-08 13:05

psy

Ter leering ende vermaeck.
Heb laatst mijn 4 x 1 WD10EACS uitgebreid met 1 extra schijf, de OCE kostte me 42 uur met mijn Highpoint 2320. Ik gebruik de kaart dus wel als RAID5 kaart onder Windows 2003.

8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Heb je de cache method op Write Through of Write Back staan?

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • psy
  • Registratie: Oktober 1999
  • Laatst online: 13-08 13:05

psy

Write back

8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)


Acties:
  • 0 Henk 'm!

  • jeroentb
  • Registratie: Juni 2003
  • Laatst online: 10-01 07:59
Even globaal gekeken door de laatste posts, valt me op dat er nog wel eens gekeken wordt naar een combinatie van HTPC en NAS in een, dat lijkt me geen goed idee en wel om de volgende redenen:
-Een NAS kan het best op een *nix variant lopen ivm snelheid, een lichte processor als een Sempron LE1200 kan een gigabit netwerk al vol stouwen met een RAID5 setje, dus kan een energie zuinig systeem gerealiseerd worden.
-Een HTPC kan het best op een windows variant lopen ivm de goede multimediale eigenschappen van het systeem en de beschikbaarheid van vele CODEC's, een HTPC wil je ook zo stil mogelijk houden omdat je er meestal vlakbij zit, opnemen naar een NAS en gelijktijdig streamen gaat prima dus lokale opslag kan beperkt blijven.

Ik kom met mijn nasje (sempron LE1200 + 3 schijven 7200RPM) op een idle verbruik van 60W, en dat bij een read performance van 150MB/s (zat voor gigabit) en write 50 MB/s.

Acties:
  • 0 Henk 'm!

  • lowfi
  • Registratie: Januari 2004
  • Laatst online: 11-09 17:17
2e punt kan ik me toch niet helemaal in vinden. Of je moet programmas opnemen belangrijk vinden.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Het grote probleem van combineren van HTPC en NAS komt door twee dingen:
-In een HTPC zit de nodige mensen een tuner die 5 tot 10 Watt pakt
-Een HTPC heeft (bij HDTV) een zwaardere chipset / losse gpu nodig, kost min. 5 Watt, meestal 10-15 Watt
Bij een dedicated HTPC is dat geen punt, de HTPC gaat meestal aan als er iets moet worden opgenomen, of er daadwerkelijk media wordt bekeken. Dus in ieder geval zal één van de twee componenten niet voor niets aanstaan. Bij een NAS, zeker als het een 24/7 is, zijn die zaken overbodig.

Dit staat los van operating system discussies. Dat is mijns inziens niet de motivatie om de zaken te combineren.
Je kunt er namelijk ook voor kiezen om Windows te draaien als host en daar virtueel Linux op te draaien die de toegang krijgt tot de harde schijven. Daarnaast is lang niet iedereen op zoek naar maximale prestaties, of wil niet iedereen aan RAID5, of willen sommigen een dedicated raid controller, of.. In dat soort gevallen kun je prima een standaard Windows als server omgeving inzetten. (Om nog maar te zwijgen over Windows Home Server dat ook door storage en performance addicts in de armen is gesloten.)
Maar ook de twee opmerking hoeft niet op te gaan, onder Linux heb je genoeg mediacenter initiatieven, zoals MythTV (dat het centrale onderdeel van Mythbuntu is).

[ Voor 6% gewijzigd door Dadona op 18-09-2009 10:14 ]

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • jeroentb
  • Registratie: Juni 2003
  • Laatst online: 10-01 07:59
Dadona schreef op vrijdag 18 september 2009 @ 10:13:
Je kunt er namelijk ook voor kiezen om Windows te draaien als host en daar virtueel Linux op te draaien die de toegang krijgt tot de harde schijven. Daarnaast is lang niet iedereen op zoek naar maximale prestaties, of wil niet iedereen aan RAID5, of willen sommigen een dedicated raid controller, of.. In dat soort gevallen kun je prima een standaard Windows als server omgeving inzetten. (Om nog maar te zwijgen over Windows Home Server dat ook door storage en performance addicts in de armen is gesloten.)
Maar ook de twee opmerking hoeft niet op te gaan, onder Linux heb je genoeg mediacenter initiatieven, zoals MythTV (dat het centrale onderdeel van Mythbuntu is).
Windows als NAS ? Kuch ;) Zou ik in iig niet eens overwegen, maar voor mensen die geen *nix varianten kennen wellicht het eenvoudigst.
2e opmerking slaat op het feit dat een leek MythTV echt niet aan de praat zal krijgen danwel tegen problemen aan gaat lopen zodra hij/zij ergens tegen aanloopt, ik weet dat er alternatieven zijn, edoch onder windows zal het allemaal net even wat makkelijker werken.

Even offtopic mbt deze tekst, maar wellicht leuk voor de bezitters van een PS3 of een DLNA compatible TV, je kunt op je NAS eens spelen met:
http://code.google.com/p/ps3mediaserver/
Werkt alleen onder linux, windows of macosx.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
jeroentb schreef op vrijdag 18 september 2009 @ 13:05:
[...]

Windows als NAS ? Kuch ;) Zou ik in iig niet eens overwegen, maar voor mensen die geen *nix varianten kennen wellicht het eenvoudigst.
2e opmerking slaat op het feit dat een leek MythTV echt niet aan de praat zal krijgen danwel tegen problemen aan gaat lopen zodra hij/zij ergens tegen aanloopt, ik weet dat er alternatieven zijn, edoch onder windows zal het allemaal net even wat makkelijker werken.
Mijn punt was alleen maar om aan te geven dat je niet per se voor iets hoeft te gaan. Het hangt er vanaf waar je bekend mee bent en of je er tijd in wil steken om onbekende zaken te leren. Want 'alleen' als je voor een nas naar FreeNAS of iets dergelijks grijpt heb je een redelijke kans dat je niet tegen problemen aanloopt. (Of het gebeurd hangt ervanf of je een beetje standaard nics enz hebt.) In beide kampen heb je een goede oplossingen voor hetzelfde doel. Windows Home Server of Windows Server en Windows XP/Vista/7 met MCE of Mediaportal aan de ene kant, FreeNAS of bv Debian en Mythbuntu aan de andere kant.
Het belangrijkste is en blijft hoe je de apparatuur inzet. Staat het 24/7 aan dan is opsplitsen waarschijnlijk het beste. Benaderd de uptime het gebruiksduur van de HTPC dan is integratie een optie.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
Persoonlijk ben ik van mening dat het hele idee van systemen thuis 24/7 aan laten staan onzin is. Bij mij staat alles uit behalve mijn router. Ik heb een zuinig systeempje voor de downloads: een Mac mini. Even over die Mac mini: 30 watt idle, daar kan bijna niets qua zelfbouw tegenop. Maar ook die gaat uit als hij niet gebruikt wordt. Neem van mij aan dat hij vaker uit dan aan staat.

Ik zie de noodzaak niet om systemen 24/7 aan te laten staan. Als je een systeem nodig hebt gebruik je WOL (Wake On Lan) om een systeem op te starten en met twee à drie minuten is de boel up and running. Dan is het ook geen punt als een systeem niet zo zuinig is, omdat er bijv 4+ disks in zitten of een opname kaart. Na gebruik gaat hij weer uit, zoals op het moment als je gaat slapen.

Het zou mij niet verbazen als die NAS in mijn signature (220 watt idle) op jaarbasis minder verbruikt dan menig 'energie-zuinig' systeempje dat max 50/60 watt pakt maar wel 24/7 aan staat. Alleen maar omdat hij gewoon uit staat. Zuiniger kun je het niet hebben.

Weg met 24/7. Zet de boel uit en maak je niet te druk over een watt meer of minder.

[ Voor 8% gewijzigd door Q op 18-09-2009 21:52 ]


Acties:
  • 0 Henk 'm!

  • kalizec
  • Registratie: September 2000
  • Laatst online: 17-07 01:45
Voor een thuis NAS kan ik het me inderdaad voorstellen. Maar alleen als dezelfde machine niet ook nog andere taken uit te voeren heeft. Zeg een of meerdere van de onderstaande:

- Webdevelopment (Apache, MySQL, PHP, Subversion)
- SIP (VoIP)
- Router (Gateway, Firewall, etc)
- VPN-endpoint
- Mail (Smtp, etc)
- DNS (BIND, etc)

Core i5-3570K/ASRock Z75 Pro3/Gigabyte Radeon HD7850/Corsair XMS3 2x4GB/OCZ Vertex2 64GB/3x640GB WD Black/24" B2403WS Iiyama x2/Nec 7200S


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
^^ jij hebt het daar gewoon over een full featured server. Dus een server die ook externe opslag bied wat een vrij normale taak is van een server ;)
Valt nog mee dat je geen back-up management software heb mee genomen en natuurlijk een image server zodat je je OS images snel uit het netwerk kunt plukken wanneer je een reinstall wenst.
Want bij zo'n server heb je automatisch meer RAM nodig en daarnaast een snellere CPU.

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
kalizec schreef op vrijdag 18 september 2009 @ 21:53:
Voor een thuis NAS kan ik het me inderdaad voorstellen. Maar alleen als dezelfde machine niet ook nog andere taken uit te voeren heeft. Zeg een of meerdere van de onderstaande:

- Webdevelopment (Apache, MySQL, PHP, Subversion)
- SIP (VoIP)
- Router (Gateway, Firewall, etc)
- VPN-endpoint
- Mail (Smtp, etc)
- DNS (BIND, etc)
Zoals ik al schreef laat ik ook 1 systeem altijd aan staan: mijn router (PC). Dingen uitzetten betekent dus dat je apparatuur moet gaan scheiden. Een NAS wordt dus in dit geval een apart systeem. Kost iets meer, maar wat een NAS betreft ben ik van mening dat het ding hooguit nog eens een downloadje moet doen, maar verder moet je daar van af blijven en geen fancy dingen mee doen, dan heb je ook weinig kans op dataverlies.

[ Voor 36% gewijzigd door Q op 18-09-2009 22:25 ]


Acties:
  • 0 Henk 'm!

  • Dutchman01
  • Registratie: Mei 2006
  • Laatst online: 10-03-2023
FF ter info voor iedereen, het slechte nieuws:

FreeNAS 0.7 final zal spoedig het daglicht gaan zien De laatste nightly build, 4899 64-bit en 4898 32-bit
zal 1 van de laatste Nightly Builds zijn.

Volker the ontwikkelaar van Freenas zal dan stoppen met FreeNAS.

FreeNAS 0.7 is de laatste freenas.


Het goede Nieuws:

coreNAS wordt de opvolger van FreeNAS.

Volker is op dit moment bezig dit van de grond af aan opnieuw op te bouwen en dit NAS OS zal niet langer zoals FreeNAS als basis FreeBSD als besturingssysteem hebben.

coreNAS wordt gebouwd op Debian Linux.


Reden van deze grote verandering is ook simpel uit te leggen.

Toen FreeNAS eerste versie gebouwd werdt hield men geen rekening met alle opties die aan boord kwamen van de meest recente versie.
De FreeNAS source is daardoor erg moeilijk te onderhouden en voor veel functies zijn veel te lange scripts geschreven om diverse functie's te laten werken.
Daarnaast is de overgang van freebsd 6 naar 7.2 ook niet vlekkeloos verlopen, waardoor veel scripts weer aangepast moesten worden om het te laten werken.

De fature reqest op freenas is groot maar er kan nouwelijks meer iets bij gebouwd worden zonder dat er iets anders in freenas defect raakt en weer met omwegen en te lange scripts gepatcht moet worden.

coreNAS moet dit probleem gaan verhelpen daar alles van de grond af aan opgebouwd wordt op dit moment.
De webgui van freenas onder andere loopt als standaard root wat natuurlijk ook niet erg fijn is uit het oogpunt van veiligheid.

Onder coreNAS debian zal de webgui dan ook niet meer als root draaien en de beveiliging van de NAS staat dan ook hoog in het vaandel.
Alle bestaande functies en services zullen ook in coreNAS komen en meer opties zullen ook op het menu komen te staan.

1 van de fijne veranderingen zal de service UPnP zijn,
geen fuppes meer maar coherence zal geintregeerd worden waardoor er een stuk minder problemen met UPnP zal zijn.
zie weblink voor meer info:
http://coherence.beebits.net/#WelcometoCoherence


De eerste beta release build, helaas nog niet met alle opties aanboord kunnen wij binnen 1 a 2 maanden gaan verwachten.

Meer info zal spoedig volgen,

https://sourceforge.net/projects/corenas


mvg,
Dutchman01

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
Ik denk dat voor de liefhebbers van FreeNAS dit eigenlijk (heel) goed nieuws is. Het betekent dat op de langere termijn een product gerealiseerd kan worden dat, gezien de toelichting, nu niet mogelijk is.

Het enige nadeel is dat op korte termijn geen extra functionaliteit verwacht hoeft te worden.

Acties:
  • 0 Henk 'm!

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Inderdaad Q, dat lijkt me ook.

Ik denk dat ze door de overstap naar linux ook een groei zien in de input van de community, volgens mij is de bsd community toch wat minder actief als de linux community.
Misschien is het dan eindelijk mogelijk om een goede dc++ client te draaien op je nas, mldonkey werd ik namelijk niet vrolijk van :P .

Acties:
  • 0 Henk 'm!

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 17:58
Ow, dat klinkt heel erg goed. Ook omdat vaak de snelheid van FreeNAS tegenviel tov een Linux distro. Helaas dus geen ZFS meer, hopelijk wordt Btrfs snel bruikbaar. Heb trouwens laatst ook een beetje zitten spelen met TurnKey Linux, ook gebaseerd op Debian/Ubuntu. Leuk concept, erg minimaal dus bv handig voor op een USB stick. Momenteel nog geen aparte fileserver Appliance maar samba en webmin-samba zijn zo geinstalleerd natuurlijk.

Acties:
  • 0 Henk 'm!

  • joob77
  • Registratie: Februari 2008
  • Laatst online: 03-08 15:46
kweenie of ik midden door een discussie struin... maaruh ik zit met het volgende:

Ik ben op zoek naar een mogelijkheid om voor m'n nog te bouwen NAS 4 HHD's in 1 enclosure te bouwen. Die enclosure wil ik dan met eSATA aansluiten op een itx bordje. Dit wil ik draaien met FreeNas. Maar zijn die HDD enclosures er uberhaupt? Het enige wat ik tegengekomen ben is de website Satagear.com. Maar die leveren niet buiten de USA. :'( Weet iemand of eSATA disk enclosures voor 4 HDD's in NL te koop zijn?

Bordjes zijn het probleem niet. FreeNas met Geom_raid5 moet ook wel lukken. Ik zit dus alleen nog met m'n kastje om de schijven in te bouwen...

Heeft iemand een idee? 8)7

Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Is Esata een harde eis of heb je geen andere mogelijkheid omdat je niet voldoende sata poorten hebt op een ITX bord?
Overige optie zou misschien kunnen zijn dat je een ITX bord zoek met een Esata multiplier ( weet de term ff niet uit me hoofd ) zodat meerdere behuizingen op 1 poort kunt aansluiten.

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • remmelt
  • Registratie: Januari 2001
  • Laatst online: 09-04 12:25
Is eSata niet langzamer dan normale, interne sata? Ik meen dat ergens opgepikt te hebben. Of maakt de snelheid je niet uit?

Acties:
  • 0 Henk 'm!

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 17:58
joob77 schreef op maandag 21 september 2009 @ 22:32:
kweenie of ik midden door een discussie struin... maaruh ik zit met het volgende:

Ik ben op zoek naar een mogelijkheid om voor m'n nog te bouwen NAS 4 HHD's in 1 enclosure te bouwen. Die enclosure wil ik dan met eSATA aansluiten op een itx bordje. Dit wil ik draaien met FreeNas. Maar zijn die HDD enclosures er uberhaupt? Het enige wat ik tegengekomen ben is de website Satagear.com. Maar die leveren niet buiten de USA. :'( Weet iemand of eSATA disk enclosures voor 4 HDD's in NL te koop zijn?

Bordjes zijn het probleem niet. FreeNas met Geom_raid5 moet ook wel lukken. Ik zit dus alleen nog met m'n kastje om de schijven in te bouwen...

Heeft iemand een idee? 8)7
Als je vier schijven via één s-ata kabel wilt aansluiten heb je vziw twee opties, enclosures met een port multiplier, waarbij de controller op 't mb dit ook moet ondersteunen, of enclosures met ingebouwde raid controller, in dat geval kun je er echter geen softraid op draaien.

/edit: Je hebt het niet over één kabel s-ata, dus indien per hd één kabel geen probleem is zijn er zat 'domme' hd enclosures voor vier schijven te vinden. Een aantal is bedoeld om in drie 5.25" bays in een kast gebouwd te worden, een aantal zijn ook echt voor extern bedoeld. Als ik bv kijk bij Azerty hebben ze wel wat staan. Licht dus nog even toe hoe je het precies in gedachten had :)

[ Voor 17% gewijzigd door Nielson op 22-09-2009 09:28 ]


Acties:
  • 0 Henk 'm!

  • Dutchman01
  • Registratie: Mei 2006
  • Laatst online: 10-03-2023
Hier onder the statement from Volker over het hoe en waarom:

Het is wel in het engels maar daar is niets aan te doen.

by votdev » Mon Sep 21, 2009 8:14 am

Hello,
seems i have to say something about the current situation.

Since long time many users want to see more and more features in FreeNAS. But this is not possible as it is designed at the moment. The intention of FreeNAS was to be smart and simple. Because the roots of FreeNAS is m0n0 the complete design is to be compact. But for a NAS and all it's features we come to a situation that the complete core of FreeNAs is not able to meet that requirements anymore. It is really a pain to add new features and i'm not willing anymore to deny every request. It is hard to tell someone that it is not possible to add these or those features because of technical reasons if you do not have an overview of how FreeNAS works internally.

Some months ago i started to upgrade FreeNAS to FBSD8.0. I also thought about how to remove all these limitations of the previous versions to make it more enhanceable. The more i thought about it the more i came to the conclusion that it will be necessary to reimplement everything to get rid of these limitations.
The first is there will be no difference between 'embedded' and 'full' anymore. This is one of the reason why FreeNAS is so complex. Every script needs to ensure that the requirements are fullfilled to run without problems. Also the complete build scripts need to reimplemented because i do not want to go the same way as in the current versions. Right at the moment only the required files (binaries and libs) are copied. This is another reason why the maintenance and implementation of new features is hard to do.
To make it short, i was not willing to reinvent the wheel to get a simple build environment. TinyBSD and all the other build envs for FreeBSD does not meet the requirements needed.
Debian LiveHelper was to solution i was searching for. Also the complete Debian infrastructure seems to reduce the work to get a new FreeNAS to a minimum. The FreeBSD ports system is great, but i do not want to waste my time by fixing build problems, i only want to install and use software. Implemenmting the services and WebGUI is time consuming enough.
My decision to use Linux for the next version was because there are too much bugs in the core FreeBSD system. Simply have a look into the bug tracker. FreeNAS does not run on many systems, mainly new hardware makes trouble. The main reason is the driver problem with FreeBSD which seems to be no problem with Linux because there are great companies in the back that support it. Also the Linux developer community is much greater than the FBSD one.
Finally i have to say that the decision was not easy, but if you have to reimplement something from the beginning (and THIS IS NECESSARY to get rid of all the limitations), then you also use the latest technology that is available at the moment. And at the moment this is Debian/Linux (better driver support/maintenance/package system/docs/FUTURE-PROOF). The only limitation is the missing of ZFS, but i think there will be some equal filesystem available in Linux soon.

The main aim of the next generation is to make it as much as possible enhanceable. This does not mean that FreeNAS will include anything out-of-the-box (i plan to reimplement all the services that are available right at the moment), but it can be enhanced easily by the user via interfaces and scripts that can be copied to the system.

I know that there will be some users that will not be happy about that, but does it make sense to have a cool system that does not run on new hardware?

Regards
Volker

A short list of pros:
- Text and grahical installer that can be customized. This means no hand written install scripts anymore which causes some problems in FreeNAS
- WOL works in Linux
- lmsensor - A WORKING sensor framework which is a really needed feature in FreeNAS to check the CPU/MB temps and fan speeds
- Better Samba performance
- Ability to implement HA features
- System can be updated via 'apt-get' or any other deb package manager
- Better driver support
- Maybe 'ZFS' over FUSE (there is already one commercial product available that uses this feature)
- NFS4
- ...

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
-never mind-

[ Voor 95% gewijzigd door Dadona op 22-09-2009 13:20 . Reden: Had nog niet de laatste pagina bekeken... ]

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
Verhelderende text van Volkert. Dus over een tijdje zet je een Debian-based nas op door middel van een kale OS-installatie van minder dan 5 minuten plus 'apt-get install corenas'.

Klinkt goed!

  • RedHead
  • Registratie: Februari 2001
  • Laatst online: 02-09 23:59
joob77 schreef op maandag 21 september 2009 @ 22:32:
kweenie of ik midden door een discussie struin... maaruh ik zit met het volgende:

Ik ben op zoek naar een mogelijkheid om voor m'n nog te bouwen NAS 4 HHD's in 1 enclosure te bouwen. Die enclosure wil ik dan met eSATA aansluiten op een itx bordje. Dit wil ik draaien met FreeNas. Maar zijn die HDD enclosures er uberhaupt? Het enige wat ik tegengekomen ben is de website Satagear.com. Maar die leveren niet buiten de USA. :'( Weet iemand of eSATA disk enclosures voor 4 HDD's in NL te koop zijn?

Bordjes zijn het probleem niet. FreeNas met Geom_raid5 moet ook wel lukken. Ik zit dus alleen nog met m'n kastje om de schijven in te bouwen...

Heeft iemand een idee? 8)7
Staat hier iets tussen voor je?
http://www.webconnexxion.com/raid/index.php

  • joob77
  • Registratie: Februari 2008
  • Laatst online: 03-08 15:46
Staat hier iets tussen voor je?
http://www.webconnexxion.com/raid/index.php
Dit is wat ik bedoel!! Thanx Redhead;-)
Je hebt het niet over één kabel s-ata, dus indien per hd één kabel geen probleem is zijn er zat 'domme' hd enclosures voor vier schijven te vinden. Een aantal is bedoeld om in drie 5.25" bays in een kast gebouwd te worden, een aantal zijn ook echt voor extern bedoeld.
Ik ga voor een port multiplier. Ik moet alleen nog achterhalen of dit ondersteund wordt door FreeNas (laatste stable versie) en wat ik nodig heb voor een port multiplier. Ik neem aan een controller kaartje??!

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 09-09 15:49
Leuk om te horen dat freenas de volgende stap neemt. De reden waarom ik indertijd naar ubuntu server ben gegaan komt voort uit een aantal van zijn punten.

Zijn er trouwens mensen die weten in hoeverre een voeding invloed heeft op WOL? Mijn mobo (M2A-VM) support WOL, alles staat aan in de bios en is geconfigged in het OS, maar hij wil maar niet starten. Ik vermoed dat de voeding gewoon de power helemaal afsnijdt.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Brand/knippert de led op de lanpoort wel?

De CSL/OT kroeg !


  • Mr_Light
  • Registratie: Maart 2006
  • Niet online

Mr_Light

Zo-i-Zo de gekste.

Q schreef op vrijdag 18 september 2009 @ 21:35:
Persoonlijk ben ik van mening dat het hele idee van systemen thuis 24/7 aan laten staan onzin is.
Persoonlijk ben ik van mening dat het hele idee van systemen 'uit' zetten onzin is. Na het beschikbaar zijn S3 state en de inmiddels wijde ondersteuning er van, is het doorlopen van boot up/down onnodig voor systemen die veel gebruikt worden en die hun stroom direct uit de ups/muur trekken.

Voor mensen onbekend met s3: http://www.yafla.com/denn...3-standby-dumppo-exe.html
Wikipedia: Advanced Configuration and Power Interface
Q schreef op vrijdag 18 september 2009 @ 21:35:
Ik zie de noodzaak niet om systemen 24/7 aan te laten staan. Als je een systeem nodig hebt gebruik je WOL (Wake On Lan) om een systeem op te starten en met twee à drie minuten is de boel up and running.
Voor dat jouw systeem is opgestart zit die van mij waarschijnlijk al weer in deep sleep. Daarnaast omdat het relatief cheap is om van S1 naar S3 te gaan en terug (in tegenstelling tot S1 naar S5/G2 en terug) Kan je ipv magic packet gewoon direct packet gebruiken.(wat ondersteund is gezien je een intel kaart er in hebt.) Scheelt weer handelingen voor jouw en maakt het bruikbaar voor de niet-tweakers thuis.
Q schreef op vrijdag 18 september 2009 @ 21:35:
Het zou mij niet verbazen als die NAS in mijn signature (220 watt idle) op jaarbasis minder verbruikt dan menig 'energie-zuinig' systeempje dat max 50/60 watt pakt maar wel 24/7 aan staat. Alleen maar omdat hij gewoon uit staat. Zuiniger kun je het niet hebben.
Probeer eens G3 ;) 220 idle is wel erg veel, zijn die schijven zo power hungry of is dat de inefficiëntie van de power supply(extra headroom voor spin-up)? Onze server met zwaardere hardware, maar met (maar) 5 schijven heeft idle 120 watt minder nodig.

IceManX schreef: sowieso


  • BlackWhizz
  • Registratie: September 2004
  • Laatst online: 08-12-2024
remmelt schreef op dinsdag 22 september 2009 @ 00:28:
Is eSata niet langzamer dan normale, interne sata? Ik meen dat ergens opgepikt te hebben. Of maakt de snelheid je niet uit?
Onzin. Esata gebruikt alleen een andere kabel (omdat de sata connectors anders zijn). Esata wordt juist aangeprezen om z'n snelheid.

  • Repi3
  • Registratie: Januari 2009
  • Niet online
Heb zo goed als het complete topic doorlezen, al veel bij geleerd, leuke tips, kortom leerrijk.
In het begin van de topic werden ook veel configs voorgesteld.
Maar de laatste maand, zijn er nog maar weinig configs geplaatst, natuurlijk, er is voldoende om een mooie config te maken. (deze heb ik hieronder ook gemaakt config 1)

Maar nu met de nieuwe atom bordjes, ik vraag me af of dit nu een leuk alternatief wordt.
Jammer dat er nog maar weinig bordjes zijn, die +2 Sata aansluitingen hebben.
Maar point of view heeft dit samen met hun ION chipset !! (config 2)

Ik wil gewoon een fileserver'tje die ik ook graag zou voorzien van een (test)webserver.
Om een beeld te maken van wat ik wil :

backups van PC's op te slaan.
data storage (films / series / muziek)
downloadbak (sabnzbd)
stream media

Wat heb ik in gedachten:

config 1:

1 AMD Athlon 64 LE-1660 € 32
1 Be Quiet Pure Power 350W - ATX12V 2.2 € 37
1 Gigabyte GA-MA74GM-S2H € 49
1 Kingston ValueRAM KVR800D2N6K2/2G € 24

Totaal € 142

config 2:

1 Point of View Nvidia Ion Mainboard POV/ION330 €125
1 Be Quiet Pure Power 350W - ATX12V 2.2 €37
1 Kingston ValueRAM 2GB €32

Totaal € 194

Kast en schijven heb ik al.

Voorkeur gaat uit naar dat laatste, heb 4 sata aansluitingen op het bord en nog een PCI-e slot over, dus nog uitbreidbaar.
De ION chipset is leuk, maar mss niet 100% nodig voor mij toepassing.

enige advies ?

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 09-09 15:49
Zelfs met de 300W versie van Be Quiet zal je wel toekomen, maar ik zie net dat het prijsverschil quasi nihil is.

De ION zal minder verbruiken door die atom chip, maar je hebt wat minder bewegingsruimte dan de eerste setup die op een volledig platform steunt. De keuze ligt bij jou :).

Dadona: de led knippert/brandt niet op de LAN poort. Ik weet alleen niet of dit aan de PSU ligt of aan iets anders.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Aan het ION deel heb je helemaal niets. Het werkt goed voor videos die zich precies aan de h.264 specificatie houden, maar voor streaming zal het naar alle waarschijnlijkheid niet helpen en de andere zaken hebben al helemaal geen voordeel van de ION chipset.
Eerlijk gezegd vind ik van deze twee de tweede config totaal niet interessant. Je betaalt vijftig euro meer en daarvoor krijg je: 2 SATA poorten minder, minder insteekkaarten, (veel) langzamere processor, maar wel een wat zuinigere opstelling. In de meest gunstige situatie voor de Atom (dus 24/7) doe je er 'slechts' zo'n twee tot drie jaar over om break even te pakken. Zou de computer ook nog eens aan S3 mogen doen dan kan dit al snel oplopen tot zo'n 4 a 5 jaar. Tel daar nog eens bij op dat ik mij afvraag of die Atom op termijn voldoende blijft. Zeker tegelijk streamen en parren heeft als gevolg dat je op termijn er wel eens toe kan besluiten om er een iets zwaardere cpu in te gooien, weg voordeel.

Persoonlijk zou ik in jouw geval kiezen voor config 1 en voor een dualcore gaan. Zeker de 4x50e en de 5050e zijn interessant om op te sporen omdat ze relatief weinig verbruiken. In idle modus zelfs zo weinig dat ze menig singlecore pakken!

@Jormungandr, heb je al eens gekeken of de USB poorten nog wel aanstaan? Daarnaast weet ik het niet helemaal zeker, maar volgens mij kreeg ik mijn M2A-VM ook alleen maar aan als deze in S3 stond (lijkt wel woord van de dag).

[ Voor 8% gewijzigd door Dadona op 23-09-2009 15:27 . Reden: tussentijdse reply ]

De CSL/OT kroeg !


  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Mr_Light schreef op woensdag 23 september 2009 @ 12:24:
Probeer eens G3 ;) 220 idle is wel erg veel, zijn die schijven zo power hungry of is dat de inefficiëntie van de power supply(extra headroom voor spin-up)? Onze server met zwaardere hardware, maar met (maar) 5 schijven heeft idle 120 watt minder nodig.
Ik weet dat Q 7200rpm schijven heeft gebruikte en als je er daar 20 van hebt draaien + 2 2.5"schijven gaat je verbruik van alleen je hdd's al naar de 130watt (spin-up is een killer voor je 12v als je geen stagered spin-up gebruikt maar is wel mogelijk als je je voeding ervoor uit kiest ;) )
Die 130 watt + cpu, mobo en in een gunstig geval 18% verlies op je voeding ga je snel richting die 220 watt idle

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 09-09 15:49
Nuja, het powerledje gaat blinken bij pm-suspend maar voor de rest krijgt (buiten dat en het mobo ledje) schijnbaar niets nog power :s.

Eigenlijk wel erg dat ik nu pas suspend ed gebruik. Stroomverbruik is quasi nihil (men meter toont 0 maar het is niet zo'n superding) en een druk op de knop en je bent op 3 seconden en 63 Watt verder weer vertrokken.

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
Mr_Light schreef op woensdag 23 september 2009 @ 12:24:
[...]

Persoonlijk ben ik van mening dat het hele idee van systemen 'uit' zetten onzin is. Na het beschikbaar zijn S3 state en de inmiddels wijde ondersteuning er van, is het doorlopen van boot up/down onnodig voor systemen die veel gebruikt worden en die hun stroom direct uit de ups/muur trekken

Voor dat jouw systeem is opgestart zit die van mij waarschijnlijk al weer in deep sleep. Daarnaast omdat het relatief cheap is om van S1 naar S3 te gaan en terug (in tegenstelling tot S1 naar S5/G2 en terug) Kan je ipv magic packet gewoon direct packet gebruiken.(wat ondersteund is gezien je een intel kaart er in hebt.) Scheelt weer handelingen voor jouw en maakt het bruikbaar voor de niet-tweakers thuis.
Goed punt.

Mogelijk dat dit onder Windows subliem en vlekkeloos werkt, maar onder Linux hierzo niet. Het hangt denk ik erg af van de hardware of het goed werkt of niet. Bij mij geven mijn Highpoint kaarten problemen: de array komt niet terug uit standby. Bovendien geven mijn systemen ook geen beeld meer na S3 of S4.

Als het werkt is dat super en makkelijker dan helemaal uit zetten: het scheelt een paar minuten.
Probeer eens G3 ;) 220 idle is wel erg veel, zijn die schijven zo power hungry of is dat de inefficiëntie van de power supply(extra headroom voor spin-up)? Onze server met zwaardere hardware, maar met (maar) 5 schijven heeft idle 120 watt minder nodig.
Laat ik de disk idle op 7 watt zetten dan kom ik op 140 voor de disks en 80 voor het systeem inclusief voeding. Dan moet daar ook nog 10 watt af voor de UPS -> 70 watt voor het systeem, inclusief 10 ventilatoren, 2x laptop disk en controller. Is dat zo gek?

70 watt + 5 x 7 diss = 35 = 105 watt.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Q schreef op woensdag 23 september 2009 @ 20:33:
[...]
Mogelijk dat dit onder Windows subliem en vlekkeloos werkt, maar onder Linux hierzo niet. Het hangt denk ik erg af van de hardware of het goed werkt of niet. Bij mij geven mijn Highpoint kaarten problemen: de array komt niet terug uit standby. Bovendien geven mijn systemen ook geen beeld meer na S3 of S4.

Als het werkt is dat super en makkelijker dan helemaal uit zetten: het scheelt een paar minuten.
Hardware is altijd wat tricky inderdaad. Zo werken S3 en S4 onder Windows op zich behoorlijk op meerdere van mijn systemen. Maar om de één of andere reden komen ze er steeds slechter uit naarmate ze langer in die stand hebben gezeten: minder responsief en trager. Met name mijn laptop is om de één of andere reden niet bij met een S4 van twee dagen. Ik snap niet wat dat kan veroorzaken.
Maar ook software vlak is het soms wat merkwaardig. Als ik een film in Media Player Classic HC gepauzeerd heb, in S3 duik en weer terugkom dan heb ik allemaal strepen in het beeld. Opnieuw de film starten lost het op, maar wel opmerkelijk.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • jayvol09
  • Registratie: Augustus 2009
  • Laatst online: 02-09-2020
Ben mn NAS nu aan t samenstellen, kan iemand me vertellen wat een goeie drive is voor mn OS? Heb niet veel verstand van harde schijven. Ik dacht aan een 500GB 7200rpm single platter hdd, zo klein mogelijk, als zoiets bestaat. Wil nog wel een concessie doen naar 320GB als dat een stuk zuiniger en sneller wordt.

"Between the weak and the strong one it is the freedom which oppresses and the law that liberates" [Jean Jacques Rousseau]


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Ga je die schijf voor nog meer zaken gebruiken dan alleen het OS?
En wat voor een OS komt erop. Want stel je neemt WHS dan is de snelheid van je OS schijf belangrijk maar heb je bv FreeNAS (straks CoreNAS) gebruiken dan is dat veel minder van invloed. En zo heb je nog veel meer keuzes er tussen in.
Dus iets meer duidelijkheid hierover zou wenselijk wezen ;)

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • jayvol09
  • Registratie: Augustus 2009
  • Laatst online: 02-09-2020
Komt denk ubuntu op want ik wil software Raid5 gebruiken en als tv server gebruiken. Verder download ik mn torrents erop, die ik dan periodiek overzet op mn opslag array.

Tenzij raid5 met windows te doen is zonder dure controller?

[ Voor 15% gewijzigd door jayvol09 op 28-09-2009 19:50 ]

"Between the weak and the strong one it is the freedom which oppresses and the law that liberates" [Jean Jacques Rousseau]


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Hoort je OS schijf bij de RAID 5 array? Lijkt mij niet maar wie ben ik ;)
Verder, waar worden de TV streams opgeslagen? En waar je torrent -> misschien gelijktijdig uitpakken op dezelfde hdd of gelijk op je raid 5?

Als je hem alleen voor het booten gebruikt is bijna elke hdd goed ;)
Verder is software Raid 5 in windows niet echt lekker. OF via hardware kaart met IOC of IOP of via BIOS raid wat eigenlijk gewoon cpu kracht gebruikt maar bij lange na niet de performance heeft van software raid onder linux ;)

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


  • jayvol09
  • Registratie: Augustus 2009
  • Laatst online: 02-09-2020
Hoort je OS schijf bij de RAID 5 array?
Nee joh^^
Als ik 6 sata aansluitingen heb zullen maximaal 5 schijven dus mn raid array opmaken (6TB met 1,5TB schijven klaag ik niet over).
Tv streams opgeslagen op de al draaiende OS schijf, en dan om de zoveel tijd overgezet naar de RAID5 array (of gedelete), zelfde met torrents, liever niet tegelijk op mn raid5 want die wil ik zo min mogelijk spinnend hebben.
En ja heb besloten, linux software raid it is :) Wel grappig hoe sommige mensen WHS de hemel in prijzen en raid5 afdoen als nutteloos. Ik heb liever niet dat ik mn films kwijtraak door een crash en raid1 is me te duur^^

Weet alleen niet hoe t met t decoderen zit van TV erop want wil niet teveel belasten (760 chipset en BE-2400 cpu), stel ik heb HDTV (mpeg4 ) binnenkomen op mn Tvserver (die dus op mn NAS is):
- In het geval van opnemen kan ik dit dus gewoon opslaan zonder dat mn cpu belast wordt met decoderen toch (hooguit decrypting met softcam)?
- Met tv streamen naar front end windows 7 client wil ik mn graka (in de front end) het laten decoderen, maar dan heb je die gekke functie dat het tv programma stiekem wordt opgeslagen zodat je het op pauze kunt doen etc, hoe doet ie dat dan, komt het gedecodeerde zooi tijdelijk op mn OS schijf van de NAS of op de SSD van mn HTPC?.

Kheb dit tot dusver dan, ben van het pico psu idee afgestapt, mssn leuk voor een itx htpc frontend later.

NAS

CPU: Athlon BE-2400
Moederbord: MSI-p33
Tuner: - Hauppauge WinTV HVR-930C (USB) (heb liever pci kaart )
- Terratec cinergy HD (PCI) (niet goed verkrijgbaar)
- Technotrend C1501 (dit wordt em waarschijnlijk)
HDDs:
- 1,5TB Samsung ecogreen F2 (3x) óf
- 1,5TB Western Digital Caviar Green (3x)
OS HDD: ?
Kast: ?
Voeding: ?
OS: Ubuntu 8
Ethernet controller: Intel Pro 1gbit (wil direct met htpc linken)
Cardreader: Smargo USB SmartReader Plus

[ Voor 20% gewijzigd door jayvol09 op 30-09-2009 00:15 ]

"Between the weak and the strong one it is the freedom which oppresses and the law that liberates" [Jean Jacques Rousseau]


  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Waarom niet je tuner in je HTPC :? cardreader idem (je kunt altijd via je htpc iets overzetten naar je nas.
Maar ja dat is een geheel andere discussie.
Als geluid en verbruik je voor je OS hdd niets uit maakt zou ik gewoon voor de F3 serie van samsung gaan.

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


  • Ibidem
  • Registratie: Oktober 2001
  • Laatst online: 26-08 14:55
En dan zie ik op de FP dit bericht verschijnen:

nieuws: Zotac introduceert Atom-moederbord met pci-express-slot

Doet mij gelijk denken aan het ideale bord om een RAID controller in te stoppen en dit als basis te gebruiken voor een NAS. Of is de Atom 330 niet optimaal om dit te doen?

Taken die ik wil doen is SABnzbd+ draaien, parren, unrarren. Fileserving voor mijn TViX en wellicht een iTunes service draaien.

..::System Specs::..


  • Mr_Light
  • Registratie: Maart 2006
  • Niet online

Mr_Light

Zo-i-Zo de gekste.

Q schreef op woensdag 23 september 2009 @ 20:33:
[...]
Mogelijk dat dit onder Windows subliem en vlekkeloos werkt, maar onder Linux hierzo niet. Het hangt denk ik erg af van de hardware of het goed werkt of niet. Bij mij geven mijn Highpoint kaarten problemen: de array komt niet terug uit standby. Bovendien geven mijn systemen ook geen beeld meer na S3 of S4.
Onder ubuntu werkt het regelmatig(ze slopen het ook regelmatig) onder Opensolaris werkt het maar mensen met radeon hebben wel problemen omdat niemand (met kennis) van amd/ati zich gemeld heeft om een goede driver te schrijven. Maar wanneer het onder een *nix systeem werkt werkt het ook goed. Over het algemeen ligt het meer aan de drivers dan het os.

Terwijl windows mischien het meest robuste is subliem toch wel weer wat anders om in sleep te gaan(htpc draaid windows vista) is hij toch wel een seconde of 10/20 bezig om in slaap te gaan en spiked het verbruik boven het niveau van wat er verbruikt word als ik tv/dvd kijk. Volgens mij unload/reload windows gewoon een hoop drivers om het stabieler te krijgen. (Windows 7 leek het beter te doen)

Wat betreft je highpoint, tja build-for-speed en slapen is niet de meest voor de hand liggende combi. Je zou kunnen kijken of ze een ticket willen openen. In datacenters kan tijdens dal-uren ook een hoop uit. Misschien hebben ze er gewoon nooit over nagedacht.
Als je het uitschrijft niet :)

IceManX schreef: sowieso

Mensen,

Graag een beetje hulp :)

Ik heb nu een dikke server thuis staan:

Intel S5000VSA dual socket 771 moederbord
1 x E5320 1.86Ghz processor (2e is helaas overleden :'( )
6GB FB-Dimm

HP SmartArray P400 + BBWC
4 x 1.5TB SATA en 3 x 146GB SAS.

Nu wil ik het geheel wat minder stroomgulzig maken, alleen weet ik niet zo goed wat te doen.
Het heeft natuurlijk heel wat tijd, moeite en geld gekost om zo'n mooi servertje in elkaar te schroeven, en wil ik dus graag nog wat onderdelen bewaren die ik toch wel belangrijk vind.

Zoals de SAS schijven en mijn RAID Controller.
Weet iemand hoe ik dit geheel tot zijn recht kan laten komen in performance maar toch niet teveel CPU power erin prik dat het teveel stroom gaat opeten...
Mijn proc is nu een 80w model met EIST (Enhance SpeedStep) dus die is eigenlijk wel zuinig.
Waar ik me meer druk om maak is het FB-Dimm geheugen.. Hoewel het natuurlijk vast snel is, verstookt het best wat stroom voor mijn gevoel...

Iemand een goede tip om mij op weg te helpen naar <100w continu verbruik (zit nu op ~180w)

Even niets...


  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 17:58
Druk je kaart in zo'n bordje en je bent klaar :) :

nieuws: Zotac introduceert Atom-moederbord met pci-express-slot
Maar ik ben een beetje bang dat die Atom mijn SAS schijven ernstig laat luieren...
Bij een beetje RAR en PAR verkeer moeten die toch echt wel werken vind ik anders verbruiken ze alleen maar onnodig stroom ;)

Even niets...


  • remmelt
  • Registratie: Januari 2001
  • Laatst online: 09-04 12:25
Wat voor een netwerkverbinding heb je liggen?

  • jayvol09
  • Registratie: Augustus 2009
  • Laatst online: 02-09-2020
klaasbram schreef op woensdag 30 september 2009 @ 12:07:
Waarom niet je tuner in je HTPC :? cardreader idem (je kunt altijd via je htpc iets overzetten naar je nas.
Maar ja dat is een geheel andere discussie.
Als geluid en verbruik je voor je OS hdd niets uit maakt zou ik gewoon voor de F3 serie van samsung gaan.
Cool thanks
Nadeel van tuner in mn htpc is dat deze dan ook aan moet staan om tv op te nemen, verder als ik een tweede client wil (bv boven) moet ik weer mn htpc beneden aan doen om tv te kijken. En dan moet ik opgenomen tv van mn htpc nog is naar mn NAS overzetten, spreekt me ook niet aan. Tv server op mn NAS is gewoon handiger denk ik dus waarom niet:P

edit:
kast gaat denk een antec worden, moet denk ik dan nog wel twee 5,5"->3,5" brace dingen kopen.

[ Voor 11% gewijzigd door jayvol09 op 30-09-2009 21:38 ]

"Between the weak and the strong one it is the freedom which oppresses and the law that liberates" [Jean Jacques Rousseau]

remmelt schreef op woensdag 30 september 2009 @ 18:13:
Wat voor een netwerkverbinding heb je liggen?
Alles 1GBit... Met CAT6 kabels...

Even niets...


Acties:
  • 0 Henk 'm!

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 11-09 14:18
Ik ben ook aan het rondkijken hoe ik mijn data het beste kan opslaan en deze kan exposen via mijn nieuwe fileserver. Voordat ik met mijn data aan de slag ga wil ik eerst nog het e.e.a. vragen/verifiëren. Ik ben me er al flink in aan het verdiepen maar er zijn nog wel wat vraagtekens.

Ik heb momenteel een 1TB schijf (F1) welke zo goed als vol staat met data. Nu heb ik een extra TB bijgekocht (WD10EADS) en ben van plan er nog eentje van deze bij te halen zodat mijn data redundant in raid 5 kan worden opgeslagen. Nu heb ik begrepen dat de fakeraid oplossingen niet erg goed presteren en bovendien niet erg portabel zijn tussen de verschillende vendors/chipsets/mobo's. Daarom wil ik graag met MDADM aan de slag (eigenlijk met geom_raid5, maar ik ben niet zo gecharmeerd van FreeBSD en wil/kan ook niet wachten op Debian GNU/kFreeBSD).

Nu mijn vragen: het klopt toch dat je met 1 volle TB-schijf je de data in principe niet naar een losse schijf hoeft te verplaatsen? Wat ik heb begrepen is het mogelijk om van mijn 2 lege schijven een raid-5 array te bouwen met 1 missing schijf, de data te verplaatsen en de derde schijf toevoegen. Maar wat volgens mij ook mogelijk is is het bouwen van een raid-1 array en deze te migreren naar raiid-5. Wat is het meest praktisch/veilig/snel? Of maakt dat niks/weinig uit?

Mijn tweede vraag: het is niet mogelijk om van een software raid-array te booten. Nu heb ik nog ergens een losse 250GB liggen geloof ik dus ik hoef in principe geen ruimte af te snoepen van mijn array. Mijn vraag is echter wat jullie op dit moment aanraden: mijn hele OS op de (tragere) 250GB schijf zetten of alleen /boot, zodat ik vanaf die schijf mijn OS kan booten welke dan gewoon op de array staat? Dit lijkt me namelijk vooral van belang als ik mijn OS heb genuked waardoor er een reinstall nodig is (ik vind het leuk om af en toe wat te experimenteren ;)). Want hoe zit het met de installers van bijv. Ubuntu of Debian? Ondersteunen die out of the box md-raid of moet ik daarvoor de trukendoos opentrekken? Op zich niet zo heel erg maar het moet niet te gortig worden.

Hopelijk kan iemand met verstand van dit soort zaken antwoord geven hierop. Tnx!

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
RAID 5 van 2 schijven maken lijkt me zelf niet echt mogelijk want je hebt nergens plek voor je pariteit ;)
Wat je wel zou kunnen doen is een RAID 1 maken van die 2 (nieuwe / lege) disks. En hier je data opzetten. En daarna deze RAID 1 gaan omzetten naar RAID 5. Maar ik weet niet of dat mogelijk is met software RAID.

Over je 2 vraag kan ik je niet helpen. Ik heb zelf een 300GB schijf waar me WHS installatie opstaat en deze start voor mij gezien snel genoeg op.

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 11-09 14:49

Ultraman

Moderator Harde Waren

Boefje

klaasbram schreef op donderdag 22 oktober 2009 @ 07:21:
RAID 5 van 2 schijven maken lijkt me zelf niet echt mogelijk want je hebt nergens plek voor je pariteit ;)
Dat kan wel, je parity staat bij RAID5 verdeeld over de schijven.
Hardware controllers zullen er mogelijk moeite mee hebben om een degraded array te maken, maar Linux mdadm kan dat wel. Je kunt een degraded RAID5 array maken met 2 disken en daar later een 3e bij hangen om het geheel weer OK te maken. Zit alleen dus wel een performancehit aan aangezien je de 3e disk constant zit te 'berekenen'.

Wat LB06 wil kan volgens mij wel. Een degraded RAID5 maken met 2x 1TB disken, daar de data naar toe kopiëren en vervolgens de oorspronkelijke schijf toevoegen aan het geheel. Dit gaat niet snel zijn, maar bespaart je wel de kosten van een extra schijf.
Wil je dit echter op een vlottere en veiligere manier doen dan zou ik gewoon 3 schijven halen, daar een goede array van maken en je data opkwakken en achteraf de schijf die je al had toevoegen als hot spare of ook gewoon toevoegen aan de array voor exta capaciteit. Net wat je nodig hebt.
Mijn tweede vraag: het is niet mogelijk om van een software raid-array te booten. Nu heb ik nog ergens een losse 250GB liggen geloof ik dus ik hoef in principe geen ruimte af te snoepen van mijn array. Mijn vraag is echter wat jullie op dit moment aanraden: mijn hele OS op de (tragere) 250GB schijf zetten of alleen /boot, zodat ik vanaf die schijf mijn OS kan booten welke dan gewoon op de array staat?
Afaik kun je wel van een Linux software RAID booten, maar alleen RAID1. Dat is wat ik doe met 2x 80GB schijven. GRUB ondersteunt het echter dus niet, dus ik heb GRUB op alle twee de schijven in de MBR staan en als één van de twee failed dan heb ik altijd nog gewoon een mirror waar mijn hele OS op staat en welke tevens bootable is.
RAID5 lijkt mij echter om die reden niet mogelijk omdat de schijven niet als single disk bruikbaar zijn. Dus dan is een extra disk, zoals je 250GBer nuttig. Ik zou dan ook gewoon die 250GBer gebruiken om je OS op te zetten en dan backups maken naar je array als je zonder moeite een image terug wilt kunnen zetten op een andere disk mocht die 250GBer falen. Wat je ook kunt doen is daar een RAID1 van maken.
Of nog anders, een deel van je 1TB schijven RAID1 (of als je vier disken hebt een soort bootable RAID10 door RAID1 mdadm te combineren met LVM) te maken en daarvan te booten, gewoon zoveel als je nodig hebt voor je OS, dat is toch peanuts op 1TB. En de rest van je disken als RAID5 indelen.
Last van traagheid valt denk ik reuze mee, want zoveel bewerkingen ga je niet over OS disk uitvoeren.
Zodra het eenmaal geboot is heb je er eigenlijk alleen mee te maken als je updates gaat installeren. Lekker dat hele OS er op denk ik.
Dit lijkt me namelijk vooral van belang als ik mijn OS heb genuked waardoor er een reinstall nodig is (ik vind het leuk om af en toe wat te experimenteren ;)). Want hoe zit het met de installers van bijv. Ubuntu of Debian? Ondersteunen die out of the box md-raid of moet ik daarvoor de trukendoos opentrekken? Op zich niet zo heel erg maar het moet niet te gortig worden.
Volgens mij ondersteunen die wel out-of-the-box mdadm. Mogelijk moet je ze even met de hand initialiseren en mounten, maar dat is geen moeilijk karwei.
Ik heb geen echte ervaringen met mdadm op die twee distros, maar ik weet dat het onder Gentoo en Arch Linux op die manier prima werkt.

[ Voor 70% gewijzigd door Ultraman op 22-10-2009 10:52 ]

Als je stil blijft staan, komt de hoek wel naar jou toe.


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
LB06 schreef op woensdag 21 oktober 2009 @ 23:54:
Nu mijn vragen: het klopt toch dat je met 1 volle TB-schijf je de data in principe niet naar een losse schijf hoeft te verplaatsen? Wat ik heb begrepen is het mogelijk om van mijn 2 lege schijven een raid-5 array te bouwen met 1 missing schijf, de data te verplaatsen en de derde schijf toevoegen.
Ik heb dit (meerdere) malen gedaan en dit werkt perfect. Ik heb het gedaan met RAID6 waarbij ik 1 ipv 2 'parity disks' in gebruik had.Later de 2e disk toegevoegd, syncen en klaar.
Mijn tweede vraag: het is niet mogelijk om van een software raid-array te booten. Nu heb ik nog ergens een losse 250GB liggen geloof ik dus ik hoef in principe geen ruimte af te snoepen van mijn array. Mijn vraag is echter wat jullie op dit moment aanraden: mijn hele OS op de (tragere) 250GB schijf zetten of alleen /boot, zodat ik vanaf die schijf mijn OS kan booten welke dan gewoon op de array staat? Dit lijkt me namelijk vooral van belang als ik mijn OS heb genuked waardoor er een reinstall nodig is (ik vind het leuk om af en toe wat te experimenteren ;)). Want hoe zit het met de installers van bijv. Ubuntu of Debian? Ondersteunen die out of the box md-raid of moet ik daarvoor de trukendoos opentrekken? Op zich niet zo heel erg maar het moet niet te gortig worden.
Maak het jezelf makkelijk en stop twee simpele diskjes in je systeem in RAID 1 voor je OS. Je kunt zelfs achteraf naar RAID 1 migreren. Laptop diskjes kosten nog geen 30 euro per stuk en dan kun je bij wijze van spreken voor 60 euro een RAID 1 boot disk hebben. Of duik een 2e 250 GB schijf op die je er naast zet. Dan hou je je storage array 'schoon'.

Acties:
  • 0 Henk 'm!

  • timskiej
  • Registratie: Januari 2007
  • Laatst online: 09-09 19:30
Is er een kleine behuizing waar een Atom moederbord met PCI kaart (SATA controller) in past en vier harde schijven? Een standaard ATX case is een optie maar is veel te groot. En ITX behuizingen hebben maar max 1 of 2 plaatsen voor HDD's.

[ Voor 59% gewijzigd door timskiej op 22-10-2009 13:18 ]


Acties:
  • 0 Henk 'm!

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 11-09 14:18
Hmm. Is het dan niet handiger om een raid-1 array te maken (geen pariteiten) en die te migreren naar raid-5?

Is het ook mogelijk om op alledrie de schijven 3 partities aan te maken (OS, swap, data) en mijn OS partities in raid-1 te zetten (dus bootable) en de '2e' partitie van elke schijf in raid 5 te knallen?

code:
1
2
3
sda1 + sdb1 + sdc1 = md0 (raid-1, 3*40GB, ext4)
sda2 + sdb2 + sdc2 = md1 (raid-1, 3*3GB, swap)
sda3 + sdb3 + sdc3 = md2 (raid-5, 3*950GB, xfs/ext4)


Voor de niet Linux mensen: sda, sdb en sdc zijn allen schijven en 1, 2 en 3 zijn de (primaire) partities op de schijven.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


Acties:
  • 0 Henk 'm!

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 11-09 14:18
timskiej schreef op donderdag 22 oktober 2009 @ 13:09:
Is er een kleine behuizing waar een Atom moederbord met PCI kaart (SATA controller) in past en vier harde schijven? Een standaard ATX case is een optie maar is veel te groot. En ITX behuizingen hebben maar max 1 of 2 plaatsen voor HDD's.
uATX? Bijvoorbeeld de Antec P180 Mini. 5 * 3,5" bays.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


Acties:
  • 0 Henk 'm!

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 11-09 14:18
Wat raden jullie trouwens aan voor raid (5)? Dezelfde schijven of juist verschillende? Want op internet wordt er door sommigen gezegd dat de schijven hetzelfde moeten zijn, zodat er zo min mogelijk ruimte/performance verloren gaat tussen de onderlinge verschillen. Terwijl anderen weer zeggen dat de schijven juist niet allemaal hetzelfde moeten zijn, omdat de kans dat er meerdere schijven dan tegelijkertijd kapot gaan het grootst is. Wat denken jullie daarvan?

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


Acties:
  • 0 Henk 'm!

  • remmelt
  • Registratie: Januari 2001
  • Laatst online: 09-04 12:25
LB06 schreef op woensdag 21 oktober 2009 @ 23:54:
Want hoe zit het met de installers van bijv. Ubuntu of Debian? Ondersteunen die out of the box md-raid of moet ik daarvoor de trukendoos opentrekken?
Ubuntu (in elk geval 9.04, misschien eerdere versies ook) ondersteund out of the box mdadm in de installer. Dit weet ik uit ervaring. Er is ook een curses gui voor, maar die vond ik niet zo fijn, vandaar dat ik switch naar een andere virtuele console en dan lekker met mdadm aan de slag ga.

Waarom zou je je bootschijf RAID-en? Ik zou dat niet eens doen.

Overigens heeft de F1 een slechte RAID-reputatie.

[ Voor 4% gewijzigd door remmelt op 22-10-2009 15:20 ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
remmelt schreef op donderdag 22 oktober 2009 @ 15:20:
[...]


Waarom zou je je bootschijf RAID-en? Ik zou dat niet eens doen.
Het kost bijna niets en je banned het risico uit op een crash en daarmee corruptie van je storage array.
Overigens heeft de F1 een slechte RAID-reputatie.
Die reputatie is altijd nagepraat maar meestal vergeet men erbij te vertellen dat dit in combinatie is met hardware controllers.

Ik het 20 van die dingen in RAID 6 op basis van Linux software RAID en dat werkt als een zonnetje. Geen reden om die disks in deze context links te laten liggen.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
LB06 schreef op donderdag 22 oktober 2009 @ 13:55:
Hmm. Is het dan niet handiger om een raid-1 array te maken (geen pariteiten) en die te migreren naar raid-5?

Is het ook mogelijk om op alledrie de schijven 3 partities aan te maken (OS, swap, data) en mijn OS partities in raid-1 te zetten (dus bootable) en de '2e' partitie van elke schijf in raid 5 te knallen?
Ja dit kan prima en is niet ongebruikelijk.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
LB06 schreef op donderdag 22 oktober 2009 @ 15:00:
Wat raden jullie trouwens aan voor raid (5)? Dezelfde schijven of juist verschillende? Want op internet wordt er door sommigen gezegd dat de schijven hetzelfde moeten zijn, zodat er zo min mogelijk ruimte/performance verloren gaat tussen de onderlinge verschillen. Terwijl anderen weer zeggen dat de schijven juist niet allemaal hetzelfde moeten zijn, omdat de kans dat er meerdere schijven dan tegelijkertijd kapot gaan het grootst is. Wat denken jullie daarvan?
Het kan zijn maar ik vind het te ver gaan. Er zijn andere risicos die groter zijn. Je kunt dan beter voor RAID 6 of een hot-spare gaan. Dat laatste is om de periode dat je niet redundant bent te minimaliseren.

Voor thuisgebruik zou ik me er niet druk over maken en professioneel gezien vind ik het een onbeheersbaar en te klein issue. Bovendien heb je daar ook van groe datasets bsckups. Thuis misschien niet.

Acties:
  • 0 Henk 'm!

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 17:58
LB06 schreef op donderdag 22 oktober 2009 @ 13:55:
Is het ook mogelijk om op alledrie de schijven 3 partities aan te maken (OS, swap, data) en mijn OS partities in raid-1 te zetten (dus bootable) en de '2e' partitie van elke schijf in raid 5 te knallen?
Mogelijk is 't zeker, de reden dat veel mensen hier voor een klein schijfje/flash memory voor 't OS gaan is dat je makkelijker je storage schijven in standby kunt gooien. Mocht dat schijfje defect raken heb je 't OS zo weer geinstalleerd, dus raid1 is daarvoor overbodig.

Acties:
  • 0 Henk 'm!

  • campr112
  • Registratie: December 2001
  • Laatst online: 25-07 17:57
timskiej schreef op donderdag 22 oktober 2009 @ 13:09:
Is er een kleine behuizing waar een Atom moederbord met PCI kaart (SATA controller) in past en vier harde schijven? Een standaard ATX case is een optie maar is veel te groot. En ITX behuizingen hebben maar max 1 of 2 plaatsen voor HDD's.
Ik ben op het moment zoiets aan het doen, heb al een aparte topic aangemaakt hiervoor:
http://gathering.tweakers.net/forum/list_messages/1374077

Ga een SUN externe schijven kast gebruiken om het volgende te huisvesten:
1x POV Atom 330 bordje
1x Adaptec 5805 SAS controller
1x SAS Expander
2x SSD schijven van 32Gbyte voor Raid-0 parcheck ruimte
8x 1.5/2Tbyte schijven voor het archief.

Mooie van de Adaptec is dat ie de schijven uit kan zetten als ze niet nodig zijn.

Vriend van mij is ook bezig een eigen kast te maken, en die heeft even snel in Google Sketchup mijn kast er ook bij gezet (de meest linker):
Afbeeldingslocatie: http://campr2.demon.nl/gallery2/gallery/d/12761-2/Nassy-qnap-a4-campr.png

Dus: Nee het is er niet, gewoon zelfbouwen ;-)

Iemand trouwens een idee of een Atom 330 (Dual-core 1.6Ghz) een Gbit link onder Linux volkrijgt met SMB traffic?

Be more, use Linux.


Acties:
  • 0 Henk 'm!

  • Puch-Maxi
  • Registratie: December 2003
  • Laatst online: 02:16
campr112 schreef op donderdag 22 oktober 2009 @ 23:42:
[...]
Ik ben op het moment zoiets aan het doen, heb al een aparte topic aangemaakt hiervoor:
http://gathering.tweakers.net/forum/list_messages/1374077

Ga een SUN externe schijven kast gebruiken om het volgende te huisvesten:
1x POV Atom 330 bordje
1x Adaptec 5805 SAS controller
1x SAS Expander
2x SSD schijven van 32Gbyte voor Raid-0 parcheck ruimte
8x 1.5/2Tbyte schijven voor het archief.

Mooie van de Adaptec is dat ie de schijven uit kan zetten als ze niet nodig zijn.

Vriend van mij is ook bezig een eigen kast te maken, en die heeft even snel in Google Sketchup mijn kast er ook bij gezet (de meest linker):
[afbeelding]

Dus: Nee het is er niet, gewoon zelfbouwen ;-)

Iemand trouwens een idee of een Atom 330 (Dual-core 1.6Ghz) een Gbit link onder Linux volkrijgt met SMB traffic?
Grappig, mijn pa is ookal aan het schetsen geslagen! Ik zal zijn vorderingen even in de gaten houden ;)

My favorite programming language is solder.


Acties:
  • 0 Henk 'm!

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 11-09 14:18
Volgens mij krijgt niemand z'n gigabit link vol. Ik haal ~750mbit/s met iperf (dus zo synthetisch als wat) over een gigabit link met CAT6-bekabeling. Als ik zo hoor wat er in mijn omgeving met gigibit wordt gerealiseerd doe ik het nog vrij aardig. Natuurlijk ligt het bij veel mensen ook aan de schijven, maar goed.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


Acties:
  • 0 Henk 'm!

  • campr112
  • Registratie: December 2001
  • Laatst online: 25-07 17:57
Goed, met een hardware raid-controller en meer dan 2 schijven moet je toch wel 120Mbyte/sec moeten kunnen halen (1000Mbit/sec). Dat ontlast iig je CPU. Met Jumbo frames kom je ook al een heel end.. Ik gok ook dat je met Linux verder komt op dezelfde hardware dan met windows. Ook het gebruik van FTP (of TFTP) helpt ook om meer throughput te krijgen. 750Mbit klinkt een beetje hoog. Ik heb rates in het veld gezien van 650Mbit... Ik heb ook al 1Gbit/sec gezien.. Packet storm tussen ~20 cisco switches. Iemand had spanning-tree op een paar switches uit gezet...

Heb een linkje gevonden: http://ubuntuforums.org/showthread.php?t=1119545 zijn ervaring is (met software-raid-5) 35-40Mbyte/sec op een ATOM-330. Hij had hyper-threading aan en merkte dat 1 CPU op 100% zat met een samba process.

We zullen hoeveel verbetering hardware-raid brengt. Ik weet dat de controller limiet is bij 1.1Gbyte/sec op raid-0 en ~800Mbyte/sec in raid-5/6. Dat mag de bottleneck dus niet zijn ;-)

Rob

[ Voor 5% gewijzigd door campr112 op 23-10-2009 00:45 ]

Be more, use Linux.


Acties:
  • 0 Henk 'm!

  • timskiej
  • Registratie: Januari 2007
  • Laatst online: 09-09 19:30
@Campr112
Ik kwam deze nog tegen:
http://azerty.nl/producte...ilverzwart-usb-audio.html

3 x 3,5" bays voor HDD's
2 x 5,25" bays (eventueel om te vormen voor HDD bays als je ruimte te kort komt)
Ziet er goed uit en er zit een voeding bij van 350Watt.

Acties:
  • 0 Henk 'm!

  • campr112
  • Registratie: December 2001
  • Laatst online: 25-07 17:57
3 x 3,5" bays voor HDD's
2 x 5,25" bays (eventueel om te vormen voor HDD bays als je ruimte te kort komt)
Ziet er goed uit en er zit een voeding bij van 350Watt.
Maar dit is 'gewoon' een micro-ATX kast, die zijn er per dozijn. Probleem met deze kasten is dat het 'gewone' mini-tower kasten zijn en dus:
1. Niet genoeg ruimte hebben voor schijven
2. Veel ruimte verloren gaat bij het monteren van een mini-itx moederbord die je niet meer terug kan winnen voor de montage van drives.

Wat ik zocht was wat meer de NAS richting op. Intel maakt wel iets leuks:
http://download.intel.com...0-e/sb/ss4200e_tps_11.pdf
Maar daar kan je weer geen hardware RAID in kwijt (of iig heel moeilijk) en hij heeft maar 4 schijven. En er zit ook geen HDMI output op.

Het verbaasd me ook dat nog niemand een kast hiervoor heeft gemaakt, lijkt me toch een redelijk marktje, aangezien de NAS oplossingen die er zijn toch vrij duur zijn, en er relatief goedkope alternatieven zijn met open-source software (of zelfs windows home server).

Rob

Be more, use Linux.

Pagina: 1 ... 6 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.