Het grote DIY RAID NAS topic deel 2 Vorige deel Overzicht Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 8 ... 11 Laatste
Acties:
  • 138.302 views

Acties:
  • 0 Henk 'm!

  • psy
  • Registratie: Oktober 1999
  • Laatst online: 15-09 12:48

psy

remmelt schreef op donderdag 05 februari 2009 @ 17:24:
Nee dat is ook niet goed. Mijn fout was dat de energieprijs natuurlijk niet 0,0709 CENT per KWh is maar 0,0709 EURO/KWh. Bij mij in elk geval, dat kan natuurlijk per aanbieder verschillen. Ik heb het nagekeken.

Bij jou is er een 0 teveel ingeschoven: 14W is 0,014KW.

Dus nog eens:

7,09ct/KWh * 0,014KW = 0,09926ct/h
€240 = 24000cent
24000ct / 0,09926ct/h ~= 240Kh ~= 27 jaar

Met een energieprijs van 20 cent is het ongeveer 9,8 jaar.
Vergeet het maar. Je krijgt never nooit niet je stroom voor 7 cent.
Ik heb even mijn eigen tarief genomen (piek/dal bij Essent, standaard). Dit is een zeer courant tarief en zal nauwelijks verschillen met andere aanbieders.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
Leveringstarief per kWh          13,47 cent 7,74 cent 
Energiebelasting 0-10.000 kWh1   12,91 cent 12,91 cent 
Totaal per kWh                   26,38 cent 20,65 cent 
Vaste kosten per jaar                       €  24,99 
Heffingskorting Energiebelasting (per jaar) € 379,16- 

Eén week heeft 98 uur daltarief
1 kWh continue per week kost dan:
98 uur daltarief = 98 x 0,2065 = 20,237
70 uur piek      = 70 x 0,2638 = 18,466
totaal per week                  38,703
totaal per week per watt         0,038703
totaal per jaar per watt (x 52)  2,01 euro


Eigenlijk is het dus simpel. Elke Watt die je bespaart levert dus 2 euro op als je je NAS 24/7 gebruikt.

8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)


Acties:
  • 0 Henk 'm!

  • remmelt
  • Registratie: Januari 2001
  • Laatst online: 09-04 12:25
Het staat toch echt op m'n contract. Misschien is het zonder BTW, dat zou nog kunnen, maar dan kom je alsnog niet aan 13 cent. Ik zal het nog eens nakijken. Piek- en daltarief heb ik ook niet, dat vergemakkelijkt de zaak nog eens.

Hoe dan ook, als we jouw berekening aanhouden, scheelt het dus €2 per Watt per jaar. De meerprijs van de schijven is nu €240, het verschil in Watt is 14. 240 / (14 * 2) ~= 8,5.
Dat heb je er dan in 8,5 jaar uit, uitgaande van 24/7 gebruik. Nog steeds niet iets om direct voor te gaan, dus.

Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 19:25
Je contract is vast met de energieleverancier, daar komt nog een rekening van de netwerkleverancier bij, plus btw en heffingen.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • lowfi
  • Registratie: Januari 2004
  • Laatst online: 14-09 07:41
Inmiddels komt mijn spul voor een DIY langzaam aan binnen.

Ik ga iets bouwen met:

Jetway nc62K
Amd x2 4850e
chenbro es34069
1GB geheugen
4x 1TB seagate (geflashed :+ )
Freenas 0.7

Momenteel heb ik ook nog een Readynas nv+ die ik als ik alle data die daarop staat heb gebackupped en de DIY goed draait ga verkopen. Freenas draait bij mij als Full OS (ivm extra pkgs) op een pata 2.5" schijfje van 60GB. Ik heb al een beetje droog geoefend met zfs op een oude sata maxtor schijf van 120GB.

Ik zie daarin iets vreemds:

Afbeeldingslocatie: http://dl.getdropbox.com/u/28951/freenas.png

Eerste gedeelte is naar de 3.5" zfs pool het 2e gedeelte naar de 2.5" pata disk. Vanwaar die spikes tijdens het copieren naar de zfs pool? Hebben meer mensen hier last van? Tot op heden alleen afp gebruikt omdat mij het daarom gaat.

Ik gebruik de laatste i386 build van freenas (0.7.4336).

Moet zeggen als ik die spikes eruit krijg dat ik dan erg tevreden ben. Dit is 2x zo snel als wat ik met mijn readynas kon halen.

[ Voor 3% gewijzigd door lowfi op 13-02-2009 19:22 ]


Acties:
  • 0 Henk 'm!

  • Shuriken
  • Registratie: November 1999
  • Laatst online: 26-08 12:33

Shuriken

Life is all about priorities

lowfi schreef op vrijdag 13 februari 2009 @ 19:20:
Inmiddels komt mijn spul voor een DIY langzaam aan binnen.

Ik ga iets bouwen met:

Jetway nc62K
Amd x2 4850e
chenbro es34069
1GB geheugen
4x 1TB seagate (geflashed :+ )
Freenas 0.7

Momenteel heb ik ook nog een Readynas nv+ die ik als ik alle data die daarop staat heb gebackupped en de DIY goed draait ga verkopen. Freenas draait bij mij als Full OS (ivm extra pkgs) op een pata 2.5" schijfje van 60GB. Ik heb al een beetje droog geoefend met zfs op een oude sata maxtor schijf van 120GB.

Ik zie daarin iets vreemds:

[afbeelding]

Eerste gedeelte is naar de 3.5" zfs pool het 2e gedeelte naar de 2.5" pata disk. Vanwaar die spikes tijdens het copieren naar de zfs pool? Hebben meer mensen hier last van? Tot op heden alleen afp gebruikt omdat mij het daarom gaat.

Ik gebruik de laatste i386 build van freenas (0.7.4336).

Moet zeggen als ik die spikes eruit krijg dat ik dan erg tevreden ben. Dit is 2x zo snel als wat ik met mijn readynas kon halen.
Ik durf het niet met zekerheid te zeggen. Ik weet wel dat 1GB intern heel minimaal is voor ZFS. Het is een echte geheugen vreter. Daarnaast voelt ZFS zich beter thuis in een 64 bit omgeving. Maar dat wordt lastig gezien de nightly builds op dit moment alleen i386 zijn.

Heb je ook andere FS getest i.t.t. ZFS? het is wel handig om uit te sluiten dat het geen andere issue is.

I rather have a bottle in front of me, then a frontal lobotomie


Acties:
  • 0 Henk 'm!

  • lowfi
  • Registratie: Januari 2004
  • Laatst online: 14-09 07:41
De OS pata schijf is gewoon UFS. Dat is zeg maar het tweede gedeelte van de grafiek (zonder spikes). Ik heb niet naar geheugen gebruik gekeken moet ik eerlijk bekennen dat kan ik later nog wel een keer doen. Geheugen kost niet veel meer gelukkig.

Inmiddels heb ik CIFS met zfs heb ik ook getest. Dat is stabieler maar ook veel trager. Denk dat OSX hiervan de schuldige is. Daarin zie ik geen spikes dus denk niet dat geheugen de boosdoener is?

NFS/ftp/etc kan ik natuurlijk ook proberen maar ik probeer het allemaal hetzelfde te houden. Dus afp heeft mijn voorkeur.

Dan zit ik eventueel nog met de netwerk controllers. Leuk dat DIY maar ontzettend veel factoren waar je rekening mee moet houden. Een off the shelf NAS is wat het is ;)

Acties:
  • 0 Henk 'm!

  • libero
  • Registratie: April 2003
  • Laatst online: 11-05 11:16
Ik ben op zoek naar een nas voor onze test omgeving.
Het zal vooral gebruikt worden om vm's op te zetten en wat backups te draaien. performance is redelijk belangrijk, en als het kan ook nfs en iscsi ondersteuning. Een andere voorwaarde is dat het een rackmodel moet zijn.

ik zat te denken aan het volgende.

- RM21508BH-021 http://www.chenbro.com/co...ducts_detail.php?serno=47 333,-
- Seagate Barracuda 7200.11 ST31500341AS, 1.5TB 8x 124,-


nu zit ik nog een beetje in dubio over welk mainbord/cpu en hoeveel geheugen en welke raid controller.

als os denk ik aan openfiler, en misscihen freenas, maa rik geloof dat deze geen iscsi ondersteund.
heeft iemand iets soortgelijks draaien of kan iemand mij een goede tip geven over welk mainbord en raicontroller hiervoor goed zijn.
totale budget is € 1500/2000.

Acties:
  • 0 Henk 'm!

  • MadDog11
  • Registratie: Juni 2001
  • Laatst online: 17:20
iSCSI wordt door FreeNAS ondersteund als doel en tevens kan FreeNAS NFS aan

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Na een tijdje tobben ga ik mijn eigen NAS + ESX server te bouwen, met de volgende spec's (denk ik)

2x Asus M4A78-E mobo
1x Adaptec 1430SA PCIe
4x Western Digital WD10EADS
1x Cooler Master Silent Pro M 500W (esx server)
2x PCIe Intel® PRO/1000 PT Dual Port Server Adapter(EXPI9402PT)
1x Cisco Switch 8 poorts Gbit (Retail, Zilver, SLM2008, Managed, PoE)
1x AMD Phenom™ X4 Quad 9850 (ESX server CPU)
1x AMD Phenom™ X4 Quad 9550 of AMD Athlon™ 64 X2 4850E
(NAS cpu)
1x simple APC UPS zodat bij power outage mijn NAS netjes uit kan gaan.

4gb voor de NAS en 16 gb voor de ESX server


NAS en ESX krijgen 1 "direct link via UTP" en 1 via een switch (rest van het lan)
de cisco switch is leuk "extra-tje"

ik heb nog wat disks rondzwerven die geconsolideerd worden vandaar 6(mobo)+4(raid addon)
rocketraid 15xx/1640 (4x sata PCI (niet als raid gebruikt maar als "extra sata voor mobo)
hotswap bays heb ik genoeg :) 2x4-bays +2x 3bays, maar goed eenmaal data geconsolideerd gaan de extra disks de kast in als "spare" of zet ik ze in als stripe

Is dit een beetje goeie spec? of kan ik beter een andere raidkaart/config kiezen ?


Ik wil FreeBSD (voorkeur) maar mag ook linux zijn dat moet de tests uitwijzen gaan draaien, raid 5 met de disks hoewel ik ook wellicht naar 2 tb wil overstappen. Ik moet disks erbij kunnen doen voor data uitbreiding zonder moeilijke data verschuivingen (OCE?) daarnaast is zuinigheid ook extreem belangrijk (minder watt's is beter)

Daarnaast ga ik de NAS gebruiken om ESX server en een wat PC's te voorzien van ISCSI disks (rom-o-matic?) voor de desktops zoals een media center en workstation te voorzien disk capaciteit. (low end usage hoop ik)

De ESX server word een primair wat productie systemen (2 tot 3 servers ofzo) en de rest als test gebruikt
aantal users is max 4 ik verwacht dat de ESX server 95% zit te idle(n) met alle servers die erop draaien.

Mijn verwachting is dat minimaal 1 tot 2 dvd's tegelijk moeten kunnen streamen, terwijl de esx server gebruikt wordt door 1 a 2 man (geen hoge I/O verwachting bij de ESX server)

Verbeter puntjes zijn altijd welkom :)

Tja vanalles


Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 19:25
Dit schreeuwt "overkill" imho. 2 dvd's streamen is misschien 3MB/sec. 4 users op die ESX bak is waarschijnlijk ook peanuts voor een quad core.

ik zie niet in waarom die 2 bakken niet samengevoed kunnen worden tot 1?
Die NAS heeft geen snelle CPU nodig, en die ESX bak heeft 4 cores dus kan zelf ook wel wat cpu cycles missen voor NAS-functionaliteit.

Je zou nog kunnen overwegen de PRO/1000 PT adapters te vervangen voor CT adapters, die zijn liever voor je stroomrekening.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

P5ycho schreef op maandag 16 februari 2009 @ 08:57:
Dit schreeuwt "overkill" imho. 2 dvd's streamen is misschien 3MB/sec. 4 users op die ESX bak is waarschijnlijk ook peanuts voor een quad core.

ik zie niet in waarom die 2 bakken niet samengevoed kunnen worden tot 1?
Die NAS heeft geen snelle CPU nodig, en die ESX bak heeft 4 cores dus kan zelf ook wel wat cpu cycles missen voor NAS-functionaliteit.

Je zou nog kunnen overwegen de PRO/1000 PT adapters te vervangen voor CT adapters, die zijn liever voor je stroomrekening.
de overkill is primair dat de levensduur wat langer is dan standaard , daarnaast zijn de ESX en NAS kwa mobo uitwisselbaar.. dat de ESX uitvalt . ja jammer de NAS wil ik toch min of meer backup functie kwa hardware hebben. Waar kan ik een beetje uitvinden wat het schilt tussen de 4850 amd of een "recentere" ? cpu .. kwa verbruik

De PT is omdat het dual port is de CT is single daarnaast is de PT ook PCIe wat IMHO de snelheid ten goede komt ..

Denk dat ik 3x 2gb ipb 4x 1gb schijfjes ga doen ..

Tja vanalles


Acties:
  • 0 Henk 'm!

  • remmelt
  • Registratie: Januari 2001
  • Laatst online: 09-04 12:25
Zuinigheid is extreem belangrijk, maar ook nogal kansloos met het genoemde systeem. Dit wordt geen zuinige computer.

Bedenk dat er heel veel mensen zijn die een NAS draaien op een ouwe P3 machine met weinig RAM. Hoe future proof kan je zijn met je NAS? Het ding doet wat het doet, zolang je GB snelheid kan leveren en er genoeg diskruimte in zit, is het toch goed? Eventueel een webserver erbij of itunes of wat dan ook, allemaal helemaal geen punt.
De standaard config is dan de 4850e met een goedkope chipset zoals de 740 en dan schijven eraan hangen. Aan de meeste mATX borden passen wel 5 of 6 SATA schijven, als je software RAID wil draaien zit je dan gebeiteld. Eventueel stop je er dan nog een extra NIC in, maar dat lijkt me ook al overkill, of niet? Is die NIC alleen voor het sneller kunnen overzetten van data tussen de twee machines?

Voor je ESX server zou ik het ook niet precies weten, ik heb geen idee wat dat nodig heeft. Heb je nu al een machine die dat draait?

Acties:
  • 0 Henk 'm!

Verwijderd

Ik ben het eens met P5ycho. Je zit in dikke overkill. Je NAS kan makkelijk bij je ESXI server op. Dan zou ik ook kijken naar een Q9450 of een Phenom 2. Die zijn qua performance per watt een stuk beter dan de phenom. Oh en die processoren kunnen niet eens op dat bord. Die is AM3. AM2 processoren kunnen niet op AM3. AM3 processoren wel op AM2(+).(Tis gewoon een AM2+ bord 8)7 . Neem dus een goedkoop 740G bordje, daar heb jij genoeg aan. Ik denk dat jij beter af bent met een Ph2 920/910/810.

[ Voor 39% gewijzigd door Verwijderd op 16-02-2009 14:37 ]


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Verwijderd schreef op maandag 16 februari 2009 @ 14:09:
Ik ben het eens met P5ycho. Je zit in dikke overkill. Je NAS kan makkelijk bij je ESXI server op. Dan zou ik ook kijken naar een Q9450 of een Phenom 2. Die zijn qua performance per watt een stuk beter dan de phenom.
Weet jij ergens een tabel van cpu versus watt verbruik ??? van amd ? (link)
remmelt schreef op maandag 16 februari 2009 @ 14:03:
Zuinigheid is extreem belangrijk, maar ook nogal kansloos met het genoemde systeem. Dit wordt geen zuinige computer.

Bedenk dat er heel veel mensen zijn die een NAS draaien op een ouwe P3 machine met weinig RAM. Hoe future proof kan je zijn met je NAS? Het ding doet wat het doet, zolang je GB snelheid kan leveren en er genoeg diskruimte in zit, is het toch goed? Eventueel een webserver erbij of itunes of wat dan ook, allemaal helemaal geen punt.
Waar zit de verspilfactor in ?
Ik heb nu een intel p4 met 6 disks op windows 2k3 draaien die lijkt mij meer te zuipen kwa stroom dan de gekozen NAS systeem. (nas draait op BSD/Linux) mits ik het NAS systeem is uitrust met een 4850e CPU
denk ik zo.
Eventueel stop je er dan nog een extra NIC in, maar dat lijkt me ook al overkill, of niet? Is die NIC alleen voor het sneller kunnen overzetten van data tussen de twee machines?

Voor je ESX server zou ik het ook niet precies weten, ik heb geen idee wat dat nodig heeft. Heb je nu al een machine die dat draait?
de Intel PT is puur om een direct link tussen NAS en ESX (minder bandbreedte verbruik over LAN)
en het rest van het lan .. de onboard gebruik ik niet (tenzij dit een PCIe bus on board is)

de ESX server draait "diskless" via ISCSI vanaf het nas, het is in feite niks anders dan een moederbord,cpu,geheugen,kast,voeding wellict een usb-stick of laptop disk als OS disk

ESX spec's ligt natuurlijk wat en hoeveel systemen je wilt gaan draaien, geheugen is kwa prijs peanuts dus max 16 ? ram er maar 16 gb in. CPU kan je alloceren hoeveel mhz je aan een machine toewijst en groeperen (prioriteit ten opzichte van ..groep A versus B) gezien dat 95% van de Operating systemen die ik ga draaien 99,9% uit hun neus eten terwijl "actief" zal het systeem wel redelijk overspect zijn.

De overspec is mooi meegenomen en zeer prettig bij testen, echter ik bespaar al op de volgende punten:

Door 4 fysieke systemen naar 2 systemen te reduceren(esx nas) bespaar ik al op energie doordat ik geen extra voedingen, disks, koeling enzv nodig heb. Windows is zeer inefficient met power management. waar linux(esx)/bsd alleen gebruikt wat het nodig heeft wat energie zuiniger (correct me if I am wrong)
Door het efficienter gebruik van CPU/Memory disk van de combo ESX + nas kan ik dus beter testen / stabieler draaien dan x aantal computers.

Betreft moeder bord is het volgende relevant VGA onboard, USB (ramplank, floppy,usbstick,CD-rom) zowel voor de ESX als voor de NAS is natuurlijk VGA prettig bij recovery of direct access maar verder niet belangrijk de rest kan je remote doen.

ESX en NAS op 1 machine is niet handig, de overspec heb ik lijkt mij veel plezier van bij een online rebuild, consistancy check of andere CPU intensieve taken van de NAS. Daarnaast worden disks groter en zal je naar mijn idee meer plezier van hebben in de toekomst. als ik taken op mijn NAS zou doen dan zijn dat taken die ik zelden gebruik management websitje, anti virus definitie repository,
Maar een win2k3 server die op een NAS draait en niet reageert omdat de CPU ff vet bezig is dat is lastig, trager is wel acceptabeler.

Tja vanalles


Acties:
  • 0 Henk 'm!

Verwijderd

Je denk dat een Quadcore niet een online rebuild kan doen en de rest van je ESX redelijk werkbaar kan houden? I disagree. Je hebt met een snelle quad core zo veel power over. Ik blijf er bij dat je makkelijk alles op een systeem kan draaien.
Weet jij ergens een tabel van cpu versus watt verbruik ??? van amd ? (link)
Bijne elke review laat wel verbruik zien, dus gewoon googlen op Phenom 2 940/910/810 review.

Acties:
  • 0 Henk 'm!

  • remmelt
  • Registratie: Januari 2001
  • Laatst online: 09-04 12:25
vso schreef op maandag 16 februari 2009 @ 15:41:
Waar zit de verspilfactor in ?
Quad cores zijn nooit bedoeld om zuinig te zijn. In de toekomst misschien wel, met nog kleinere architectuur, maar nu is de 4core toch meer gericht op keihard gamen. Als een al voldoet voor een 100Mbit NAS, dan is een 4850 prima voor 1Gb. Waarschijnlijk is een LE1250 ook nog prima.

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

De 4850e wou ik toepassen op de nas met zelfde mobo, echter de quad core is bedoeld voor esx server
4gb voor de nas en 16 gb voor de esx

het gaat me om idle van de quad core ..

mijn huidige file server verbruikt 140watt+ (intel p4 met 6 disks) (meting was met 4 disks)
als ik mijn powermeter kan vinden dan kan ik een nieuwe meting uitvoeren

hmm na wat uitzoek werk zie ik Nieuwe Zuinige Server (discussie) wat jullie bedoelen aan power/usage/overkill
de power consumptie van beide CPU's gaat aantikken, dat betekend dat ik daarop moet gaan onderclocken .

overgens ik zoek een mobo wat 16gb met amd proc aan kan en onboard vga .. (zuiniger is beter)

[ Voor 76% gewijzigd door vso op 16-02-2009 19:06 ]

Tja vanalles


Acties:
  • 0 Henk 'm!

  • lowfi
  • Registratie: Januari 2004
  • Laatst online: 14-09 07:41
Mijn 4850e met 4 1TB disks en een 2.5" pata schijfje gebruikt zon 70watt idle. Mijn niet zelfbouw nas doet 60watt.

De 1Tb disken zijn niet de zuinigste. Het gebruikt bij mij dus iets meer maar ik krijg wat power er voor terug. Handig aangezien ik ook dingen als sabnzbd erop heb draaien :)

Acties:
  • 0 Henk 'm!

Verwijderd

vso schreef op maandag 16 februari 2009 @ 16:57:
De 4850e wou ik toepassen op de nas met zelfde mobo, echter de quad core is bedoeld voor esx server
4gb voor de nas en 16 gb voor de esx

het gaat me om idle van de quad core ..

mijn huidige file server verbruikt 140watt+ (intel p4 met 6 disks) (meting was met 4 disks)
als ik mijn powermeter kan vinden dan kan ik een nieuwe meting uitvoeren

hmm na wat uitzoek werk zie ik Nieuwe Zuinige Server (discussie) wat jullie bedoelen aan power/usage/overkill
de power consumptie van beide CPU's gaat aantikken, dat betekend dat ik daarop moet gaan onderclocken .

overgens ik zoek een mobo wat 16gb met amd proc aan kan en onboard vga .. (zuiniger is beter)
Leg eerst eens goed uit waarom het niet in een server kan?!?! Iedereen hier zegt dat het overkill is zoals je nu doet.

Acties:
  • 0 Henk 'm!

Verwijderd

vso schreef op maandag 16 februari 2009 @ 16:57:
overgens ik zoek een mobo wat 16gb met amd proc aan kan en onboard vga .. (zuiniger is beter)
Zoek eens op newegg.com, met de advanced search.
Wel even de pricewatch gebruiken om de nederlandse prijs erbij te zoeken, scheelt nog wel eens een paar euro.

Acties:
  • 0 Henk 'm!

  • Demo
  • Registratie: Juni 2000
  • Laatst online: 16-09 13:38

Demo

Probleemschietende Tovenaar

lowfi schreef op maandag 16 februari 2009 @ 20:26:
Mijn 4850e met 4 1TB disks en een 2.5" pata schijfje gebruikt zon 70watt idle. Mijn niet zelfbouw nas doet 60watt.

De 1Tb disken zijn niet de zuinigste. Het gebruikt bij mij dus iets meer maar ik krijg wat power er voor terug. Handig aangezien ik ook dingen als sabnzbd erop heb draaien :)
Klinkt hoopvol, heb hier 4x 1TB Greenpower (wel de zuinigste dus :P), een 2,5" SATA schijfje en een Abit 780G bordje liggen, waar ik ook een 4850e in ga drukken. Wat voor NAS is die niet-zelfbouw?

Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Verwijderd schreef op maandag 16 februari 2009 @ 21:22:
[...]


Zoek eens op newegg.com, met de advanced search.
Wel even de pricewatch gebruiken om de nederlandse prijs erbij te zoeken, scheelt nog wel eens een paar euro.
thx, dat zoekt inderdaad wat makkelijker.
Verwijderd schreef op maandag 16 februari 2009 @ 20:42:
[...]

Leg eerst eens goed uit waarom het niet in een server kan?!?! Iedereen hier zegt dat het overkill is zoals je nu doet.
nu ja x aantal mensen iedereen noemen is wel overkil nietwaar ?, je de quote en je vraag matchen niet echt ;)

Tuurlijk kan een NAS + een vorm van VM host het wel in 1 server, als dat is wat je teminste echt bedoelt.. :?
Daarbij cree-er ik direct een single point of faillure zonder spare parts, de ESX server is mijn backup hardware mobo. wat swap hardware en x tijd later ben je weer online

ik vind het overkil om een UPS aan te schaffen voor extra "uptime" echter wel belangrijk vind ik voor een NAS dat deze netjes down gaat zodat er teminste minder kans is op datacorruptie bij poweroutage (de kans is groter dat er een apparaat in huis de stoppen doorslaat dan de eneco)

Overkill
Maar waarom dan de wens om zuiniger en toch "overkil" het is maar wat je realtiveert als overkill ?
Ik ken en kent ze vast ookcollega's die 19"server racks gevuld met zeer power slurpende apparaten, of 5 tot 6 desktop pc's als "server", 1tje iets zuiniger met 6 compaq small formfactor's en dan nog niet de game workstation's meegerekend met dual gpu etc ..

Mijn mening is dat je goed moet nadenken wat wil je ? en daarna hoe bereik ik dat zuinig maar zonder al te veel compromissen te sluiten. (en neem je lessen van het verleden mee)

kwetsbaarheid1
Een server is relatief snel opgetuigd, maar een NAS is vrij kwetsbaar, niet alleen kwa hardware maar ook data integeriteit zelf. de huidige data capicitiet is zo groot dat niet alleen backuppen een probleem is maar ook het terug zetten van die data .. 2 gb aan mp3 was 2 tot 3 cd's backupen en terug zetten.. nu download je maar en kijkt er eigenlijk naar om wanneer je wilt .. totdat het verloren gaat (corruptie ofzo) dan ben je een tijd bezig om het weer terug te krijgen .. een offsite online backup is al intressant genoeg (ander pand niet perse online backup van provider x.y.z)

Tja vanalles


Acties:
  • 0 Henk 'm!

  • lowfi
  • Registratie: Januari 2004
  • Laatst online: 14-09 07:41
Demoniac schreef op maandag 16 februari 2009 @ 22:29:
[...]
Klinkt hoopvol, heb hier 4x 1TB Greenpower (wel de zuinigste dus :P), een 2,5" SATA schijfje en een Abit 780G bordje liggen, waar ik ook een 4850e in ga drukken. Wat voor NAS is die niet-zelfbouw?
Dat is een Netgear Readynas NV+. Een 4 bay met arm cpu.

Mijn seagates slurpen 2x zoveel stroom bij load ivg met die WD's als ik het goed begrijp. Dus jij zal stuk lager uitkomen. Ik vind het niet genoeg om andere disken aan te schaffen. Ik wacht wel tot die 2TBs in prijs dalen ;)

Acties:
  • 0 Henk 'm!

Verwijderd

vso schreef op maandag 16 februari 2009 @ 22:38:

nu ja x aantal mensen iedereen noemen is wel overkil nietwaar ?, je de quote en je vraag matchen niet echt ;)
Nee, is toch iedereen die het er over gehad heeft? :*) Jawel, matchet wel, in zo ver dat het gewoon een vervolg vraag is.
Tuurlijk kan een NAS + een vorm van VM host het wel in 1 server, als dat is wat je teminste echt bedoelt.. :?
Daarbij cree-er ik direct een single point of faillure zonder spare parts, de ESX server is mijn backup hardware mobo. wat swap hardware en x tijd later ben je weer online
Ja dat bedoel ik en dat zou ik je ook aan raden. Dat het een single point van failure is vind ik raar, waarom zou dat een gigantisch probleem zijn. Hangt je inkomen er van af? Ja? Waarom heb je dan geen contract bij Dell? Points of failure hou je altijd, 2 er voor aanschaffen is gewoon overbodig. Ik ga er van uit dat je dit ook gewoon een back up van van maakt als alles zo belangrijk voor je is. Wie weet vliegt dat hele ding in de fik en ben je ook alles kwijt(hell zelf met 2 heb je dan een single point of failure). Stop het in 1 server, de prestaties zullen er niet onder leiden. Je portomonee zal er blij mee zijn en het milieu in de langere termijn ook.
ik vind het overkil om een UPS aan te schaffen voor extra "uptime" echter wel belangrijk vind ik voor een NAS dat deze netjes down gaat zodat er teminste minder kans is op datacorruptie bij poweroutage (de kans is groter dat er een apparaat in huis de stoppen doorslaat dan de eneco)
UPS kan ik nog wel begrijpen.
Overkill
Maar waarom dan de wens om zuiniger en toch "overkil" het is maar wat je realtiveert als overkill ?
Ik ken en kent ze vast ookcollega's die 19"server racks gevuld met zeer power slurpende apparaten, of 5 tot 6 desktop pc's als "server", 1tje iets zuiniger met 6 compaq small formfactor's en dan nog niet de game workstation's meegerekend met dual gpu etc ..
Nee die ken ik niet, en die zal ik ook voor gek verklaren. Zo veel heb je niet nodig of kan berijkt worden met een server. De enige die ik ken die veel verbruiken is iemand die een renderfarm heeft gemaakt(met ouwe AMD XP's) met 10pc's, maar die staat niet 24/7 aan. Alleen als er gerendeerd moet worden.
Mijn mening is dat je goed moet nadenken wat wil je ? en daarna hoe bereik ik dat zuinig maar zonder al te veel compromissen te sluiten. (en neem je lessen van het verleden mee)
Welke compromissen? Dat je in plaats van je hardware dubbel koopt het in een stop zonder veel prestatie in te leveren, maar wel geld en zuinigheid overhoud, dat je dan een single point of failure hebt, die je eigenlijk nog steeds hebt?
kwetsbaarheid1
Een server is relatief snel opgetuigd, maar een NAS is vrij kwetsbaar, niet alleen kwa hardware maar ook data integeriteit zelf. de huidige data capicitiet is zo groot dat niet alleen backuppen een probleem is maar ook het terug zetten van die data .. 2 gb aan mp3 was 2 tot 3 cd's backupen en terug zetten.. nu download je maar en kijkt er eigenlijk naar om wanneer je wilt .. totdat het verloren gaat (corruptie ofzo) dan ben je een tijd bezig om het weer terug te krijgen .. een offsite online backup is al intressant genoeg (ander pand niet perse online backup van provider x.y.z)
Corruptie? Sja met een goed filesystem en de juiste software is corruptie redelijk klein. Dus kwetsbaar, sja... ik vind het mee vallen en dat je het probleem veel groter maakt dan dat het is.

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Verwijderd schreef op maandag 16 februari 2009 @ 23:47:
[...]

Ja dat bedoel ik en dat zou ik je ook aan raden. Dat het een single point van failure is vind ik raar, waarom zou dat een gigantisch probleem zijn. Hangt je inkomen er van af? Ja? Waarom heb je dan geen contract bij Dell? Points of failure hou je altijd, 2 er voor aanschaffen is gewoon overbodig. Ik ga er van uit dat je dit ook gewoon een back up van van maakt als alles zo belangrijk voor je is. Wie weet vliegt dat hele ding in de fik en ben je ook alles kwijt(hell zelf met 2 heb je dan een single point of failure). Stop het in 1 server, de prestaties zullen er niet onder leiden. Je portomonee zal er blij mee zijn en het milieu in de langere termijn ook.
De kans IMHO op brand/diefstal is kleiner dan de kans dat er een hardware storing optreed.
Afgezien dat belangrijke zaken ook secudair offsite gebackupd word. vind ik het zelf een zeer
prettig idee om meer kans te maken bij recoveren van de data op de NAS .. 4 of meer TB is hoe je het went of keert een hoop werk met restoren .. (tijd rovend) als je al op een ander systeem kan restoren (met raid 5 etc) brand/overstroming daarvoor heb ik offsite backup van het belangrijkste (unieke data) en dan heb ik andere dingen aan mijn hoofd dan me daarover druk te maken ...
[...]

Nee die ken ik niet, en die zal ik ook voor gek verklaren. Zo veel heb je niet nodig of kan berijkt worden met een server. De enige die ik ken die veel verbruiken is iemand die een renderfarm heeft gemaakt(met ouwe AMD XP's) met 10pc's, maar die staat niet 24/7 aan. Alleen als er gerendeerd moet worden.
Ik krijg daarnaast de indruk dat je niet echt veel kennis hebt als het gaat om ICT,
je kan een server wel belasten met veel taken, maar je ondermijnt eigenlijk jezelf.
Koop je een kant en klaar product (Qnap) dan is alles redelijk getest en werking toch 75% gegarandeerd. met een DIY nas hoe meer je "veranderd c.q. toevoeginen" hoe meer kans dat je server omvalt. En slechtere prestaties of erger als gevolg.
3 tot 4 tb aan mp3/film/natuurkiekjes wat je wellicht helpt is toch veel tijd om dat weer terug te vinden in oude staat, dat bouw je niet in 2 dagen ook jij bent selectief
Niet alle software vind elkaar even "lief" en draait liever apart. Daarnaast heb je ook nog "best practice" waarom denk je dat bedrijven aparte servers of dedictated hardware hebben ? zelden gaat het om capaciteit (behalve data dat is altijd tekort) 90% doet idlen. als je een leuke outage mee maakt dan zie je het nut van redundancy.


Voor mij is esx daarnaast ook een studie/test middel kan ik lekker testen zonder de overige productie (zaken die stabiel moeten blijven) onderuit hoef of kan(per ongeluk) halen
Welke compromissen? Dat je in plaats van je hardware dubbel koopt het in een stop zonder veel prestatie in te leveren, maar wel geld en zuinigheid overhoud, dat je dan een single point of failure hebt, die je eigenlijk nog steeds hebt?
oke stel je het volgende voor: Graag zou ik een 19" server rek willen hebben met heel veel data opslag UPS en server cappaciteit met T1 lijn. Helaas laat mijn partner dat thuis nu niet toe (erg he?) om 1 of andere reden wil zij en mijn dochter ook leuke dingen doen en eten + kleding .. Nu daarin zal ik dus een compromis moeten sluiten. NAS + esx + adsl lijn * vso happy ! en als ik meer geld per maand over houd wegens redelijk zuinige stroom verbruik * vso happier en ik ook nog naar de duure efteling met familie kan gaan en die dames kleding
Corruptie? Sja met een goed filesystem en de juiste software is corruptie redelijk klein. Dus kwetsbaar, sja... ik vind het mee vallen en dat je het probleem veel groter maakt dan dat het is.
nogmaals je zal het maar kwijt zijn doordat je niet "best practice" gevolgd hebt want meestal kom je er te laat achter dat je data corrupt is en als je pech hebt is je backup ook nog eens "kapot" en dan geef ik echt niet om die data die wereldwijd gedeelt word op 1 of andere manier. Maar data dat niet meer terug te halen is bv foto's/documenten andere unieke meuk

ik heb zelf een keer ondervonden wat unieke digitale data te verliezen, had wel wat backups maar niet alles en er zaten juis hele leuke herrineringen tussen. kostbare maar prijsloze les en de backup media loopt altijd achter de hoeveel data die jij persoonlijk zeker als je een partner + kind(eren) hebt.

ik heb zelf online backup + ik brand regelmatig toch zeer belangijke data op DVD en sla dat op bij familie en af en toe wat steek proeven .. of de data inderdaad nog te lezen is..

bij brand/diefstal wil ik ieder geval het meeste nog terug kunnen halen aan herrinerringen dat is ook mijn grens .. ooit wel eens bij stil gestaan waar jij treurig van word ? als unieke data voorgoed weg is ? wanneer is het nog redelijk ? en wat is ECHT belangrijk ?

[ Voor 13% gewijzigd door vso op 17-02-2009 03:07 . Reden: wanneer is data corruptie belangrijk ]

Tja vanalles


Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 19:25
Ik snap nooit naar dat verlangen om thuis een 19" rack te hebben staan. Je schiet er gewoon geen f*ck mee op, het kost je alleen maar geld.
Je kunt thuis gewoon niet de environment van een degelijk datacenter recreeren. Nabootsen, hooguit.

Ik heb net mijn nieuwe NAS af, met FreeBSD/ZFS als OS/bestandssysteem.
code:
1
2
3
4
5
6
7
8
9
10
Specs:
AMD X2 5050e
Biostar 740 plank
4GB kingston valueram
PicoPSU
2GB CF kaartje
2x 1TB WD Green (WD10EADS)
Intel CT PCIe NIC
Intel 2915 miniPCI WIFI kaartje in converter
een APC 750 UPS ding


Totaal verbruik idle: 40W aan de muur, zonder UPS.
CPU draait op standaard voltage, powernow.
HD's spinnen altijd.

Ik heb een core2duo in Amsterdam hangen, colocated, als fatsoenlijke hosting environment. Das voor al mijn zakelijke zooi, en dat wil ik gewoon degelijk en voor mekaar hebben. Dat ga ik dus niet thuis neerzetten, want:
  • ADSL heeft geen degelijke uptime guarantee
  • Eneco heeft geen degelijke uptime guarantee
  • het gebouw (mijn flat) heeft geen degelijke brandblusserinstallatie, behalve de brandweer die er geheid een flinke slang tegenaan zet
  • etc. etc. snap je mijn punt? :)
Al mijn belangrijke data (documenten, foto's, etc) mik ik op amazon S3 als backup.

Ik ben benieuwd wat al jouw belangrijke data inhoudt. Als het alleen maar persoonlijke documenten zijn, waarom dan zo gigantisch uitpakken als het ook lekker simpel kan.

Nu moet ik vooraf even vermelden dat ik niet thuis ben in ESX servers, maar ik neem aan dat ESX aardig gelijk is aan Xen. Waarom dan niet:
ipv. mijn systeem een bak bouwen met wat aangepaste specs voor ESX. ESX wil van alles zoveel mogelijk, maar ik neem aan dat veel geheugen en een goed disk subsystem je de meeste voordelen gaat opleveren. Ik zou dan bouwen:
code:
1
2
3
4
5
6
Phenom X3/X4 CPU (wat in je budget past, iig <95W spec)
740/760/780 plank met 4 sloten, voor 4x2=8GB ECC ram. 4x4GB kan ook, maar das aan de prijs.
Areca SATA/SAS controller met flink wat cache (in het 16x PCI slot)
6x 1TB WD Green oid, veel spindels iig, en genoeg storage voor je NAS. In RAID6.
Een degelijke 80plus voeding (Seasonic oid)
Een Gbit netwerkkaartje, je hebt geen dual kaart meer nodig omdat je je NAS samenvoegt met je ESX bak. Neem daarom een Intel CT. PCIe x1 of x4 maakt niets uit en al die offloading features hebben ze ook allemaal.


Je NAS kun je dan opzetten als ESX virtual machine oid, en voor mijn part via iSCSI de boel delen met alle andere ESX machines. Heb je toch nog je NAS als aparte machine ;)

Doe niet al teveel je best om single point of failures uit te roeien, dat gaat je toch niet lukken. Stel je neemt internet via de kabel en een zakelijk abo adsl, regelt een dikke UPS die de boel een half uur up kan houden, legt van elk stuk hardware een 2de op de plank nieuw in doos, en test uitgebreid elk rampscenario dat maar voor kan komen betreffende hardware failure of software failure, dan NOG zit je met dingen die je niet kunt regelen als brandpreventie enzo.
Dus: laat die profhosting@home toch lekker zitten en doe het OF simpel, OF helemaal goed en hang het in een datacenter.

Wat een verhaal weer, lol.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

Verwijderd

Dat was nu precies wat ik hem ook duidelijk probeerde te maken. :Y)

[ Voor 86% gewijzigd door Verwijderd op 17-02-2009 11:30 ]


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

P5ycho schreef op dinsdag 17 februari 2009 @ 11:12:
Ik snap nooit naar dat verlangen om thuis een 19" rack te hebben staan. Je schiet er gewoon geen f*ck mee op, het kost je alleen maar geld.
Je kunt thuis gewoon niet de environment van een degelijk datacenter recreeren. Nabootsen, hooguit.

[knip]
Daar ben ik helemaal mee eens.

Eigenlijk voor VM clients is RAM de belangrijkste factor, 16 gb = 2gb/16gb = 8 hosts en afhankelijk van de I/O die ze produceren is het meer of minder clients mogelijk

leuke Nas heb je zeer efficient ik zou al tevreden zijn met een 80w Nas

je voorbeeld "combi-nas" met 8 gb hou je 6 gb effectief over voor "hosts" in een gustig geval en kan je dus 3 tot 4 hosts kwijt. Te weinig speel ruimte voor mij (well handig als "failover")

jij kiest je CoLo zo te zien om hele specifieke redenen, snelheid en stabiliteit + veiligheid.
ik vind de risico's wel aanvaardbaar genoeg om dat niet te doen. online backup + dvd storage vind ik meer dan veilig zat. is maar 10,- per maand (inc dvd's) en online is dat ik te lui ben om wekelijks dvd's te branden

Ik kies echt voor een stabiele DIY nas die snel is + zuinig (in die volgorde) hoe sneller hoe minder zuinig ..
stabiel is niet x.y.z aan extra "diensten"

De nas zal 100% zeker 24/7 draaien de ESX dunno kan ook de nieuwe desktop worden en een huidige desktop als ESX.

Tja vanalles


Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 19:25
Goed, ik heb je bijna om zie ik, nog wat laatste opmerkingen ;)
vso schreef op dinsdag 17 februari 2009 @ 12:44:
Eigenlijk voor VM clients is RAM de belangrijkste factor, 16 gb = 2gb/16gb = 8 hosts en afhankelijk van de I/O die ze produceren is het meer of minder clients mogelijk
je voorbeeld "combi-nas" met 8 gb hou je 6 gb effectief over voor "hosts" in een gustig geval en kan je dus 3 tot 4 hosts kwijt. Te weinig speel ruimte voor mij (well handig als "failover")
Bijna elk plankje ondersteunt ook 4x4GB, dus dat hoef je niet te laten. Heb je 14Gb over voor clients, en evt. 12GB als je een VM NAS bouwt.
leuke Nas heb je zeer efficient ik zou al tevreden zijn met een 80w Nas
Als je de boel combineert ben je met 100W klaar gok ik. Kun je nog een keer extra naar de efteling ;)

[quote[jij kiest je CoLo zo te zien om hele specifieke redenen, snelheid en stabiliteit + veiligheid.
ik vind de risico's wel aanvaardbaar genoeg om dat niet te doen. online backup + dvd storage vind ik meer dan veilig zat. is maar 10,- per maand (inc dvd's) en online is dat ik te lui ben om wekelijks dvd's te branden [/quote]
Vergeet niet de tijd die je in die DVD backups moet steken, dat kost meer dan 10 euro imho.
Ik kies echt voor een stabiele DIY nas die snel is + zuinig (in die volgorde) hoe sneller hoe minder zuinig ..
stabiel is niet x.y.z aan extra "diensten"
Daar ben ik het niet mee eens. Als je je NAS als een VM maakt heeft hij geen extra diensten. een VM is net zo betrouwbaar als zijn onderliggende hardware, dus net zo effectief als een standalone systeem. Ik weet niet hoe ESX werkt dus weet niet of het mogelijk is om de NAS gewoon in de "Dom0" te draaien, dat zou ook nog een optie zijn.
De nas zal 100% zeker 24/7 draaien de ESX dunno kan ook de nieuwe desktop worden en een huidige desktop als ESX.
het ESX gebeuren is dus puur een speeltje voor je, waar geen produktiespul op komt te draaien? dan zou ik die aparte server meteen weglaten. Ik doe ook veel met VM's, maar dat doe ik gewoon op de laptop waar ik nu op zit te tikken. Is maar een C2D 1.6 met 4GB ram, maar ik heb nooit trage VM's. Enige wat kut is is dat een laptop niet zoveel I/O's kan verzetten per sec. Daar zou ik van m'n leven geen aparte bak voor aanschaffen.

De grote vraag is nu: Wil je gewoon graag die hardware omdat je het mooi vindt en kan stroomverbruik je niet zoveel schelen, of weet je in je achterhoofd ook wel dat je die hardware nooit volledig gaat benutten en is het vooral 'voor de heb' en 'omdat het kan' ? Of, heb je het daadwerkelijk nodig omdat je het anders gewoon niet redt met je beoogd gebruik?

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • 8-Ball
  • Registratie: Juni 2002
  • Laatst online: 14-11-2023

8-Ball

nee...gewoon nee

Heren,

ik heb jullie hulp nodig mbt een NAS systeem. Ik zal eerst een kleine uitleg geven van de situatie.
Ik ben student in Delft, studeer aan de TU, en heb de nodige computer kennis. Ik heb meerdere computers voor huisgenoten samengesteld en gebouwd.
Aangezien ik met 14 mannen in 1 huis woon, en we allemaal wel van een flimpje houden, hebben we nu een NAS van 1TB. Die is al een best oud, en was toen echt erg prijzig. Deze NAS is langzamerhand toch echt vol.

Aangezien we arme studenten zijn, zijn we nu opzoek naar een goedkope oplossing om meer, veel meer, opslag ruimte te krijgen.
Er zijn meerdere opties.
-De huidige NAS upgraden met 4xHDD. NAS heeft nu 4x250gb
-De huidige AMD huiskamer computer vol stoppen met HDDs. Deze PC wordt gebruikt om films te kijken op de TV, en financiele dingen bij te houden.
-Mijn oude PC. (K8V-SE, 3200+64x) ombouwen tot NAS.
-Nieuwe Budget PC bouwen voor NAS.

Ik weet dat al deze opties sowieso de HDDs gekocht moeten worden, maar welke raden jullie aan?

De NAS moet 99%uptime hebben, en zo min mogelijk onderhoud.
Encryptie of data behoud zijn geen prioriteiten. Vooral veel opslag.

Bvd,
Pim

One for the mony, one for the pope, it's the ****** return of the great white dope


Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 19:25
als je huidige nas qua performance nog voldoet en met SATA is uitgerust: even wat WD Green 1 of 2TB schijven scoren, klaar.
Een andere optie is een bak bouwen met FreeNAS erop ofzo.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • remmelt
  • Registratie: Januari 2001
  • Laatst online: 09-04 12:25
Als je oude PC snel genoeg is voor GB ethernet en niet teveel stroom kost, is dat een mogelijkheid. Er past 4x SATA op dat bord, daar kan je 4x1TB schijven aanhangen. Linux erop, JBOD die schijven en je hebt 4TB opslagruimte.

Aan de andere kant, die schijven kan je ook in je NAS hangen en die is waarschijnlijk zuiniger. Als 'ie snel genoeg is voor wat je ermee doet, is dat de goedkoopste optie. Ik weet niet wat voor NAS het is, maar als 'ie duur was, heeft 'ie misschien ook wel de mogelijkheid je oude data over te zetten.

Acties:
  • 0 Henk 'm!

  • 8-Ball
  • Registratie: Juni 2002
  • Laatst online: 14-11-2023

8-Ball

nee...gewoon nee

Dankje voor de reacties,

ben op het moment op mijn werk en weet de specs van de NAS niet. Ik heb hem zelf niet gekocht, een huisgenoot heeft hem 'ingebracht'. Hij was vooral duur, omdat 1TB gewoon erg veel was. Data overzetten moet nu geen probleem zijn aangezien er genoeg externe TB's in het huis rond slingeren :)

We hebben trouwens ook nog een P3 mail server draaien, maar die is denk ik echt te oud om mee te doen.

Nog steeds niet echt een keuze kunnen maken.
Wat is de prijs voor een kleine AMD/mATX DIY. 200e zonder HDDs?

One for the mony, one for the pope, it's the ****** return of the great white dope


Acties:
  • 0 Henk 'm!

  • lowfi
  • Registratie: Januari 2004
  • Laatst online: 14-09 07:41
jetway nc62k kost 100 euro (mini itx)
een cpu iets van 50 a 60 (boxed 2.5 dual core)
geheugen 10 tot 20

het kan nog goedkoper. Single core amd 35 euro en een minder uitgebreid moederbordje....

Acties:
  • 0 Henk 'm!

Verwijderd


Acties:
  • 0 Henk 'm!

  • libero
  • Registratie: April 2003
  • Laatst online: 11-05 11:16
omdat het toch niet haalbaar blijkt om voor 1500 een 2u nas in elkaar te zetten, bedacht ik me dat ik nog ergens een HPdl380 g3 heb slingeren.

zou het mogelijk zijn om het mainbord+ cpu + geheugen over te zetten in een chenbro 2 u kast, dan een raidcontrollertje + 8 disks te kopen en dan openfiler/freenas er op te zetten? of gaat dit niet passen ?

de DL380 heeft wel 6 disksloten maar volgens mij is dit alleen scsi, en dan word het alsnog een beetje duur.

Acties:
  • 0 Henk 'm!

  • twiekert
  • Registratie: Februari 2001
  • Laatst online: 30-08 11:55
Gaat echt niet passen. is een custom moederbord met allerlei geintegreerde connectoren voor voeding, ventilators, hotswap bays etc. Het is ook geen standaard formaat dus schroefgaten zullen ook niet kloppen.

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

P5ycho schreef op dinsdag 17 februari 2009 @ 13:41:
Goed, ik heb je bijna om zie ik, nog wat laatste opmerkingen ;)
LOL :D
Als je de boel combineert ben je met 100W klaar gok ik. Kun je nog een keer extra naar de efteling ;)
[...]
Vergeet niet de tijd die je in die DVD backups moet steken, dat kost meer dan 10 euro imho.
100w ? alles bij elkaar ? hoe reken je dat dan ? hoeveel Watt's "verbruikt" ram eigenlijk ?
welke hardware kies je dan ? (oftewel welke spec's denk je aan)

ach dvd's zijn ook meer extra zekerheid, mijn digitale home movies vreten snel online backup ruimte dus heb ik die gekozen om op dvd eens in de zoveel tijd te branden, alleen het hele belangrijke meuk zet ik 3triple weg. de tijd die ik in dvd's backup maken steek vind ik persoonlijk geen verspeelde tijd (mijn mening) als je het overkil vind dan ben ik niet beledigd ;)
Daar ben ik het niet mee eens. Als je je NAS als een VM maakt heeft hij geen extra diensten. een VM is net zo betrouwbaar als zijn onderliggende hardware, dus net zo effectief als een standalone systeem. Ik weet niet hoe ESX werkt dus weet niet of het mogelijk is om de NAS gewoon in de "Dom0" te draaien, dat zou ook nog een optie zijn.
ESX moet standalone draaien direct op de hardware (eigen custom OS) zou het in xen kunnen draaien dan wordt het OS--> xen --> esx --> client OS.
ESX heeft een zeer beperte Certified Hardware Compatiblity list:
CPU met Intel-VT of AMD-V (virtualisatie techniek)
intel(pre) of 3com nic
geen IDE/(s/p)ata mogelijk om VM's op te draaien dus (I)SCSI wel OS vanaf IDE disks (volgens mij)
ESX heeft ook nog een VM nodig voor management

voor VM machines is tegenwoordig I/O meestal de bottlenek CPU/RAM is de bandbreedte voldoende.
Enige nadeel dat VMware heeft is dat je heel beperkt bent met grafisch geweld(2mb video kaartje virtueel zover ik weet), MacOS heeft een eigen vm oplossing die al veel beter is op grafisch gebied. ik weet niet hoe de grafische mogelijkheden zijn van Xen of andere producten.
het ESX gebeuren is dus puur een speeltje voor je, waar geen produktiespul op komt te draaien? dan zou ik die aparte server meteen weglaten. Ik doe ook veel met VM's, maar dat doe ik gewoon op de laptop waar ik nu op zit te tikken. Is maar een C2D 1.6 met 4GB ram, maar ik heb nooit trage VM's. Enige wat kut is is dat een laptop niet zoveel I/O's kan verzetten per sec. Daar zou ik van m'n leven geen aparte bak voor aanschaffen.
ESX is 50/50 een productie/speeltje uitleg:
ik heb wat productie servers die ik inderdaad naar VM wil zetten, zijn die CPU en I/O intensief ?.. soms wel soms niet een p4 met 1,5 gb ram staat soms vet CPU I/O verkeer te generen en taxt het systeem behoorlijk
de rest moet redelijk beschikbaar zijn, downtime is acceptabel echter datacorruptie/virus/data verlies Niet.
NAS met een vm oplossing erop is alleen als "backup" (nood)
Het is een 1 mans zaak waarvoor ik de IT doe, en die zaak sponsert mijn Investering in deze hardware :) elektra rekening word broekzak/vestzak gesponsord.

Tja de "overkill" is test/speel/studie meuk zolang het productie gedeelte maar gegarandeerd blijft.
De grote vraag is nu: Wil je gewoon graag die hardware omdat je het mooi vindt en kan stroomverbruik je niet zoveel schelen, of weet je in je achterhoofd ook wel dat je die hardware nooit volledig gaat benutten en is het vooral 'voor de heb' en 'omdat het kan' ? Of, heb je het daadwerkelijk nodig omdat je het anders gewoon niet redt met je beoogd gebruik?
belangrijkste is dat de ESX in Idle staat zo minimaal mogelijk stroom verbruikt, maar wel genoeg spec heeft om 3 jaar overeind te staan. ik heb liever dat ik de boel onderclock/voltage etc om dat doel te bereiken.
Dan dat ik over 1,5 jaar nieuwe apparatuur ofzo erbij moet kopen

een 4850e voor nas + green HD's is wellicht de beste voor nas, echter pci expres nic PCIe 4x + addon sata (16x PCIe) is wel vereist voor performance upgrade voor I/O en dat is dan geen 780 mobo
voor esx kom je ook niet weg met pci based netwerk verkeer PCIe bus wil je wel hebben, extra voordeel is dat als er een mobo defect optreed in nas dat de esx --> nas wordt en de desktop tijdelijk als esx kan fungeren


Daarnaast lijkt het me leuk als de NAS het trekt om alle workstation/mediacenter Disks te vervangen door ISCSI/AoE via NAS

Tja vanalles


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

libero schreef op dinsdag 17 februari 2009 @ 19:03:
omdat het toch niet haalbaar blijkt om voor 1500 een 2u nas in elkaar te zetten, bedacht ik me dat ik nog ergens een HPdl380 g3 heb slingeren.

zou het mogelijk zijn om het mainbord+ cpu + geheugen over te zetten in een chenbro 2 u kast, dan een raidcontrollertje + 8 disks te kopen en dan openfiler/freenas er op te zetten? of gaat dit niet passen ?

de DL380 heeft wel 6 disksloten maar volgens mij is dit alleen scsi, en dan word het alsnog een beetje duur.
voorwaarde is dat de huidge 6x disksloten wel 5,1/4"compatible is zodat je hotswap bays kan toevoegen

2x een hotswap(4x) van 99,-
voeding van 185 (ga uit dat deze past ?)

Enige is wel dremel werk en dan nog eventueel extra sata "splitters" indien de bay's niet kunnen splitsen ..

Ik denk dat je wellicht met WD green HD's wat voorzichtiger aan wilt doen (2tb).. 229, per disk ongeveer

Maar freenas/openfiler zal best wel OCE (Online Capicity Expansion) hebben zodat wanneer je een extra disk nodig hebt die er gewoon bij kan proppen en dan wat instant addon space hebt.. zonder moeilijke doe met data verschuiven enzv ..

is die 19"overgens voor thuis ?

[ Voor 6% gewijzigd door vso op 17-02-2009 20:47 . Reden: voorwaarde toegevoegd ]

Tja vanalles


Acties:
  • 0 Henk 'm!

  • libero
  • Registratie: April 2003
  • Laatst online: 11-05 11:16
vso schreef op dinsdag 17 februari 2009 @ 20:44:
[...]

voorwaarde is dat de huidge 6x disksloten wel 5,1/4"compatible is zodat je hotswap bays kan toevoegen

2x een hotswap(4x) van 99,-
voeding van 185 (ga uit dat deze past ?)

Enige is wel dremel werk en dan nog eventueel extra sata "splitters" indien de bay's niet kunnen splitsen ..

Ik denk dat je wellicht met WD green HD's wat voorzichtiger aan wilt doen (2tb).. 229, per disk ongeveer

Maar freenas/openfiler zal best wel OCE (Online Capicity Expansion) hebben zodat wanneer je een extra disk nodig hebt die er gewoon bij kan proppen en dan wat instant addon space hebt.. zonder moeilijke doe met data verschuiven enzv ..

is die 19"overgens voor thuis ?
even kijken ik kan je niet helemaal volgen...
bedoel je nou dat ik die dl380 als kast ook kan hergebruiken? of bedoel je mainbord, cpu en mem hergebruiken in chenbro kast ?

ik vraag me ook af of dat mainbord (volgens mij een ServerWorks GC -LE Chipset) wel 2 tb disken wil zien...

het is voor backupdoeleinden, semi zakelijk. en een beetje test

Acties:
  • 0 Henk 'm!

  • twiekert
  • Registratie: Februari 2001
  • Laatst online: 30-08 11:55
Dit is een DL380 G3:
Afbeeldingslocatie: http://h18004.www1.hp.com/solutions/enterprise/highavailability/dl380/images/inside-racked.jpg

Dat ga je never nooit in een andere kast krijgen. Er zitten vrijwel geen kabels in dat ding. Alles is precies op maat geplaatst en uitgepast, hotswap voeding, drive bay aansluitingen, pci-x cage, ventilators etc.

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

libero schreef op dinsdag 17 februari 2009 @ 21:09:
even kijken ik kan je niet helemaal volgen...
bedoel je nou dat ik die dl380 als kast ook kan hergebruiken? of bedoel je mainbord, cpu en mem hergebruiken in chenbro kast ?

ik vraag me ook af of dat mainbord (volgens mij een ServerWorks GC -LE Chipset) wel 2 tb disken wil zien...

het is voor backupdoeleinden, semi zakelijk. en een beetje test
ik d8 dat je het een nieuwe indeling wou maken in die kast, eigen mobo etc
twiekert schreef op dinsdag 17 februari 2009 @ 22:59:
Dit is een DL380 G3:
[afbeelding]

Dat ga je never nooit in een andere kast krijgen. Er zitten vrijwel geen kabels in dat ding. Alles is precies op maat geplaatst en uitgepast, hotswap voeding, drive bay aansluitingen, pci-x cage, ventilators etc.
zeg nooit nooit :) maar het is wel een grote uitdaging ..

Tja vanalles


Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 19:25
vso schreef op dinsdag 17 februari 2009 @ 20:30:
[...]
een 4850e voor nas + green HD's is wellicht de beste voor nas, echter pci expres nic PCIe 4x + addon sata (16x PCIe) is wel vereist voor performance upgrade voor I/O en dat is dan geen 780 mobo
voor esx kom je ook niet weg met pci based netwerk verkeer PCIe bus wil je wel hebben, extra voordeel is dat als er een mobo defect optreed in nas dat de esx --> nas wordt en de desktop tijdelijk als esx kan fungeren

Daarnaast lijkt het me leuk als de NAS het trekt om alle workstation/mediacenter Disks te vervangen door ISCSI/AoE via NAS
een enkele PCIe lane doet al 250MB/s full duplex, dus zelfs een dual channel PCIe x4 kaart kan op PCIe x1 nagenoeg full speed lopen. Misschien dat je wel even het einde van het PCIe slot weg moet vijlen, zodat het ook fysiek past. Niet alle moederborden hebben open-ended PCIe sloten helaas.

Die NAS van je kan zeker wel heel je huis van data voorzien, een DVDtje streamen is echt peanuts voor zo'n ding.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • lowfi
  • Registratie: Januari 2004
  • Laatst online: 14-09 07:41
Ik haal met een pci nic zon 55 a 60MB/s vanaf een oudere maxtor 250GB. De pci-e nic wordt in freebsd nog niet goed ondersteunt lijkt wel (zie: lowfi in "Het grote DIY RAID NAS topic deel 2").

Met linux (openfiler) schijn je meer te kunnen halen maar de setup daarvan vind ik onnodig gecompliceerd :P Freenas is 3x klikken en de boelt werkt.

Acties:
  • 0 Henk 'm!

  • libero
  • Registratie: April 2003
  • Laatst online: 11-05 11:16
twiekert schreef op dinsdag 17 februari 2009 @ 22:59:
Dit is een DL380 G3:
[afbeelding]

Dat ga je never nooit in een andere kast krijgen. Er zitten vrijwel geen kabels in dat ding. Alles is precies op maat geplaatst en uitgepast, hotswap voeding, drive bay aansluitingen, pci-x cage, ventilators etc.
ok het verhaal om een dl380 aan te passen, laten we maar voor wat het is.

Het budget mag iets omhoog, naar 200/2500€, en hij zal vooral als backup doel dienen. en snelheid is best belangrijk, we hadden hiervoor eerst een synoly 407e maar deze kon niet echt veel backuppen in een nacht.

Dit is mn voorlopige boodschappenlijstje:
Areca ARC-1220 (V2)(8x SATA300 RAI... € 425,- € 425,-
Chenbro RM21508BH-021 € 333,96 € 333,96
Seagate Barracuda 7200.11 ST3150034... € 122,55 € 490,20
Supermicro PDSMi-LN4+ € 261,06 € 261,06
€ 1.510,22



nu heb ik nog geheugen en een cpu nodig, maar ik vraag me ook erg af waar mijn bottleneck gaat zitten, is dat mn raidcontroller of disken zelf, of misschien toch gigabit netwerk?
waar zou ik het beste mijn geld in kunnen stoppen? of heb ik voor sata schijven helemaal geen raid controller nodig?

[ Voor 6% gewijzigd door libero op 18-02-2009 15:41 ]


Acties:
  • 0 Henk 'm!

  • twiekert
  • Registratie: Februari 2001
  • Laatst online: 30-08 11:55
Bottleneck zal in de disken gaan zitten, en dan voornamelijk read performance. De cache op die areca kan prima writes opvangen. Hangt erg af hoe er van die disks gelezen gaat worden. Als dat veel sequentiele lees acties zijn dan trek je 1 zo'n disk al met 70-80MB per stuk leeg. als dat veel random reads zijn dan zakt die snelheid gigantisch in.

In dit geval zou ik zelf voor zo groot mogelijke en zoveel mogelijk disks gaan in een raid 5 array.

WD2 TB disks en dan 4 stuks, effectief zo'n 5.5 TB. De netwerkperformance van dat moederbord zal echt prima zijn, zijn intel pci-e gigabit controllers.

CPU speed heb je niet nodig alles +-dual core 2 ghz is echt genoeg, of je moet nog allerlei extra apps gaan draaien. 4GB geheugen erin, meer dan zat. Eventueel ECC geheugen.

Hoe je die data gaat benaderen is natuurlijk ook belangrijk, ISCSI is natuurlijk het snelst, FTP is ook echt prima om files over te zetten. verwacht van SMB (windows file sharing) niet te veel. veel meer dan 70MB p/s zal je hier niet mee halen.

Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 19:25
lowfi schreef op woensdag 18 februari 2009 @ 09:53:
Ik haal met een pci nic zon 55 a 60MB/s vanaf een oudere maxtor 250GB. De pci-e nic wordt in freebsd nog niet goed ondersteunt lijkt wel (zie: lowfi in "Het grote DIY RAID NAS topic deel 2").

Met linux (openfiler) schijn je meer te kunnen halen maar de setup daarvan vind ik onnodig gecompliceerd :P Freenas is 3x klikken en de boelt werkt.
Niet goed ondersteund? Ho even, een paar opmerkingen:
  • Je test met een oude maxtor disk
  • Je gebruikt ZFS, is experimental onder FreeBSD
  • Een gemiddelde oude maxtor disk kan geen Gbit netwerk voltrekken omdat zo'n schijf nooit aan de 125MB/s kan komen.
  • je geeft niet aan welke protocollen je gebruikt (ftp, samba, nfs, etc)
Ik vind dat je het dan niet op de NIC of op FreeBSD's support kunt afschuiven.

[ Voor 4% gewijzigd door P5ycho op 18-02-2009 16:41 ]

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • lowfi
  • Registratie: Januari 2004
  • Laatst online: 14-09 07:41
Heb je op mijn link geklikt? ;) Het gaat mij om die spikes. Daarin staat trouwens ook dat ik AFP gebruik ;)

Op dat moederbord zitten 2 nics. 1 pci & 1 pci-e. Als ik de pci-e gebruik dan zie ik in de verder dus precies dezelfde setup spikes. Gebruik ik de pci nic dan zie ik geen spikes en is de doorvoer van de inderdaad trage maxtor toch heel behoorlijk 50a60MB/s

Ik klaag verder ook niet maar ik denk dat het daarom dus niet verkeerd is om te denken dat of de (pci-e) nic gaar is of de ondersteuning daarvan.

Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 19:25
Ik ben geen apple gebruiker, wist niet eens dat er zoiets als apple filing protocol bestond. my bad.
Wat voor NICs zijn het? Als het realteks zijn, tsjah, dan zijn ze inderdaad slecht gesupport. Realtek doet er zelf niets aan namelijk.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • libero
  • Registratie: April 2003
  • Laatst online: 11-05 11:16
twiekert schreef op woensdag 18 februari 2009 @ 15:59:
Bottleneck zal in de disken gaan zitten, en dan voornamelijk read performance. De cache op die areca kan prima writes opvangen. Hangt erg af hoe er van die disks gelezen gaat worden. Als dat veel sequentiele lees acties zijn dan trek je 1 zo'n disk al met 70-80MB per stuk leeg. als dat veel random reads zijn dan zakt die snelheid gigantisch in.

In dit geval zou ik zelf voor zo groot mogelijke en zoveel mogelijk disks gaan in een raid 5 array.

WD2 TB disks en dan 4 stuks, effectief zo'n 5.5 TB. De netwerkperformance van dat moederbord zal echt prima zijn, zijn intel pci-e gigabit controllers.

CPU speed heb je niet nodig alles +-dual core 2 ghz is echt genoeg, of je moet nog allerlei extra apps gaan draaien. 4GB geheugen erin, meer dan zat. Eventueel ECC geheugen.

Hoe je die data gaat benaderen is natuurlijk ook belangrijk, ISCSI is natuurlijk het snelst, FTP is ook echt prima om files over te zetten. verwacht van SMB (windows file sharing) niet te veel. veel meer dan 70MB p/s zal je hier niet mee halen.
bedankt voor je verhaal!

Enig idee wat ik ongeveer kan verwachten aan write snelheid?
Het ding gaat dus gebruikt worden om backups weg te zetten, en zal worden verbonden via iscsi aan een microsoft data protection server, ik wil even een indicatie hebben van wat ik weg kan schrijven naar bovenstaande configuratie in een nacht..

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

lowfi schreef op woensdag 18 februari 2009 @ 09:53:
Ik haal met een pci nic zon 55 a 60MB/s vanaf een oudere maxtor 250GB. De pci-e nic wordt in freebsd nog niet goed ondersteunt lijkt wel (zie: lowfi in "Het grote DIY RAID NAS topic deel 2").

Met linux (openfiler) schijn je meer te kunnen halen maar de setup daarvan vind ik onnodig gecompliceerd :P Freenas is 3x klikken en de boelt werkt.
Welk type PCIe Nic heb je (brand chipset?)

Freebsd ondersteund redelijk wat chipsets IMHO en daarnaast is de FreeBSD tcp/IP stack zo ver ik weet 1 van de (zo niet DE) schoonste en snelste TCP/IP stack

Voor mijn Intel® PRO/1000 PT Desktop Adapter moet ik wel rechtstreeks bij intel ff de driver ervoor downloaden. (4.11, 5.x, 6.x en 7.x worden ondersteund) hoewel de FreeBSD HCL het wel zegt de 82572(GI) chip te ondersteunen (GI weet ik natuurlijk niet) die gebruikt wordt voor de PT

In de release notes las ik ook niks "vreemds"

Tja vanalles


Acties:
  • 0 Henk 'm!

  • twiekert
  • Registratie: Februari 2001
  • Laatst online: 30-08 11:55
libero schreef op woensdag 18 februari 2009 @ 17:48:
[...]


bedankt voor je verhaal!

Enig idee wat ik ongeveer kan verwachten aan write snelheid?
Het ding gaat dus gebruikt worden om backups weg te zetten, en zal worden verbonden via iscsi aan een microsoft data protection server, ik wil even een indicatie hebben van wat ik weg kan schrijven naar bovenstaande configuratie in een nacht..
iscsi heeft vrij weinig overhead, dus limitatie ligt controller en schijfconfig. Kan je het beste wat benchmarks opzoeken met verschillende lees en schrijfpatronen. Hier is er eentje maar is wel een wat oudere test: http://www.xbitlabs.com/a...isplay/areca-arc1220.html

Acties:
  • 0 Henk 'm!

  • Ibidem
  • Registratie: Oktober 2001
  • Laatst online: 26-08 14:55
Valt mij wel op dat het gros van de mensen hier kiezen voor reguliere desktop drives. Voorbeelden hiervan zijn de HD103UJ, WD10EACS of DS. Wat toch wel de populaire drives zijn qua prijs/GB verhouding.

Alleen heeft Seagate b.v. de NS series WD kent de RE series. Deze zijn meer geschikt voor 24x7 gebruik. Lijkt me ook erg belangrijk voor een NAS. Stabiele transferrates en hoge MBTF waardes zijn niet van ondergeschikt belang IMHO. Waarom kiezen voor kwantiteit ipv de kwaliteit (drives kopen puur op gebruik) :?

..::System Specs::..


Acties:
  • 0 Henk 'm!

  • Steephh
  • Registratie: Juni 2003
  • Laatst online: 17-09 22:56
Ik ben nu toch weer aan het overwegen om een DIY RAID NAS server op te zetten. Ik op dit moment al de volgende hardware die ik daarvoor zou willen gebruiken.

AMD Athlon X4 Phenom 9850
4x 2GB Kingston ValueRAM DDR800

Moet ik er nog even een leuk mobo bij zoeken en dan zou ik een leuk systeem hebben om geom_raid 5 met encryptie te draaien én dan nog aardig wat snelheid over te houden ook dacht ik zo.. Echter, zou ik nog wel wat meer willen doen met m'n server. Interessant lijkt het me om misschien nog 1 of 2 virtual machines te draaien (die niet echt veel boeiende dingen doen maar vooral voor testdoeleindes bedoeld zijn) en ik zou ook nog wel een mailserver willen draaien en misschien nog wel een samba server in combinatie met ldap voor alle pc's hier. En maybe wil ik ook nog een Trackmania, Call of Duty 2/4 en/of een UT server draaien.. Die gameservers zijn optioneel en geen vereiste, maar toch.

1. Vraag is, kan die Phenom dat makkelijk af als ik geom_raid5 mét encryptie gebruik of wordt dat toch wel zwaar?

2. En als ik het goed begrijp wordt RAID 5 zwaarder naarmate je meer disks toevoegd? Dus als ik 20 disks in raid 5 zet heb ik 19 disks effectief en één voor de parity berekeningen? In hoeverre ga je dat merken op je DIY NAS?

Overigens, ik ben nu op dit mobo uitgekomen:

pricewatch: Gigabyte GA-MA78G-DS3H

3. Volgens mij wordt de gigabit controller niet ondersteund door amd64 7.0-current. Klopt dat? Of hebben andere tweakers dit wel werkend?

4. En correct me if i'm wrong, maar is het niet mogelijk door bijvoorbeeld een simpel PCI-e netwerkkaartje toe te voegen je netwerkverbinding te teamen? En maakt het merk hierbij wat uit?

[ Voor 34% gewijzigd door Steephh op 20-02-2009 16:16 ]

_@/'


Acties:
  • 0 Henk 'm!

Verwijderd

Tekn0z schreef op vrijdag 20 februari 2009 @ 12:15:
Valt mij wel op dat het gros van de mensen hier kiezen voor reguliere desktop drives. Voorbeelden hiervan zijn de HD103UJ, WD10EACS of DS. Wat toch wel de populaire drives zijn qua prijs/GB verhouding.

Alleen heeft Seagate b.v. de NS series WD kent de RE series. Deze zijn meer geschikt voor 24x7 gebruik. Lijkt me ook erg belangrijk voor een NAS. Stabiele transferrates en hoge MBTF waardes zijn niet van ondergeschikt belang IMHO. Waarom kiezen voor kwantiteit ipv de kwaliteit (drives kopen puur op gebruik) :?
Omdat de schijven bij niet gebruik gewoon uit gaan?

Acties:
  • 0 Henk 'm!

  • Demo
  • Registratie: Juni 2000
  • Laatst online: 16-09 13:38

Demo

Probleemschietende Tovenaar

Tekn0z schreef op vrijdag 20 februari 2009 @ 12:15:
Valt mij wel op dat het gros van de mensen hier kiezen voor reguliere desktop drives. Voorbeelden hiervan zijn de HD103UJ, WD10EACS of DS. Wat toch wel de populaire drives zijn qua prijs/GB verhouding.

Alleen heeft Seagate b.v. de NS series WD kent de RE series. Deze zijn meer geschikt voor 24x7 gebruik. Lijkt me ook erg belangrijk voor een NAS. Stabiele transferrates en hoge MBTF waardes zijn niet van ondergeschikt belang IMHO. Waarom kiezen voor kwantiteit ipv de kwaliteit (drives kopen puur op gebruik) :?
Waarom een hoop geld uitgeven voor hogere MBTF als je toch RAID5 draait? En ook een desktopschijf haalt tegenwoordig 80-100 MB/s, als je er dan een paar in RAID5 hebt dan trek je met gemak een gigabitverbinding helemaal dicht.
Voor aan een Areca (of andere hardwarematige RAID-controller) is het wel het overwegen waard ivm TLER, desktopschijven die wat ouder worden willen dan nog wel eens uit je array vallen, wat een hoop tijd en performance kost ivm rebuilden.

Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done


Acties:
  • 0 Henk 'm!

  • remmelt
  • Registratie: Januari 2001
  • Laatst online: 09-04 12:25
Had Google niet onderzocht dat serverschijven even lang meegaan als desktopschijven? Het verschil zit 'm dus eerder in support dan in kwaliteit. Ik kan de link even niet vinden en dit is natuurlijk een kort-door-de-bocht samenvatting.

Acties:
  • 0 Henk 'm!

  • twiekert
  • Registratie: Februari 2001
  • Laatst online: 30-08 11:55
Volgens was het dat google onderzocht had wat de invloed van temperatuur op schijven was. En daar kwam uit dat een hoge temperatuur niet direkt een oorzaak is voor snellere uitval van een schijf.

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

remmelt schreef op vrijdag 20 februari 2009 @ 13:18:
Had Google niet onderzocht dat serverschijven even lang meegaan als desktopschijven? Het verschil zit 'm dus eerder in support dan in kwaliteit. Ik kan de link even niet vinden en dit is natuurlijk een kort-door-de-bocht samenvatting.
Google heeft een eigen OS, en heeft via Bmerk (zelf bouw pc's) enorme cluster(s) gebouwd, uitval versus kosten en vervanging versus capacitiet was/is vele malen goedkoper.
Omdat ze op zo'n schaal effectief de middelen hebben om goeie vergelijkingen te doen.

Daarnaast moet je je ook afvragen hoevaak een disk echt kapot gaat. dat is
A ) de eerste maand
B ) ouderdom
C ) een powerswitch gebruiken ipv netjes powerdown (oftewel frequentie powerup/down verhogen)

proffesioneel of prive heb ik zelden disk failures meegemaakt, in ide/sata disks.
Enige wat mij zorgen baat in het dagelijks gebruik is dat ik eigenlijk weinig backup/ruimte heb om de data tegen dit te beschermen.

lees data die eigenlijk niet handig/nuttig is om te backuppen maar wel vervelend genoeg is als het opeens weg is. (bv mp3 collectie kost toch weer een tijd om op te bouwen, maar onzinnig om een backup te laten vervuilen) daarom is raid5 IMHO ook zo handig je hebt net geen last van een disk uitval ..

Temperatuur overgens is altijd wel een invloed, fibre channel disks zijn zo erg dat als ze niet goed gekoeld zijn dat ze na 1 a 2 uur gewoon (na vervanging) en je plaatst de cover niet terug dat ze dan al overlijden.

[ Voor 7% gewijzigd door vso op 20-02-2009 19:36 . Reden: temp + fibre channel ]

Tja vanalles


Acties:
  • 0 Henk 'm!

  • psy
  • Registratie: Oktober 1999
  • Laatst online: 15-09 12:48

psy

vso schreef op vrijdag 20 februari 2009 @ 19:33:
[...]
Daarnaast moet je je ook afvragen hoevaak een disk echt kapot gaat. dat is
A ) de eerste maand
B ) ouderdom
C ) een powerswitch gebruiken ipv netjes powerdown (oftewel frequentie powerup/down verhogen)
Da's een beetje onduidelijk. Wat bedoel je daarmee?

8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

psy schreef op vrijdag 20 februari 2009 @ 20:53:
[...]


Da's een beetje onduidelijk. Wat bedoel je daarmee?
Dat als je een powerdown geeft via het systeem dat de disk(head) netjes geparkeerd word.
echter wanneer je abrubt het systeem uitgooit dat dit niet gebeurt met meer (sneller) kans op vervelende bijwerkingen

Dus wat ik opmerk is dat er vaak problemen met disks optreden wanneer er regelmatig problemen zijn met de stroomlevering, of als iemand een stekkerblok heeft met schakelaar en op die manier de boel "uitzet"

voetnote: met PATA disks was dit probleem nog erger zeker in den beginne nu is dat wel minder geworden maar nog steeds merkbaar

Tja vanalles


Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 19:25
vso schreef op vrijdag 20 februari 2009 @ 21:12:
Dat als je een powerdown geeft via het systeem dat de disk(head) netjes geparkeerd word.
echter wanneer je abrubt het systeem uitgooit dat dit niet gebeurt met meer (sneller) kans op vervelende bijwerkingen
Elke schijf van de laatste 10 jaar trekt vanzelf zijn kop naar de 'parking zone' bij een power outage. Vroeger moest je nog een 'park' commando geven voordat je je PC uitzette, die tijd is al lang voorbij.
Het enige verschil de laatste jaren is dat desktopschijven de heads compleet van de platter trekken ipv. op een vast rustpunt parkeren, net als laptopschijven.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 14:14

Q

Au Contraire Mon Capitan!

Tekn0z schreef op vrijdag 20 februari 2009 @ 12:15:
Valt mij wel op dat het gros van de mensen hier kiezen voor reguliere desktop drives. Voorbeelden hiervan zijn de HD103UJ, WD10EACS of DS. Wat toch wel de populaire drives zijn qua prijs/GB verhouding.

Alleen heeft Seagate b.v. de NS series WD kent de RE series. Deze zijn meer geschikt voor 24x7 gebruik. Lijkt me ook erg belangrijk voor een NAS. Stabiele transferrates en hoge MBTF waardes zijn niet van ondergeschikt belang IMHO. Waarom kiezen voor kwantiteit ipv de kwaliteit (drives kopen puur op gebruik) :?
Zonde van het geld. Gezien het grote aantal disks wat ik in mijn systeem heb zitten wordt dat veel te duur en met raid 6 kun je flink wat ellende afvangen voordat de boel weg is.

Daarnaast laat ik mijn nas niet 24/7 aan staan. Nergens voor nodig. Wake-on-lan is ideaal.

Voor kleine arrays met 8-10 of minder zou raid 5 nog wel kunnnen qua risico, maar met meer disks in 1 array wordt het risico op multiple disk failure zo groot dat raid 6 bijna een noodzaak wordt.

[ Voor 9% gewijzigd door Q op 22-02-2009 13:53 ]


  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Yippie

4x wd green 1tb, 1x wd raptor 36gb

goed freebsd 7.1 gekozen als primaire test OS, na bang wezen dat mijn promise fasttrack tx4 (met raidset hardware) en highpoint 1640 niet "discoverd" zouden worden wonder boven wonder alle hardware werkt als een charm teminste elke HD wordt gedetecteerd (belangrijkste toch?)

gaat freebsd over de zeik :( over een geometry over de disks, bios laat geen moer zien over de "settings" en nu ?
laat maar schijnt een well know issue te wezen

overgens de WD raptor is alleen test daarna schakel ik over naar USB

ander vraagje ISCSI stel ik doe 4x 40gb disks/luns/partitions op een 200gb partition en ik delete nummer 2 (dus effectief 120 gb nog in use) kan ik dan een nieuwe maken van ongeveer 80gb ? of is die 40gb gewoon waisted ?

[ Voor 3% gewijzigd door vso op 26-02-2009 00:23 ]

Tja vanalles


  • The Realone
  • Registratie: Januari 2005
  • Laatst online: 19:04
Is er al meer duidelijk over die Chenbro behuizing? Wordt dat echt wachten tot ergens komende maand of wellicht nog langer?

  • lowfi
  • Registratie: Januari 2004
  • Laatst online: 14-09 07:41
Chenbro Mini Tower ES34069? Die?

1e week van maart komt ie weer bij de leverancier binnen (6maart om precies te zijn volgens mycom). Ik heb mycom en 4launch hiervoor benaderd. 4launch is 15 euro goedkoper... :P

[ Voor 10% gewijzigd door lowfi op 26-02-2009 11:24 ]


  • The Realone
  • Registratie: Januari 2005
  • Laatst online: 19:04
Jep die. Heel mooi...ordertje inleggen dan maar. ;)

  • sl1200
  • Registratie: September 2003
  • Laatst online: 04-04 16:08

sl1200

Tweakotine-pleisters te koop?

Dat Chenbro kastje is idd een plaatje om te zien :9
Ik heb er 1,5 mnd op moeten wachten tot de laatste batch aankwam uit Azie. Inmiddels is die bijna overal weer uitverkocht begrijp ik?

Heb het ding al een maand ofzo in gebruik en ben er tevreden over, behalve:
- 2 fans aan de achterkant zijn (naar mijn smaak) te luidruchtig. Ze zouden via de backpanel temp-afh. gereguleerd moeten worden in hun snelheid (volgens de manual), maar ze zijn direct op de voeding aangesloten. Ik heb er maar een Zalman Fanmate 2 controller tussen gezet en de snelheid handmatig lager vastgezet.

- kast is feitelijk in tweeen gescheiden: 1 deel voor 4xHDDs die dus door die 2 rear fans wordt gekoeld, en 1 deel voor het mITX mobo, slimline optical/HDD. Aangezien vele mensen een voorkeur hebben voor een volledig passief gekoelde mITX mobo krijg je vaak toch het probleem dat CPU en/of de chipset te warm wordt, omdat er totaal geen airflow is in dat deel van de kast. Je kunt er wel aan de voorkant een 60mm fan monteren, maar die zijn volgens mij doorgaans luidruchtig. Daarom denk ik dat de Antec NSK1300 met 1x120mm rear fan een betere optie is voor een stille out-of-the-box kast.

Specs: GamePC HTPC Server


  • latka
  • Registratie: Januari 2002
  • Laatst online: 16-09 08:56
Tekn0z schreef op vrijdag 20 februari 2009 @ 12:15:
Valt mij wel op dat het gros van de mensen hier kiezen voor reguliere desktop drives.
...
Deze zijn meer geschikt voor 24x7 gebruik. Lijkt me ook erg belangrijk voor een NAS. Stabiele transferrates en hoge MBTF waardes zijn niet van ondergeschikt belang IMHO. Waarom kiezen voor kwantiteit ipv de kwaliteit (drives kopen puur op gebruik) :?
Wellicht omdat je SOHO NAS geen 24/7 doet. Staat 3/4 van de dag toch stil. Ik gebruik al jaren desktop schijven op die manier en nog geen reden gezien om massaal over te stappen op "high-end" schijven. Belangrijk is dus wel dat je je schijven downspint (liefst na 10-20 minuten om eventuele rustperiodes op het netwerk niet direkt tegen een spin-up aan te hikken als je weer aan de slag gaat).

Acties:
  • 0 Henk 'm!

  • Steephh
  • Registratie: Juni 2003
  • Laatst online: 17-09 22:56

_@/'


Acties:
  • 0 Henk 'm!

  • The Realone
  • Registratie: Januari 2005
  • Laatst online: 19:04
Nouja, een Quadcore moet dat in ieder geval makkelijk afkunnen. Maar ben je daadwerkelijk van plan om 20 disks in een RAID5-array te gooien of was dat slechts een hypothese?

Teaming van netwerkkaarten werkt doorgaans alleen als je gebruik maakt van exact dezelfde kaarten. Van enkele Intel-kaarten weet ik dat verschillende types ook onderling geteamed kunnen worden maar ga er maar niet vanuit. Een Marvell en een Intel teamen gaat bijvoorbeeld niet lukken. Afgezien daarvan moet de switch waar je het zooitje aan hangt ook aan link aggregation doen anders heb je er nog niks aan.

Acties:
  • 0 Henk 'm!

  • raven22
  • Registratie: Januari 2004
  • Laatst online: 07:35
sl1200 schreef op donderdag 26 februari 2009 @ 22:03:
. Daarom denk ik dat de Antec NSK1300 met 1x120mm rear fan een betere optie is voor een stille out-of-the-box kast.
In de Antec NSK1300 is plaats voor 3x3,5 inch schijven en een 5,25 bay. Ik wil graag 4x3,5 en een 2,5 net als in de chenbro. Bestaan er brackets om de 5,25 bay om te bouwen tot bv een 1x3,5 en 1x2,5? Of eventueel 2x2,5?

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 17-09 20:58
The Realone schreef op vrijdag 27 februari 2009 @ 02:58:
[...]Afgezien daarvan moet de switch waar je het zooitje aan hangt ook aan link aggregation doen anders heb je er nog niks aan.
Weet je dat heel zeker? Bij mijn weten moet je os aan aggregation doen, bij Windows kan dat onder de recentere versies, mogelijk met identieke nic's. Onder *nux is het helemaal een eitje, daarbij kun je op een hoog niveau (in het osi layer) aggregeren, ofwel onafhankelijk van hardware. De switch moet alleen doorvoeren naar de 'andere' twee poorten.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • The Realone
  • Registratie: Januari 2005
  • Laatst online: 19:04
Bij mijn weten, al spreek ik niet uit ervaring, moet het instellen van het zooitje gebeuren op het systeem waar je kaarten inzitten en hoef je de switch niet te configureren. De switch moet echter wel link aggregation/trunking ondersteunen.

Correct me if I'm wrong... ;)

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 17-09 20:58
Het lijkt mij dat in computer 1 NIC1 en NIC2 zitten, in computer 2 NIC3 en NIC4. Bij aggregation wordt het totale pakket opgedeeld waarvan de data over NIC1 en NIC2 gaat. NIC1 levert pakketten op volle snelheid naar NIC3, NIC2 of volle snelheid naar NIC4. In computer 2 worden de pakketten weer bij elkaar gevoegd tot één geheel pakket. In dat geval hebben NIC1-4 allemaal een uniek IP adres en de switch hoeft alleen maar de data over te sturen en merkt niet dat computer 1 en computer 2 allebei twee netwerkkaarten hebben.
Maar goed, dat is een theorie, misschien gaat het allemaal nog veel slimmer :)

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

hmm het lukt me niet een build/rebuild van een geom raid5 te onderbreken
"test" zo heet de array

graid5 stop -f test
graid5 destroy test

gstat en graid5 status gaan vrolijk door met "rebuild"

Tja vanalles


Acties:
  • 0 Henk 'm!

Verwijderd

zo, nou, hij is dan eindelijk klaar mijn NAS.

hier mijn verhaal, uiteindelijke setup, config, manier van installeren en dergelijke.

gekozen voor:
Gigabyte GA-MA78G-DS3H daar goede chipset en onboard VGA
4850 EE want na onderzoel mijnerzijds minder potentieel geneuzel met ZFS onder AMD64 dan onder i386.

geheugen:
2 reepjes DDR2 2GB
2 reepjes DDR2 1GB

kast:
gemodde Lian-Li
Afbeeldingslocatie: http://www.alternate.nl//pix/prodpic/450x450/t/ttxs10.jpg
Afbeeldingslocatie: http://www.alternate.nl/pix/prodpic/450x450/t/ttxs10_2.jpg
je ziet 11 5&1/4 sloten en daarboven 1 voor een floppy. die heb ik weggehaald zodat ik 12 schijven van voren kan plaatsen. was een stuk plastic weghalen en even met de dremel in de weer :)
heb 4 hot swap wisselracks (elk 3 HDD's) ingebouwd, 4 maal Molex aansluitingen en elk rack heeft een ventilator. hdd's die erin gaan zijn dan wel niet hot-swap maar nu heb ik 1) makkelijk wisselen 2) 4 ventilatoren voor de koeling 3) nette oplossing met deurtjes en sleuteltjes :).

schijven:
de bekende WD10EADS, nu 5 stuks en vanmiddag nog eens 5 erbij prikken.

controller:
eerst een drietal rr2300's van Highpoint maar die draaien absoluut NIET naast elkaar. nu heb ik de rr2340 van Highpoint die 16 S-ATA schijven aankan (ik gebruik er maar 12 en misschien later nog eens 4 erbij die ik dan in het rekje onder de voeding kwijt kan)

enfin, dan de software:
wilde het liefst ZFS en kwam uit op FreeBSD 7.1-RELEASE.
1) alles in het bios uitgezet wat maar uitkan. GEEN usb, geen sound, geen floppy, geen seriele poorten en de twee Intel 1000 nics op IRQ 3 en 4. enige wat nu nog uit zou kunnen is de IDE controller.
ik type GEEN usb daar usb vaak voor problemen zorgt indien je boot met een usb keyb en een usb muis. ik gebruik dus een ps/2 keyb en cli.
2) 1 WD10EADS op de standaard SATA controller aangesloten, FreeBSD DVD erin en booten maar!
3) 20GB partitie voor /, 4 2GB partities voor swap, rest /data
4) na de installatie en 'freebsd-update fetch && freebsd-update install' heb ik de eerste WD10EADS aan de 2340 gehangen en in het bios (ctrl+h) voor die disk een JBOD aangemaakt waarna FreeBSD de schijf zag. ik heb hem in de 2340 JBOD1-1 genoemd, 1ste baan van de 2340, eerste hdd welk onderin de kast zit (onderste slot van het onderste hot-swap rack). FreeBSD ziet die vervolgens als da0
5) tweede erin, JBOD1-2 genoemd in rr2340 bios, FreeBSD ziet hem als da1
6) enzovoorts tot ik da0, da1, da2, da3 en da4 zag
7) 'zpool create tank raidz da0 da1 da2 da3 da4' en voila, ik heb wat ik hebben wil!
8 ) vm.kmem_size="1536M" & vm.kmem_size_max="1536M" & kern.maxvnodes=400000 hetgeen genoeg is voor zoveel RAM

ben nu de boel aan het overzetten van de oude machine naar deze waarna ik verder ga met tunen en het monitoren van de stabiliteit.
leuke van ZFS is, is dat je /tank/persoonlijk aan kan maken waarna je alles erheen kan doen. echter is er ook nog een optie in ZFS dat je van alles in /tank/presoonlijk bijvoorbeeld 3 maal een copy maakt.

[ Voor 4% gewijzigd door Verwijderd op 28-02-2009 11:15 . Reden: typos ]


Acties:
  • 0 Henk 'm!

  • remmelt
  • Registratie: Januari 2001
  • Laatst online: 09-04 12:25
Leuk... stroomverbruik? Of durf je niet te kijken? ;)

Acties:
  • 0 Henk 'm!

  • lowfi
  • Registratie: Januari 2004
  • Laatst online: 14-09 07:41
20GB partitie voor FreeBSD(freenas?)? En 4 swap parities???

Waarom?

[ Voor 10% gewijzigd door lowfi op 28-02-2009 11:35 ]


Acties:
  • 0 Henk 'm!

Verwijderd

remmelt schreef op zaterdag 28 februari 2009 @ 11:32:
Leuk... stroomverbruik? Of durf je niet te kijken? ;)
stroomverbruik, geen idee, boeit me ook totaal niet daar het een intensief gebruikte doos wordt. wel naar energie zuinige componenten gekeken (hence the 4850 en die schijven, goede koeling met regeling via BIOS, enz.). maar de schijven heb ik ook mede gekocht vanwege de 1TB ruimte en de prijs.
lowfi schreef op zaterdag 28 februari 2009 @ 11:34:
20GB partitie voor FreeBSD(freenas?)? En 4 swap parities???

Waarom?
Filesystem Size Used Avail Capacity Mounted on
/dev/ad4s1a 19G 4.7G 13G 26% /
nah, geen FreeNAS, is afgeleide van FreeBSD en gebruik liever FreeBSD zelf.
en ik wil er nog wat bitjes bij installeren, SABnzbd en nog wat andere tooltjes (nagios, ntop, mrtg, enz). 20GB leek me genoeg.
verder gebruik ik een deel van de overgebleven rest van de 1TB voor de temp en de cache van SABnzbd.
daarnaast nog een aantal tientallen ongebruikte GB's voor mountpoints en extra swap indien nodig.
ik ben een voorstander van elke stukje software zijn eigen partitie, lekker makkelijk en schoon.

4 x 2GB swaps: het spreiden van swaps over meerdere 2GB partities doe ik sinds ik mij kan herinneren. liefst nog fat16 ook ivm performance...

Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 19:25
Verwijderd schreef op zaterdag 28 februari 2009 @ 11:46:
Filesystem Size Used Avail Capacity Mounted on
/dev/ad4s1a 19G 4.7G 13G 26% /
ik ben een voorstander van elke stukje software zijn eigen partitie, lekker makkelijk en schoon.
daar komt ZFS dus mooi van pas: geen partities meer, gewoon zfs create tank/data/sabnzbdp of iets dergelijks. Als je bang bent dat een proces je HD vol gaat pompen met data (bijv je /tmp ofzo) geef je het een quota. als je bang bent voor vastlopende processen ivm ruimtegebrek reserveer je juist een aantal GB's voor een mount.
Bovendien zit dat 'lekker schoon' in je hoofd. Als je alles wilt scheiden, ga dan met chroot jails of full jails aan de gang.
4 x 2GB swaps: het spreiden van swaps over meerdere 2GB partities doe ik sinds ik mij kan herinneren. liefst nog fat16 ook ivm performance...
freebsd swap heeft geen partitieindeling, dus ook geen fat16. Het is gewoon een stuk block storage dat gemapt kan worden als swap mem.
4x2GB is veel te veel imho, zonde van je ruimte. doe maar eens een 'top' en kijk hoeveel swap space je in gebruik hebt.
Mijn FreeBSD 7.1 amd64 bak met 4GB ram en ZFS, quote uit 'top':
code:
1
Swap: 1024M Total, 1024M Free

Tenzij je een kernel dump wilt kunnen doen is zoveel swap nutteloos.
Wat wel nuttig is is je swap mirrorren. Stel er gaat nu 1 schijf op z'n bek en de swapspace was in gebruik (ookal was het maar 8K), dan gaat je bak hard op z'n plaat met een beetje pech. Zet gewoon 1GB swap in raid1, of 4x 512MB in raid10.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

Verwijderd

P5ycho schreef op zaterdag 28 februari 2009 @ 12:40:
Bovendien zit dat 'lekker schoon' in je hoofd. Als je alles wilt scheiden, ga dan met chroot jails of full jails aan de gang.
met schoon doel ik op fragmentatie
P5ycho schreef op zaterdag 28 februari 2009 @ 12:40:
freebsd swap heeft geen partitieindeling, dus ook geen fat16. Het is gewoon een stuk block storage dat gemapt kan worden als swap mem.
4x2GB is veel te veel imho, zonde van je ruimte. doe maar eens een 'top' en kijk hoeveel swap space je in gebruik hebt.
Mijn FreeBSD 7.1 amd64 bak met 4GB ram en ZFS, quote uit 'top':
code:
1
Swap: 1024M Total, 1024M Free

Tenzij je een kernel dump wilt kunnen doen is zoveel swap nutteloos.
Wat wel nuttig is is je swap mirrorren. Stel er gaat nu 1 schijf op z'n bek en de swapspace was in gebruik (ookal was het maar 8K), dan gaat je bak hard op z'n plaat met een beetje pech. Zet gewoon 1GB swap in raid1, of 4x 512MB in raid10.
daarom de partities voor swap fysiek in het midden van de schijf.
en beter overkill dan underkill (bestaat dat woord?)
en, met fat16 doel ik op Windows machines, uiteraard niet de linux/unix/bsd varianten.

[ Voor 3% gewijzigd door Verwijderd op 28-02-2009 13:32 ]


Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 19:25
Verwijderd schreef op zaterdag 28 februari 2009 @ 13:31:
[...]

met schoon doel ik op fragmentatie

[...]

daarom de partities voor swap fysiek in het midden van de schijf.
en beter overkill dan underkill (bestaat dat woord?)
en, met fat16 doel ik op Windows machines, uiteraard niet de linux/unix/bsd varianten.
UFS en ZFS hebben praktisch geen fragmentatieproblemen. De hoogste fragmentatie die ik ooit op 1 van mijn UFS volumes heb gezien is 0,4%, ZFS heb ik geen nuttige data van atm.

Overkill is beter dan underkill, maar denk nog wel even na over een mirrored swap dan :)

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

Verwijderd

P5ycho schreef op zaterdag 28 februari 2009 @ 13:53:
[...]

UFS en ZFS hebben praktisch geen fragmentatieproblemen. De hoogste fragmentatie die ik ooit op 1 van mijn UFS volumes heb gezien is 0,4%, ZFS heb ik geen nuttige data van atm.

Overkill is beter dan underkill, maar denk nog wel even na over een mirrored swap dan :)
overkill heb ik nooit problemen mee!
dank voor je tips/opmerkingen (ook eerder in deze draad), en alle anderen ook.

ik ga verder ook nog benchmarken en vooral een dikke gevoelige vinger aan de pols. ben erg benieuwd over de gezondheid en belasting van het ZFS systeem onder FreeBSD 7.1. ik notuleer al mijn stappen en bevindingen trouwens en wil later een compleet verslag online plempen.
en ben trouwens een iesiepiesie zenuwachtig over de betrouwbaarheid van ZFS. hoe denk jij over de betrouwbaarheid van ZFS voor een NAS? ik bedoel, je vertrouwt wel al je data toe aan een experimenteel gebeuren.

Acties:
  • 0 Henk 'm!

  • Slackware
  • Registratie: Juni 2001
  • Niet online
Verwijderd schreef op zaterdag 28 februari 2009 @ 15:20:
[...]

overkill heb ik nooit problemen mee!
dank voor je tips/opmerkingen (ook eerder in deze draad), en alle anderen ook.

ik ga verder ook nog benchmarken en vooral een dikke gevoelige vinger aan de pols. ben erg benieuwd over de gezondheid en belasting van het ZFS systeem onder FreeBSD 7.1. ik notuleer al mijn stappen en bevindingen trouwens en wil later een compleet verslag online plempen.
en ben trouwens een iesiepiesie zenuwachtig over de betrouwbaarheid van ZFS. hoe denk jij over de betrouwbaarheid van ZFS voor een NAS? ik bedoel, je vertrouwt wel al je data toe aan een experimenteel gebeuren.
Ik gebruik al bijna anderhalf jaar ZFS in combinatie met FreeBSD, in het begin met FreeBSD 7-current, nu met 7.1 stable. Ik heb er echt nog nooit problemen mee gehad, heeft altijd prima gedraaid. Misschien dat tegenover mijn goede ervaringen met ZFS een boel minder goede staan. Zelf denk ik dat zolang je ZFS combineert met minimaal 2gb ram en een 64bit CPU(+ OS) je weinig problemen zal ondervinden.

Acties:
  • 0 Henk 'm!

Verwijderd

Slackware schreef op zaterdag 28 februari 2009 @ 15:29:
[...]
Ik gebruik al bijna anderhalf jaar ZFS in combinatie met FreeBSD, in het begin met FreeBSD 7-current, nu met 7.1 stable. Ik heb er echt nog nooit problemen mee gehad, heeft altijd prima gedraaid. Misschien dat tegenover mijn goede ervaringen met ZFS een boel minder goede staan. Zelf denk ik dat zolang je ZFS combineert met minimaal 2gb ram en een 64bit CPU(+ OS) je weinig problemen zal ondervinden.
ok dan, mooi om te horen dat het stabiel draait. is het een fileserver met alleen wat filmpjes, videos's voor bv een htpc of ook db's die veel i/o's vragen?

Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

over geheugen gesproken

linkje naar bron

code:
1
2
3
# fetch http://www.cyberciti.biz/files/scripts/freebsd-memory.pl.txt
# mv freebsd-memory.pl.txt /usr/local/bin/free
# chmod +x /usr/local/bin/free

Tja vanalles


Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 19:25
Ook hier weinig problemen met ZFS vooralsnog. Zowel in mijn expirimenteerbak in een colo in adam die al een jaar+ draait, als in de meterkast-NAS. Met erg IO-intensieve zaken zou ik een beetje uitkijken, maar dingen zoals een complete UFS partitie kopieren naar ZFS en 20+ torrentjes downen zijn tot nu toe geen probleem.
ZFS moge dan expirimenteel zijn in FreeBSD, ZFS heeft natuurlijk wel zijn voordelen vanwege ingebouwde checksumming, compressie, LVM mogelijkheden, etc. Ik heb nog weinig serieuze failures gezien de laatste jaren met ZFS, behalve dan de infameuze Strongspace-crash. Maar dat was admin-failure.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

Verwijderd

Heb deze post doorgespit en sta op het punt om zelf een NAS te bouwen. Heb met behulp van de vele suggesties al een systeempje samengesteld. Ga met linux en mdadm aan de slag omdat ik er ook nog een aantal andere dingen mee wil doen.

Zit echter nog met twee vragen in mijn hoofd die ik hier niet echt ben tegen gekomen (hoop dat het niet al te newbie vragen zijn.....):
  • Is een software raid 5 array nog te recoveren als je moederbord het begeeft?
  • Is een software raid 5 array nog te recoveren als je systeem harde schijf het begeeft? (de schijf buiten de raid waarmee je boot)
Misschien ben ik te paranoia, maar ben in ieder geval gewoon benieuwd ;)

[ Voor 6% gewijzigd door Verwijderd op 28-02-2009 22:26 ]


Acties:
  • 0 Henk 'm!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Verwijderd schreef op zaterdag 28 februari 2009 @ 22:17:
Heb deze post doorgespit en sta op het punt om zelf een NAS te bouwen. Heb met behulp van de vele suggesties al een systeempje samengesteld. Ga met linux en mdadm aan de slag omdat ik er ook nog een aantal andere dingen mee wil doen.

Zit echter nog met twee vragen in mijn hoofd die ik hier niet echt ben tegen gekomen (hoop dat het niet al te newbie vragen zijn.....):
  • Is een software raid 5 array nog te recoveren als je moederbord het begeeft?
  • Is een software raid 5 array nog te recoveren als je systeem harde schijf het begeeft? (de schijf buiten de raid waarmee je boot)
Misschien ben ik te paranoia, maar ben in ieder geval gewoon benieuwd ;)
met GEOM ben ik wat aan het testen geweest (freebsd) en tijdens wat installatie problemen (disk deed :? en was :'( stuk de bootdisk) goed was mijn swap/temp/test disk

Maar ja tijdens het testen had ik een software raid setje aangemaakt (raid5) en en die was op 5% toen ik een reinstall deed na herinstall pakte deze vrolijk de draad weer op (wegens de meta data op de disks) _/-\o_
zolang je de disk(s) niet formateert bij een herinstalls lijkt het me mogelijk dat ze dit doen
Las ook van een andere user in dit topic :? dat hij het zelfde ondervonden had.

Overgens ik zou echt dit soort zaken testen ik wil niet later in productie erachter komen / afvragen hoe ik moet handelen .. wanneer:
- disk faalt
- systeem omvalt
of ik dan wel nog bij mijn data kan ook al zegt men hier JA / NEE .. zekerheid voor alles (en ervaring)
of je nu voor linux/freebsd/openfiler/freenas kiest .. testen vooraf is makkelijker dan als je in productie bent.

Tja vanalles


Acties:
  • 0 Henk 'm!

Verwijderd

Over ZFS gesproken... Waarom draait eigenlijk niemand hier Solaris? Dat is sinds een tijdje toch gratis voor iedereen beschikbaar? Waarom wordt dat niet (meer) gebruikt voor NASsen?

Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 19:25
FreeBSD heeft meer software voor zich beschikbaar, en (open)Solaris heeft nog geen lekkere power management. Met een beetje pech staat je CPU dan lekker voor niets te blazen ipv idle te wezen. Daar wordt aan gewerkt natuurlijk, maar de voordelen van Solaris wogen voor mij niet op tegen de nadelen.

Natuurlijk ben ik ondertussen ook gewoon 'thuis' op een FreeBSD bak.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

Verwijderd

raven22 schreef op vrijdag 27 februari 2009 @ 08:59:
[...]
In de Antec NSK1300 is plaats voor 3x3,5 inch schijven en een 5,25 bay. Ik wil graag 4x3,5 en een 2,5 net als in de chenbro. Bestaan er brackets om de 5,25 bay om te bouwen tot bv een 1x3,5 en 1x2,5? Of eventueel 2x2,5?
Intronics 2.5 Inch HDD Inbouwbracket Incl. IDE-convertor
Deze is bedoeld om van 3.5 naar 2.5 te gaan, maar ze bestaan ook om van 5.25 naar 3.5 te gaan.
2 van 2.5 in een 5.25 lijkt mij in 2 stappen te moeten.

Acties:
  • 0 Henk 'm!

Verwijderd

P5ycho schreef op zondag 01 maart 2009 @ 09:29:
FreeBSD heeft meer software voor zich beschikbaar, en (open)Solaris heeft nog geen lekkere power management. Met een beetje pech staat je CPU dan lekker voor niets te blazen ipv idle te wezen.
Dat zou je natuurlijk op kunnen lossen door je hardware zo te kiezen dat dit eigenlijk niets uitmaakt. Bijvoorbeeld (bepaalde versies van) Intel Atom of Via Epia gebruiken zo weinig energie dat het m.i. niet zoveel uitmaakt als ze continu vol staan te dissiperen.

Ziet er wel simpel uit dit:

http://developers.sun.com...laris_storage_server.html

Acties:
  • 0 Henk 'm!

  • Shuriken
  • Registratie: November 1999
  • Laatst online: 26-08 12:33

Shuriken

Life is all about priorities

Verwijderd schreef op zondag 01 maart 2009 @ 07:35:
Over ZFS gesproken... Waarom draait eigenlijk niemand hier Solaris? Dat is sinds een tijdje toch gratis voor iedereen beschikbaar? Waarom wordt dat niet (meer) gebruikt voor NASsen?
Ik heb zelf een poging gewaagd. Echter het probleem is zoals gezegt de beschikbare software. Ik wilde graag een UPNP server erop en wellicht een torrent programma. Het bleek nogal wat voeten in de aarde te hebben om beschikbare opensource software daarvoor te compileren op OpenSolaris.

Een andere optie is om BrandZ te gebruiken. Een soort virtualisatie. Daarmee kan je dan een Linux Distro op je Solaris bak hangen. Echter daar werd Apache weer niet in ondersteund welke ik nodig had voor mn torrent programma.

Daarnaast werd ik nog niet echt gelukkig van het package management systeem van Sun. Als je yum of apt-get gewend bent, blijft het toch maar behelpen.

I rather have a bottle in front of me, then a frontal lobotomie


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zondag 01 maart 2009 @ 07:35:
Over ZFS gesproken... Waarom draait eigenlijk niemand hier Solaris? Dat is sinds een tijdje toch gratis voor iedereen beschikbaar? Waarom wordt dat niet (meer) gebruikt voor NASsen?
en probeer niet zoals mij onder VMware een Solaris 10 installatie te doen en dan de hdd's via VMware naar Solaris te spugen want dat werkt niet met S-ATA disks (zoals ik helaas heb ondervonden...onder VMware 1.0.8 en 2.0)

Acties:
  • 0 Henk 'm!

  • fixma
  • Registratie: Februari 2004
  • Laatst online: 06-06 08:03
Iemand ervaring met inbouwen in een Travla C146 ? Een MINI-ITX rackmount 1U kast. Lijkt een mooi geval voor een low power NAS

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zondag 01 maart 2009 @ 07:35:
Over ZFS gesproken... Waarom draait eigenlijk niemand hier Solaris? Dat is sinds een tijdje toch gratis voor iedereen beschikbaar? Waarom wordt dat niet (meer) gebruikt voor NASsen?
/me draait wel Solaris 10 update 6 op zijn NAS. 5x hitachi P7k500 sata in RAIDZ, op een Intel DG33TL mainboard, 2GB 800MHz ram, met een E8200 cpu en een Seasonic 330W voeding. OS (minimal install) staat op een 2GB transcend IDE flash module. Disken zijn met Hitachi tooltje op hardware niveau in max powersaving geconfigureerd. Dit betekent een head offload na x min en een spindown naar 4200RPM na x+y min. Solaris 10u6 ondersteunt tevens (Intel) CPU freq scaling, ik zie de frequentie waardes ook veranderen met kstat, echter geen verschil in power gebruik aan het stopcontact. Idle doet het geheel 52 Watt. Performance is super en ZFS is echt erg fijn. Root filesystem is ook ZFS, dus erg makkelijk met snapshots, handig bij het uittesten van software, en CRC checking op flash, copy on write is natuurlijk ook erg gunstig voor de levensduur van flash. Ik heb wat tooltjes zoals hellanzb zelf moeten compilen, maar behalve dat doet de machine niks anders dan NFS/SMB files serveren. De filesystems op de RAIDZ worden netjes dagelijks gesnapshot en deze snapshots zijn via SMB direct toegankelijk. Echt perfect!

Acties:
  • 0 Henk 'm!

  • remmelt
  • Registratie: Januari 2001
  • Laatst online: 09-04 12:25
Verwijderd schreef op zaterdag 28 februari 2009 @ 22:17:
  • Is een software raid 5 array nog te recoveren als je moederbord het begeeft?
  • Is een software raid 5 array nog te recoveren als je systeem harde schijf het begeeft? (de schijf buiten de raid waarmee je boot)
1) Ja. Een van de voordelen van software RAID tegenover hardware RAID is dat je onafhankelijk bent van je hardware. Zolang je een nieuw moederbord er voor in de plaats stopt wat linux + software RAID ondersteunt (of BSD + ZFS, of een van de andere software RAID opties) dan kan je gewoon je RAID array weer mounten en klaar is kees.
2) Ja. Hier geldt eigenlijk het zelfde verhaal. Voor het systeem is de RAID array doorzichtig, het is eigenlijk "gewoon" een disk. Stel je voor, als je twee schijven hebt waarvan een met systeem en een met data en je systeemschijf is dood, dan is er toch ook niks mis met je dataschijf? (tenzij net schrijvend terwijl je systeem omvalt ofzo, je hebt natuurlijk altijd randgevallen) Net zo voor RAID. Je mount gewoon je RAID array in een nieuw systeem wat je gekozen RAID ondersteund en klaar. Rebuilden is dan ook niet nodig.

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 18:41

|sWORDs|

vSphere/ESXi

SABnzbd op Freenas
This is the Usenet client SABnzbd and includes all the dependencies required to run it.

More on SABnzbd here: http://www.sabnzbd.org

Overbyrn supplied the SABnzbd, dependencies and a shell script to run it.
SABnzbd: http://www.freenas.co.uk/files/sabnzb0.4.3.tar
Shell Script: http://www.freenas.co.uk/files/sab.sh


Auskento wrote a post processing script which will move downloaded files to folders specified in the postproc.conf file. It also handles VIDEO_TS folders making an .iso image and will join multiple .avi files.
I've modified this very slightly to work on FreeNAS.
Script: http://www.freenas.co.uk/files/sab_postproc.zip
Original Script available here: http://postproc.incinerator.com.au/

Overbyrn's instructions:-

1) Untar file to a temp folder on freenas. eg. tar zxvf sabnzb0.4.3.tar
2) pkg_add -v sabnzbdplus-0.4.3.tbz
3) first ran it from command line ... /usr/local/bin/SABnzbd.py
4) cntrl-c to exit.
5) it created a /root/.sabnzbd dir
6) edited /root/.sabnzbd/sabnzbd.ini
7) changed from localhost to 192.168.0.22
8) re-ran as in step 3)
9) went to http://192.168.0.22:8080/sabnzbd/
10) configured to my liking
11) created script as below to stop / start as a daemon process...

#! /bin/sh
case "$1" in
start)
echo "Starting SABnzbd."
/usr/bin/sudo -u sabuser -H /usr/local/src/SABnzbd/SABnzbd.py -d -f /root/.sabnzbd/sabnzbd.ini
;;
stop)
echo "Shutting down SABnzbd."
/usr/bin/fetch "http://192.168.0.22:8080/sabnzbd/api?mode=shutdown" > /dev/null
;;
*)
echo "Usage: $0 {start|stop}"
exit 1
esac
exit 0

12) noticed in console logging external binary unzip missing...

2008-09-23 20:14:32,166::ERROR::unzip binary... NOT found!

13) did pkg_add -rv unzip. this installed unzip into /usr/local/bin
14) restarted sabnzbd using script... /root/sab.sh start
15) checked "connections" tab - no sign of missing unzip.

Used this sabnzbd wiki link for reference ... http://sabnzbd.wikidot.com/start

made and uploaded a newer version of the zip containing v0.4.3 build of sabnzbplus.

Thanks go to Overbyrn & Auskento for their work
Ik loop al vast bij stap 1, ik heb shell toegang met putty voor elkaar, maar ik kan alleen bestanden op mijn share (/dev/raid5/DATAp1 mountpoint DATA) zetten. Deze share kan ik vanuit de shell niet benaderen
code:
1
2
3
4
5
> cd mnt
> ls
DATA
> cd data
data: No such file or directory.

code:
1
2
> cd /dev/raid5/datap1
/dev/raid5/datap1: No such file or directory.


Iemand enig idee?

Te Koop:24 Core Intel Upgradeset

Pagina: 1 ... 8 ... 11 Laatste

Dit topic is gesloten.