DIY RAID NAS bouwen Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 10 ... 14 Laatste
Acties:
  • 61.263 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

Verwijderd

sPENKMAN schreef op zondag 05 augustus 2007 @ 13:02:
In eerste instantie was mijn keuze qua moederbord gevallen op een MSI K9N SLI-2F (6x SATAII + dual Gbit onboard) maar deze heeft geen VGA onboard wat wellicht toch wel handig is.

De voorkeur heb ik aan een moederbord met 2x LAN onboard (1x Gbit en 1x 100Mbit is voldoende), 4 geheugensloten, meer dan 4 SATA aansluitingen en onboard VGA (DVI is ook prima).
Je wilt high end features op een low-end moederbord en die combinatie zal moeilijk te vinden zijn. Denk ook om energieverbruik: liever een netwerkkaartje erbij (of een USB NIC kan ook nog) en een IGP (onboard video) bordje draaien dan zo'n SLI bord wat sowieso al 50W slurpt (ik gok maar even) alleen maar om de extra onboard NIC en twee extra Serial ATA poorten. Je kunt natuurlijk ook Serial ATA controllertjes gebruiken die op je PCI-express x1 poorten worden aangesloten.
Indien iemand nog een suggestie heeft qua moederbord dan verneem ik deze uiteraard graag!
Een van die nForce 630a bordjes? Wel 1 NIC en 4x SATA. Maar dat kun je oplossen door insteekkaarten.
PS Ik zal overigens geen gebruik maken van Freenas dus compibiliteit met het OS is niet nodig.
Welk OS dan wel? Als dat FreeBSD is zul je evengoed moeten nadenken over compatibiliteit. Bij Windows zul je moeten denken hoe je je RAID wilt opzetten. Windows' RAID5 implementatie is nu niet bepaald om over naar huis te schrijven.

Acties:
  • 0 Henk 'm!

  • Kenny_NL
  • Registratie: Februari 2005
  • Laatst online: 20:43
Verwijderd schreef op zondag 05 augustus 2007 @ 00:31:
Mja Olivier zit met slices te spelen, maar FreeNAS is niet goed getest. Wantrouw de beta's dus. Opzich wel jammer dat FreeNAS niet eerst aan een grondige test wordt onderworpen. Ga ook NOOIT zomaar upgraden zonder je data gebackupt te hebben! Daarvoor begeef je je op onverkend terrein en allerlei problemen kun je tegenaan lopen -- wat overigens niet gelijk betekent dat je data weg is maar wel dat je er niet zonder handmatige interventie bij kunt.
Dan heb ik nog het geluk dat ik nog in de "beetje klooien"-fase zit met FreeNAS, en dat er nog geen echte data op de disks staat. Overigens begin ik zelf steeds meer te twijfelen aan het nut (voor mij dan) om RAID5 te gebruiken, aangezien ik geen recente hardware gebruik (m.u.v. SATA-schijven) en de HDD's op een controller heb zitten die in het enige PCI-slot zit. Ik heb nu 3 schijven van 250GB en 1x 160GB, en denk er sterk over om 2x250GB in een mirror-set te plaatsen (voor al mijn foto's, ik kan namelijk slecht dingen weggooien en het zijn er echt veel) en de 2 andere als "gewone" opslag in te zetten.

RAID5 komt dan wel weer om de hoek als ik het HW-platform ga vervangen door recent energie-zuinig en redelijk perfomende harde waren...

Acties:
  • 0 Henk 'm!

Verwijderd

OK. Afgelopen zaterdag zitten klussen. Ben nog niet uit het OS. Draai nu Ubuntu 7.04 en heb een RAID 5 array van 1,5TB draaien met mdadm.

Onderdelen:
- Abit AN-M2HD nF630a
- 1GB geheugen
- AMD A64 X2 AM2 2100BOX4000+
- Chieftec BH-02B-B-B
- 4x Samsung 500GB
- Oude WD40GB schijf voor het OS. (Heb FreeNAS nog niet aan de praat)
- Antec Smart Power 2.0 500w
- Nog wat extra arctic koelertjes

Dank voor alle inzichten in deze thread. Heb wellicht niet het meest zuinige systeem, maar wel de dataopslag ik zocht.

Acties:
  • 0 Henk 'm!

  • sPENKMAN
  • Registratie: April 2002
  • Laatst online: 04-09 12:42
Verwijderd schreef op zondag 05 augustus 2007 @ 16:16:Je wilt high end features op een low-end moederbord en die combinatie zal moeilijk te vinden zijn. Denk ook om energieverbruik: liever een netwerkkaartje erbij (of een USB NIC kan ook nog) en een IGP (onboard video) bordje draaien dan zo'n SLI bord wat sowieso al 50W slurpt (ik gok maar even) alleen maar om de extra onboard NIC en twee extra Serial ATA poorten. Je kunt natuurlijk ook Serial ATA controllertjes gebruiken die op je PCI-express x1 poorten worden aangesloten.
De wensen die ik heb zijn ook niet te combineren, daar was ik me wel van bewust. Hoe meer pre's behaalt kunnen worden des te mooier het is. Wellicht had ik dat wat beter moeten aangeven :)
Een van die nForce 630a bordjes? Wel 1 NIC en 4x SATA. Maar dat kun je oplossen door insteekkaarten.
Dat zou inhouden dat ik bij een derde leverancier zou moeten bestellen. Een mobo met de nForce 430 chipset zou een betere optie zijn qua bestellen. Weet je toevallig iets over het stroomverbruik?
Welk OS dan wel? Als dat FreeBSD is zul je evengoed moeten nadenken over compatibiliteit. Bij Windows zul je moeten denken hoe je je RAID wilt opzetten. Windows' RAID5 implementatie is nu niet bepaald om over naar huis te schrijven.
Dat zal Debian worden :)


EDIT
Mijn keuze qua moederbord was gevallen op de "Asus M2N-MX nForce 430, SATA2 RAID, VGA, GLAN", uit de onderstaande test verbruikt dit moederbord samen met een AMD am2 x2 4600+ EE een nette 56 Watt wanneer deze idle is.

http://www.xbitlabs.com/a...g965-gf6150_14.html#sect0

[ Voor 10% gewijzigd door sPENKMAN op 06-08-2007 22:16 ]

Eve char: Warock <TEST>


Acties:
  • 0 Henk 'm!

  • Itsacon
  • Registratie: Maart 2006
  • Laatst online: 23-08 11:14
Interessant topic, alvast bedankt voor alle goede tips die al zijn langsgekomen

Ben zelf ook al een tijdje bezig met een fileserver (zo kwam ik hier terecht).
Voorlopig even op budget, dus ben bezig met m'n oude Asus A7A266 en T'Bird 1.33.
Voor de kast heb ik m'n oog laten vallen op deze. Lekker veel ruimte (met 2 4-in-3 bays kunnen er 16 schijven in), en dubbele PSU's maakt het mogelijk om een paar van de oudere units te gebruiken die ik nog heb liggen. Een voor mobo en systeemschijven, andere voor de disk-array(s).

OS komt op 2x Hitachi 80 GB die ik voorheen op een Fastrak 100 had zitten. Gaan nu gewoon op de onboard controller via gmirror. Wil er wel weer Raid 1 op hebben omdat ik daar waarschijnlijk een backup database server op ga draaien.
De Raid 5 begin ik voorlopig met 4 Seagate ES 500 GB schijven (heb er al 1 liggen, dus hoef er maar 3 te bestellen) op een Promise SATA300 TX4 (heb ik ook al liggen).
LAN wordt een Linksys LNE100TX die ik ook nog heb liggen.

Wordt absoluut geen snelheidsduivel, daar ben ik me van bewust, maar voorlopig is het meer een proof-of-concept en een centrale plek voor nightly backups. Snelheid ga ik later aan werken, bijvoorbeeld m'n eigen workstation upgraden, en de MSI Neo-4 FI met Opty 165 die daarin zit voor de fileserver gebruiken. (Geeft dual core, low latency DDR400, PCIe sloten, 4x onboard SATA & onboard gigabit NIC)

To-the-point, wat vraagjes. Vooral aan Enlightenment gericht, maar als iemand anders kan helpen is dat natuurlijk net zo welkom.

- Zit geom_raid5 standaard in FreeBSD 7.0 CURRENT, of moet je hem daar ook los installeren? Hoe stabiel is 7.0 uberhaubt? Ik heb voldoende ervaring in 6.x en ouder, maar tot nu toe altijd bij release versies gebleven.
- de 500 GB Seagate die ik heb liggen heeft al data, maar die is eventueel vervangbaar. Hoe ver is je offline expansion script for i386 CPU's, en heb je behoefte aan een testsysteem?

Alvast bedankt voor alle tips, tricks e.d.

My system is in 64 bits. But superglue keeps it together just fine...


Acties:
  • 0 Henk 'm!

  • _eXistenZ_
  • Registratie: Februari 2004
  • Laatst online: 04-09 15:42
Enlightenment, je beweert bij hoog en bij laag dat geom_raid5 de shit is (en ik geloof dit ook hoor ;)) maar waarom zijn er nergens benchmarks te vinden zijn bijv. geom_raid5 versus Linux software raid5 versus een Areca kaart?

There is no replacement for displacement!


Acties:
  • 0 Henk 'm!

  • Kenny_NL
  • Registratie: Februari 2005
  • Laatst online: 20:43
Weet iemand hier (ondanks dat dit in principe geen dedicated FreeNAS-topic is) of het volgende klopt:
- Ik heb een enkele 160GB SATA drive geconfigureerd, gemount (had al data) en via CIFS geshared;
- Vervolgens heb ik een RAID1-volume (mirror-set) van 2x250GB geconfigged, geformatteerd, gemount en ook via CIFS geshared.

Als resultaat zie ik de share van de 160GB met data én de share van het RAID1-volume met *dezelfde* data....
Dit kan toch helemaal niet? Of doe ik iets verkeerd (which is quite possible, of course)...


Lezen is een gave... In het Help-forum van FreeNAS stond het antwoord al gegeven: de beide shares verwezen naar hetzelfde mount-point, dus dan krijg je zulke dingen.

[ Voor 14% gewijzigd door Kenny_NL op 07-08-2007 22:28 ]


Acties:
  • 0 Henk 'm!

  • Kenny_NL
  • Registratie: Februari 2005
  • Laatst online: 20:43
Verwijderd schreef op zondag 05 augustus 2007 @ 00:31:

Voor een thuisomgeving zet ik sowieso vraagtekend bij hot-swap. Is die ene reboot echt zo'n probleem? Je zult geen omzet missen neem ik aan.
Maar daar gaat het helemaal niet om. Hot-swap in je thuis-NAS of thuisserver heeft alles te maken met "boys will be boys" en geekiness; of het nu zoveel zin heeft is niet belangrijk, het staat gewoon stoer.

Het is toch hetzelfde als het hebben van een Bugatti Veyron (of eender welke PK-monster met mooie sport-velgjes met een flinterdun rubberlaagje): je kunt het niet maximaal gebruiken, je hebt het eigenlijk helemaal niet nodig, het kost een hoop geld, maar het is gewoon gaaf om te hebben... :P

Acties:
  • 0 Henk 'm!

  • Jerie
  • Registratie: April 2007
  • Niet online
Kenny_NL schreef op woensdag 08 augustus 2007 @ 11:30:
[...]


Maar daar gaat het helemaal niet om. Hot-swap in je thuis-NAS of thuisserver heeft alles te maken met "boys will be boys" en geekiness; of het nu zoveel zin heeft is niet belangrijk, het staat gewoon stoer.
Meestal wel. In mijn geval niet. Ik ben namelijk niet degene die de harddisk vervangt als-ie stuk gaat.

Voor mij is dat gezeur over een paar MB/sec meer of minder boys with toys geleuter.
Het is toch hetzelfde als het hebben van een Bugatti Veyron (of eender welke PK-monster met mooie sport-velgjes met een flinterdun rubberlaagje): je kunt het niet maximaal gebruiken, je hebt het eigenlijk helemaal niet nodig, het kost een hoop geld, maar het is gewoon gaaf om te hebben... :P
Wanneer je zoiets gebruikt dat zo duur is, heb je er dan een goed gevoel bij? Of heb je dan zoiets van 'dat had ik ook aan iets nuttigers kunnen besteden'? Bovendien, wanneer je er tegenover anderen over moet pochten heb je er blijkbaar zelf weinig vrede mee...

Hoe dan ook het is en blijft in beide gevallen een persoonlijke overweging. Als iemand geld uit wil geven aan eerdergenoemde voorbeelden? Eigen keus. Over het algemeen is de consensus: het is niet nodig.
Itsacon schreef op dinsdag 07 augustus 2007 @ 17:40:- Zit geom_raid5 standaard in FreeBSD 7.0 CURRENT, of moet je hem daar ook los installeren? Hoe stabiel is 7.0 uberhaubt? Ik heb voldoende ervaring in 6.x en ouder, maar tot nu toe altijd bij release versies gebleven.
Die moet je ook op 7.0-CURRENT apart compileren. Dat is net zo makkelijk (of moeilijk) als op 6.2-STABLE. Als je al een GEOM_RAID5 had gebouwt op FreeBSD 6.2 oid dan zal FreeBSD dat zien zodra je de GEOM_RAID5 module hebt geladen. Je hoeft 'em dan alleen nog maar te mounten.

Toevallig draai ik nu een snapshot van 7.0-CURRENT te weten FreeBSD 7.0-CURRENT-200706 AMD64. Deze heb ik nu goed aan de praat, en draait stabiel, maar het is en blijft geen -STABLE. Alleen de patch voor de SATA controller was nodig (plus even DEBUG disabled :+). Mijn WiFi kaart was direct gedetecteerd; die kreeg ik op 6.2-STABLE met geen mogelijkheid aan de praat. Bovendien draait het systeem nu ZFS op de RAID. De performance lijkt minder dan GEOM_RAID5, maar ik ga voor

1) Integriteit van mijn hardware en het FS dus ook zonder RAID-5 write hole. (Ik heb natuurlijk een backup.)
2) Compatibiliteit van mijn RAID. (Dwz dat ik het ook op een andere *NIX, hardware, of architectuur (endianness) zou kunnen gebruiken).
3) Incremental snapshots zijn ook erg handig.

Ik geef toe dat het tweede voor mij meer een gevoelskwestie is. Bovendien is het systeem ook een server, en het wordt ook een firewall. Scheelt mij een boel stroomkosten! Zodra 7.0-RELEASE uit is draai ik dat natuurlijk. Overigens is GEOM_RAID5 op FreeBSD 7.0-CURRENT-200706 nog sneller dan 6.2-STABLE.

Onlangs m'n fans en USB stick ontvangen. 40% done; moet nog wat fans verwisselen, temperatuur testen, een kleine casemod ondergaan, en de USB stick on boot testen.

Heb ik nog een vraagje voor jullie: wat doen jullie met jullie oude HDDs?

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


Acties:
  • 0 Henk 'm!

  • Keiichi
  • Registratie: Juni 2005
  • Laatst online: 23:13
_eXistenZ_ schreef op dinsdag 07 augustus 2007 @ 20:19:
Enlightenment, je beweert bij hoog en bij laag dat geom_raid5 de shit is (en ik geloof dit ook hoor ;)) maar waarom zijn er nergens benchmarks te vinden zijn bijv. geom_raid5 versus Linux software raid5 versus een Areca kaart?
ik wil aan het eind van de week met mijn 3TB nasje wel even een kleine benchmark maken tussen FreeBSD en Linux software raid implementatie. Helaas geen Areca kaartje, om die er naast te leggen.

Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/


Acties:
  • 0 Henk 'm!

  • _eXistenZ_
  • Registratie: Februari 2004
  • Laatst online: 04-09 15:42
Dat zou vet zijn ja :D

There is no replacement for displacement!


Acties:
  • 0 Henk 'm!

  • Itsacon
  • Registratie: Maart 2006
  • Laatst online: 23-08 11:14
Jerie schreef op woensdag 08 augustus 2007 @ 20:08:
Die moet je ook op 7.0-CURRENT apart compileren. Dat is net zo makkelijk (of moeilijk) als op 6.2-STABLE. Als je al een GEOM_RAID5 had gebouwt op FreeBSD 6.2 oid dan zal FreeBSD dat zien zodra je de GEOM_RAID5 module hebt geladen. Je hoeft 'em dan alleen nog maar te mounten.
Ok, dan hou ik het voorlopig denk ik nog even bij 6.2. Zoals ik al zei is stabiliteit voorlopig nog iets belangrijker dan snelheid :-)


Over het `boys with toys' topic: Ik zou ipv hot swap bays juist voor meer 4-in-3 of 3-in-2 devices gaan. Hoe meer schijven, hoe meer toys. (heb overwogen de bovengenoemde kast uit te rusten met drie 3-in-2 bays ipv twee 4-in-3, voor een totaal van 17 schijven, maar denk dat die ene extra schijf de minder goede koeling niet waard is. Om nog maar te zwijgen over het feit dat je met een oneven aantal schijven zit en dus altijd ruimte overhoudt op je controller(s).

Voorlopig is de uitdaging om de fileserver voor het laagste bedrag mogelijk te bouwen (lees: zo veel mogelijk hardware te gebruiken die ik nog heb liggen).
Binnenkort kast bestellen en bij Farnell een paar van deze om één van de PSU's mee te rewiren.

My system is in 64 bits. But superglue keeps it together just fine...


Acties:
  • 0 Henk 'm!

Verwijderd

Jerie schreef op woensdag 08 augustus 2007 @ 20:08:
Toevallig draai ik nu een snapshot van 7.0-CURRENT te weten FreeBSD 7.0-CURRENT-200706 AMD64. Deze heb ik nu goed aan de praat, en draait stabiel, maar het is en blijft geen -STABLE.
Zeker niet, en 7-CUR heeft veel experimentele/nieuwe software draaien, dus ik hoop dat je altijd een goede backup hebt op een stabiele machine. Het zou zonde zijn als je je data verliest door bugs, dat is mij overkomen en ik heb mezelf beloofd nooit diezelfde fout nogmaals te maken.
Bovendien draait het systeem nu ZFS op de RAID. De performance lijkt minder dan GEOM_RAID5, maar ik ga voor

1) Integriteit van mijn hardware en het FS dus ook zonder RAID-5 write hole. (Ik heb natuurlijk een backup.)
2) Compatibiliteit van mijn RAID. (Dwz dat ik het ook op een andere *NIX, hardware, of architectuur (endianness) zou kunnen gebruiken).
3) Incremental snapshots zijn ook erg handig.
Weet dat ZFS experimentele software is en nog bugs bevat en niet feature-compleet is, zowel de port als de sourcecode in OpenSolaris. ZFS op FreeBSD is crash-gevoelig en is in staat je data te corrupteren. Je doet er goed aan eerst een paar pittige nachten battletests uit te voeren voordat je zoiets in gebruik neemt, en dan nog zullen sommige devs hun hoofden schudden als mensen de huidige code op hun productieserver gebruiken. Ik wil je enthousiasme voor ZFS niet bederven maar dit moet je wel in je achterhoofd houden. De features van ZFS zijn fantastisch, alhoewel de performance nog steeds erg beroerd is.

RAID5 write hole is ook niet zo boeiend als na een crash er een automatische rebuild gebeurt. Je zult in alle gevallen, ook bij ZFS, de fysieke writes missen op het moment van crashen. Het is aan je filesystem en/of journaling (gjournal, ZFS Intent Log) om te zorgen dat je filesystem niet beschadigd raakt, of deze schade weer te repareren. Je moet niet alle propaganda van Bonwick (ZFS guru) letterlijk slikken. ;)

Wat is trouwens je kmem waarde? "sysctl vm.kmem_size" kun je dat zien. ZFS is in staat om 512MB te slurpen dus moet sowieso boven deze waarde ingesteld staan voor stabiele operatie onder load. i386 heeft echter een maximale kmem waarde van 512MB dus zul je sowieso amd64 moeten gebruiken wil je ZFS stabiel houden.

[quote]Onlangs m'n fans en USB stick ontvangen. 40% done; moet nog wat fans verwisselen, temperatuur testen, een kleine casemod ondergaan, en de USB stick on boot testen.
Heb ik nog een vraagje voor jullie: wat doen jullie met jullie oude HDDs?
Momenteel heb ik een servertje gebouwd met allemaal 'kliekjes'; oude schijven dus. :P
Stuk of 14 onderhand, ja uiteindelijk kun je er niet veel meer mee. Maar ik gebruik de server nu om geom_raid5 expansion mee te ontwikkelen en te testen. En geom_raid5 versie 3 (PP) wordt erop ontwikkeld.

Je zou je schijven op ebay/marktplaats/t.net V&A kunnen zetten of ze gebruiken in een klikoserver in een concat (JBOD) die als backup dient. Dat laatste betekent ook dat de server niet altijd aan hoeft te staan maar slechts af en toe (een keer per week ofzo?) dan maakt het qua stroom weinig uit natuurlijk.

Acties:
  • 0 Henk 'm!

  • Jerie
  • Registratie: April 2007
  • Niet online
De USB stick (een Jetflash) werkt niet. 19 van de 20 keer kan FreeBSD 'm niet herkennen (dmesg). Bovendien kan ik dan geen slice mounten. Het werkt dus ook niet tijdens het booten. BIOS ziet 'm wel daar ligt het niet aan. Windows XP herkent 'm wel keer op keer (booten niet getest). Da's dan jammer.

Ik heb nu een Delock 4GB PATA flash besteld. Dat moet wel werken. Ik neem aan dat ik softupdates aan kan zetten maar dat het niet zo verstandig is om journaling aan te zetten (dit ivm onnodige writes), correct? Als ik het goed begrijp zou 4 GB niet nodig hoeven te zijn want je zou /boot op flash kunnen zetten en verder de rest op RAID-5 of RAID-Z. Dan heb je aan 256 MB flash genoeg! Aan de andere kant zet ik mijn complete OS (als in alles dat nodig is om te draaien ie. binaries, manuals) muv de broncode, ports tree, en /usr/obj op de PATA flash. Daarmee wordt OS van bulk data onderscheiden, en dat vind ik netjes.

De fans zijn allen geplaatst. Ik weet niet of de airflow zo geweldig is want daar heb ik niet veel verstand van...
Verwijderd schreef op vrijdag 10 augustus 2007 @ 20:24:
[...]

Zeker niet, en 7-CUR heeft veel experimentele/nieuwe software draaien, dus ik hoop dat je altijd een goede backup hebt op een stabiele machine. Het zou zonde zijn als je je data verliest door bugs, dat is mij overkomen en ik heb mezelf beloofd nooit diezelfde fout nogmaals te maken.
Wanneer met welk OS, welke versie, welke hardware, onder welke omstandigheden? Ik heb een backup van 2 weken geleden. Dat zijn mijn 2 PATA HDDs van 320 GB die nergens aan verbonden zijn. Die zou ik in een Windows machine JBOD kunnen laten doen en vervolgens gezellig backup laten zijn. Ik heb overwogen een USB case voor ze te kopen. Dan zou ik ze namelijk zo er aan kunnen koppelen. Maar niet alle data is belangrijk. Zo'n 4 GB wel, gaat vrijwel niet omhoog. Die heb ik al sinds jaar en dag op DVD-RW (voorheen CD-RW). Wat ik ook heb overwogen is die 2 PATA ZFS laten draaien, en die 4 SATA GEOM_RAID5 (of andersom) maar eigenlijk is een online backup niet zo verstandig. Daar hebben we wat over geDMed; het gaat hier dus om ie. blikseminslag. Waterschade lijkt me hier daarentegen onwaarschijnlijk dus daar maak ik mij niet druk over. Bliksemschade zou te vermijden zijn door de desktop gewoon uit te zetten (en van de stroom af te halen) wanneer ik er niet ben. Dan komt het dus toch neer op een offline backup omdat het systeem meestal uit staat. Alleen zou het ethernetkabeltje er dan ook uit moeten worden gehaalt lijkt me. En de monitor, en boxen? Beetje omslachtig. :P
Weet dat ZFS experimentele software is en nog bugs bevat en niet feature-compleet is, zowel de port als de sourcecode in OpenSolaris. ZFS op FreeBSD is crash-gevoelig en is in staat je data te corrupteren. Je doet er goed aan eerst een paar pittige nachten battletests uit te voeren voordat je zoiets in gebruik neemt, en dan nog zullen sommige devs hun hoofden schudden als mensen de huidige code op hun productieserver gebruiken. Ik wil je enthousiasme voor ZFS niet bederven maar dit moet je wel in je achterhoofd houden. De features van ZFS zijn fantastisch, alhoewel de performance nog steeds erg beroerd is.
Hmm hier is (nog) niets gecrashed en ook (nog) geen data loss, en ik doe eens in de paar dagen een scrub. Ik heb ook niet veel kunnen vinden via de zoekmachine wat betreft crashes of data loss + ZFS.

Hier een paar benchmarks (hardware stats staan paar paginas eerder):
# cd /tank
# dd if=/dev/zero of=./8gbfile bs=512k count=16384
16384+0 records in
16384+0 records out
8589934592 bytes transferred in 70.253513 secs (122270535 bytes/sec)
# dd if=/dev/zero of=./8gbfile bs=1024k count=8192
8192+0 records in
8192+0 records out
8589934592 bytes transferred in 69.141622 secs (124236811 bytes/sec)
# dd if=/dev/zero of=./8gbfile bs=4096k count=2048
2048+0 records in
2048+0 records out
8589934592 bytes transferred in 70.326330 secs (122143934 bytes/sec)
# dd if=/dev/random of=./8gbfile bs=4096k count=2048
2048+0 records in
2048+0 records out
8589934592 bytes transferred in 215.810273 secs (39803177 bytes/sec)
# dd if=/dev/urandom of=./8gbfile bs=4096k count=2048
2048+0 records in
2048+0 records out
8589934592 bytes transferred in 214.120781 secs (40117239 bytes/sec)
# dd if=/dev/urandom of=./8gbfile bs=1024k count=8192
dd if=/dev/urandom of=./8gbfile bs=512k count=16384
8192+0 records in
8192+0 records out
8589934592 bytes transferred in 214.367166 secs (40071130 bytes/sec)
# dd if=/dev/urandom of=./8gbfile bs=512k count=16384
16384+0 records in
16384+0 records out
8589934592 bytes transferred in 213.282734 secs (40274871 bytes/sec)

Vind ik niet slecht. Maar ik moet ook nog even een gigabit switch kopen. Misschien dat ik de boel even laat crossen da's ook leuk.
RAID5 write hole is ook niet zo boeiend als na een crash er een automatische rebuild gebeurt. Je zult in alle gevallen, ook bij ZFS, de fysieke writes missen op het moment van crashen. Het is aan je filesystem en/of journaling (gjournal, ZFS Intent Log) om te zorgen dat je filesystem niet beschadigd raakt, of deze schade weer te repareren. Je moet niet alle propaganda van Bonwick (ZFS guru) letterlijk slikken. ;)
Daarom had ik ook GEOM_RAID5 met journaling maar helaas vond ik de performance vies tegenvallen (op 6.2-STABLE). Overigens kan ik een ieder aanraden om met noatime te mounten!
Wat is trouwens je kmem waarde? "sysctl vm.kmem_size" kun je dat zien. ZFS is in staat om 512MB te slurpen dus moet sowieso boven deze waarde ingesteld staan voor stabiele operatie onder load. i386 heeft echter een maximale kmem waarde van 512MB dus zul je sowieso amd64 moeten gebruiken wil je ZFS stabiel houden.
Ja, AMD64 versie gebruik ik nu.

# sysctl vm.kmem_size
vm.kmem_size: 419430400
# sysctl kern.maxvnodes
kern.maxvnodes: 400000

Eigenlijk staat alles standaard behalve sysctl kern.maxvnodes. Volgens de howto is het niet nodig om met sysctl te spelen op AMD64 en voor zover ik dat heb kunnen zien klopt dat.
Je zou je schijven op ebay/marktplaats/t.net V&A kunnen zetten of ze gebruiken in een klikoserver in een concat (JBOD) die als backup dient. Dat laatste betekent ook dat de server niet altijd aan hoeft te staan maar slechts af en toe (een keer per week ofzo?) dan maakt het qua stroom weinig uit natuurlijk.
Misschien. Het zou het mooist zijn als dat automatisch zou kunnen. Maar, automatisch zie ik zoiets niet gebeuren.

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


Acties:
  • 0 Henk 'm!

Verwijderd

Kenny_NL schreef op maandag 06 augustus 2007 @ 08:08:
Overigens begin ik zelf steeds meer te twijfelen aan het nut (voor mij dan) om RAID5 te gebruiken, aangezien ik geen recente hardware gebruik
Goed dan kun je niet veel snelheid verwachten, maar wat zijn je eisen? RAID5 is voornamelijk handig als je veel data wilt opslaan zonder TIG schijven in een mirror, maar toch een beveiliging tegen schijfuitval wilt hebben zoals mirroring. Als de snelheid bij lezen goed is (kan met oude hardware) en de schrijf-snelheid op 100Mbps niveau, is dat dan acceptabel voor je? Zo ja, dan kan RAID5 wel degelijk een geschikt level voor je zijn.

Wil je een ultiem stroom-efficient systeem overweeg dan het gebruik van concat/JBOD, waarbij elke schijf downspint. Je backup/mirror is dan een ander systeem die elke nacht een snapshot maakt. Wel een stuk duurder en minder confortabel in geval van een disk crash (je kunt er dan tijdelijk niet bij, bovendien verlies je data tot je laatste backup). Alles hangt af van je wensen en prioriteiten; goede afwegingen maken is de kunst. :)
Itsacon schreef op dinsdag 07 augustus 2007 @ 17:40:
To-the-point, wat vraagjes. Vooral aan Enlightenment gericht, maar als iemand anders kan helpen is dat natuurlijk net zo welkom.

- Zit geom_raid5 standaard in FreeBSD 7.0 CURRENT, of moet je hem daar ook los installeren? Hoe stabiel is 7.0 uberhaubt? Ik heb voldoende ervaring in 6.x en ouder, maar tot nu toe altijd bij release versies gebleven.
- de 500 GB Seagate die ik heb liggen heeft al data, maar die is eventueel vervangbaar. Hoe ver is je offline expansion script for i386 CPU's, en heb je behoefte aan een testsysteem?
FreeBSD7 zou ik voor data die veilig moet zijn nog niet gebruiken, of je moet ten alle tijde een goede backup hebben. Het zou stabiel moeten zijn maar bugs kunnen roet in het eten gooien, bovendien kent FreeBSD7 onderhand vele veranderingen en heeft het nog een aardige weg te gaan voordat hij klaar is voor een release. Zoals Jerie al zei moet je geom_raid5 sowieso installeren, alhoewel ik bezig ben met packages die je eenvoudig op je systeem (6.2 / 7 op i386 of amd64) kunt installeren. Als je hulp nodig hebt met compileren kun je ook een DM'etje sturen. :)

Mijn expansion script is bijna klaar voor i386! Dat is dus goed nieuws. Testen zou idd erg fijn zijn. Ik heb hier een test/ontwikkelsysteem maar ik wil dat minimaal 20 mensen een expansion zelf uitvoeren, het liefst in een zo realistisch mogelijke situatie op een grote diversiteit van systemen. Maar zonder dat dataverlies ernstig is, dus de data moet of nep/rommel zijn of je hebt een steengoede backup elders zodat eventueel dataverlies niet uitmaakt. Ik geef pas garanties op mijn script als ik er 100% zeker van ben dat er geen fouten in zitten. :)
FreeNAS heb ik nog geen aandacht aan besteed, wel heb ik een mail naar Olivier (lead-dev van FreeNAS) gestuurd met wat vragen, dus even afwachten. Expansion zal over een weekje wel test-klaar zijn.
_eXistenZ_ schreef op dinsdag 07 augustus 2007 @ 20:19:
Enlightenment, je beweert bij hoog en bij laag dat geom_raid5 de shit is (en ik geloof dit ook hoor ;)) maar waarom zijn er nergens benchmarks te vinden zijn bijv. geom_raid5 versus Linux software raid5 versus een Areca kaart?
Daar ben ik mee bezig. Eigenlijk zou ik allang klaar moeten zijn met mijn artikelen, maar naast dat het schrijven ervan langer duurt dan gepland en ik meer realistische benchmarks wilde draaien hetgeen ook veel tijd kost om uit te zoeken en veel te testen, is het ook zo dat dingen als expansion en mijn priveleven mijn tijd beperken. Ik wil veel maar ik kan niet alles tegelijk. En: ik doe liever dingen goed dan veel dingen afraffelen. Bovendien ben ik vaak te optimistisch waardoor dingen altijd uitlopen. :P

Maargoed om je een idee te geven, met een systeem van 8 hardeschijven op een goede bus kun je met geom_raid5 stable zo'n 250/150 MB/s (read/write) halen en met geom_raid5 TNG zo'n 420/400 MB/s mits je CPU dit bij kan houden. TNG kan zo'n 80% van de maximale throughput verzilveren - een zeer goede prestatie!

Het probleem is vaak dat je geen 8 hardeschijven kunt aansluiten met volledige bandbreedte tot je beschikking. Je hebt vaak maar 4 SATA onboard en de overige sluiten veel mensen via PCI aan, hetgeen behoorlijk op de snelheid kan drukken. De reden dat er nog geen officiele benchmarks zijn is dat geom_raid5 nog in ontwikkeling is en nog niet eens in de 7-CURRENT tree zit. Alhoewel de stabiele versie van geom_raid5 nu toch wel een tijdje uit is en al intensief getest is.

Acties:
  • 0 Henk 'm!

Verwijderd

Jerie schreef op vrijdag 10 augustus 2007 @ 23:45:
Ik heb nu een Delock 4GB PATA flash besteld. Dat moet wel werken. Ik neem aan dat ik softupdates aan kan zetten maar dat het niet zo verstandig is om journaling aan te zetten (dit ivm onnodige writes), correct?
Inderdaad, softupdates zou ik wel inschakelen om de hoeveelheid metadata writes te beperken.
Als ik het goed begrijp zou 4 GB niet nodig hoeven te zijn want je zou /boot op flash kunnen zetten en verder de rest op RAID-5 of RAID-Z. Dan heb je aan 256 MB flash genoeg!
Zo heb ik het een tijdje gedraaid ja, maar als er wat met je array is, is het niet fijn als je Operating System hier ook op draait. Zelf zou ik een dergelijke setup dus liever vermijden. Maar het kan zeker, zelfs met PXE netboot, dus alleen 8 schijven die 100% voor RAID5 zijn en geen enkele bootschijf. Je boot dan via netwerk die RAID5 disk als / zal mounten. Erg geavanceerd en niet zo gemakkelijk om te configureren maar het heeft bij mij zo een aantal maanden gedraaid. :)
Wanneer met welk OS, welke versie, welke hardware, onder welke omstandigheden?
FreeBSD-CURRENT van maart 2007 ofzo, kan zijn dat veel van de problemen waar ik tegenaan liep al zijn opgelost hoor, maar ZFS is wel work-in-progress. Ook op OpenSolaris zelf.
Hmm hier is (nog) niets gecrashed en ook (nog) geen data loss, en ik doe eens in de paar dagen een scrub. Ik heb ook niet veel kunnen vinden via de zoekmachine wat betreft crashes of data loss + ZFS.
Oke nou hopelijk zijn de problemen die ik tegenkwam al opgelost. Je doet er denk ik goed aan het systeem wel goed te belasten met meerdere bonnies bijvoorbeeld, of 10x blogbench draaien. Beide benchmarks vind je onder /usr/ports/benchmarks. Je kunt iets in de achtergrond draaien op de volgende manier:

bonnie -s 2048 -d /pad/waar/je/wilt/testen &

Dat & teken op het laatst zorgt ervoor dat het commando op de achtergrond wordt gedraaid, je kunt dan dus 10 bonnies tegelijk draaien enzo. Kijken of het stabiel blijft. Ook via netwerk zou je complete meerdere streams van kleine files en grote data kunnen versturen. En dat een uurtje of 3/4 uur aanlaten. Dan heb je een redelijk idee of de software stabiel is, alhoewel sommige bugs pas na 14 dagen continu gebruik voordeden bij mij (zal wel een memleak zijn).
8589934592 bytes transferred in 215.810273 secs (39803177 bytes/sec)
Aangenomen dat je niet veel geheugen hebt (waardoor een groot deel vanuit het RAM wordt geserveerd) zijn dit bijzonder goede scores. Maar
Daarom had ik ook GEOM_RAID5 met journaling maar helaas vond ik de performance vies tegenvallen (op 6.2-STABLE). Overigens kan ik een ieder aanraden om met noatime te mounten!
Journaling doet parallelle datastreams, dat betekent dat je de write queue van geom_raid5 tot 500 I/O's moet verhogen. Dat is niet zo'n probleem aangezien geom_raid5 BIO_FLUSH ondersteunt, die zijn hele cache leegmaakt als gjournal daarom vraagt. De beste performance krijg je als je een andere schijf (b.v. je boot schijf) als journal gebruikt zodat geom_raid5 niet zowel de journaling als de data bevat. gjournal is niet zoals andere journaling schemes, aangezien gjournal behalve metadata ook data zal journalen, heeft dit een veel grotere impact op de performance. Ik zelf had liever metadata-journaling gezien. Overigens kun je bij journaling ook async mounten, dat staat ook in de manpage van gjournal. Maargoed als ZFS goed voor jou werkt kun je dat eerst eens goed proberen. Zolang je backups hebt zit je toch wel redelijk veilig.
Misschien. Het zou het mooist zijn als dat automatisch zou kunnen. Maar, automatisch zie ik zoiets niet gebeuren.
Al een lange tijd kun je in je BIOS power-up events instellen, ook bij oude systemen. Je kunt zeggen elke dag om 3.00 's nachts aangaan of elke dag van de week. Als je OS is geboot en backuppen voltooid is, gooit die hem weer uit. Zo heb je een systeem wat automatisch aan en uit gaat. Erg handig! Uiteraard slurpt je PC ook stroom als hij uitstaat, zo'n 3 tot 5W. Maar dat moet je dan maar voor lief nemen denk ik.

Acties:
  • 0 Henk 'm!

  • Keiichi
  • Registratie: Juni 2005
  • Laatst online: 23:13
Tijdens het monteren van de koelers ben ik op problemen gestuit ;(

De koelers raken de processors nog eens niet.
En de koelers passen niet naast elkaar.

Voor details: Koeler raakt processor niet + 2 koelers passen niet.

Ik sta voor een klein raadsel, of ik heb ergens een denkfout gemaakt of er zijn fabrikanten die lak hebben aan maatvoeringen :?

Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/


Acties:
  • 0 Henk 'm!

  • Sparhawk
  • Registratie: Maart 2001
  • Laatst online: 04-09 16:52

Sparhawk

Can bind minds with his spoon

Heren, Dame :)

Ik ben mij ook eens aan het inlezen geslagen aangezien ik ook een NAS wil
Wat de bedoeling is is als volgt.
Om te beginnen 5x 500GB in raid 5.
Doel is ook om freenas te gaan draaien

Nu heeft mijn vriendin een wat oudere computer, met een K8V-SE als mammaplank Daar zitten 4 SATA aansluitingen op.

Nu vraag ik me over dat plankje 3 dingen af
1) Ondersteunt ie booten van USB (denk het zelf niet, ben het namelijk niet tegengekomen)
2) Als ik 5 schijven in raid5 zet, is de processor dan snel genoeg om de pariteitsberekeningen te doen, en om de onboard Gbit Nic een beetje fatsoenlijk (>50MB/s) te belasten?
3) Als ik 5 schijven erin wil, kunnen er 4 standaard op de SATA aansluitingen, en er zal dan nog een los PCI kaartje (geen PCI-e aan boord) gekocht moeten worden. Wordt dat geen hele specifieke snelheidsbeperking (ook niet met uitbreiden naar 6 of meer schijven)

Als namelijk blijkt dat dit niet voldoende is, komt er een nieuwe mammaplank met processor en PCI-e e.d maar ondanks al mijn leeswerk heb ik nog niet echt antwoord op deze vragen. Dank alvast voor de reacties :) (enne er zullen nog wel meer vragen volgen)

Wil iedereen die in telekinese gelooft mijn hand opheffen a.u.b.


Acties:
  • 0 Henk 'm!

Verwijderd

Sparhawk schreef op zondag 12 augustus 2007 @ 17:36:
Nu vraag ik me over dat plankje 3 dingen af
1) Ondersteunt ie booten van USB (denk het zelf niet, ben het namelijk niet tegengekomen)
2) Als ik 5 schijven in raid5 zet, is de processor dan snel genoeg om de pariteitsberekeningen te doen, en om de onboard Gbit Nic een beetje fatsoenlijk (>50MB/s) te belasten?
3) Als ik 5 schijven erin wil, kunnen er 4 standaard op de SATA aansluitingen, en er zal dan nog een los PCI kaartje (geen PCI-e aan boord) gekocht moeten worden. Wordt dat geen hele specifieke snelheidsbeperking (ook niet met uitbreiden naar 6 of meer schijven)
1) BIOS boot support hebben bijna alle niet-antieke moederborden, probleem is dat FreeNAS/FreeBSD een bug heeft in de boot2-bootloader, waardoor op veel systemen USB boot alsnog faalt met de melding "invalid slice". Het is uitproberen of het voor jou wel werkt. Een PATA disk (eventueel flash, or met compactflash -> PATA) werkt natuurlijk altijd.

2) Zonder te weten welke processor je over praat is dat moeilijk te zeggen. 50MB/s write ga je niet halen met een Pentium3 ofzo, althans dat zie ik niet gebeuren. Maar zelfs een Sempron 2600+ (echt ultra-low budget) haalt 150MB/s write zonder veel problemen. Je moet wel weten dat FreeNAS een langzamere (maar beter geteste) versie van geom_raid5 gebruikt, de nieuwe versie TNG is sneller maar gebruikt wel meer geheugen.

3) Overweeg om die 5e schijf gewoon als PATA te kopen, dan heb je dat hele probleem niet. Je bespaart de kosten van een PCI kaartje waar je later toch niks aan hebt en je hebt geen snelheidsbelemmering. 1 disk op PCI zal echter geen significante snelheidsbelemmering mogen veroorzaken, maar PCI slurpt wel veel CPU cycles hetgeen op zichzelf al write performance kan imperken. Bovendien zit je gigabit ethernet ook op PCI hetgeen opzichzelf al 50% cpu kan innemen om daar 70MB/s ruw mee te verstoken. Test dit eens uit is mijn advies, met TCP bandbreedte software (kperf voor windows, iperf voor FreeBSD).

Acties:
  • 0 Henk 'm!

  • Sparhawk
  • Registratie: Maart 2001
  • Laatst online: 04-09 16:52

Sparhawk

Can bind minds with his spoon

Verwijderd schreef op zondag 12 augustus 2007 @ 20:34:
[...]

1) BIOS boot support hebben bijna alle niet-antieke moederborden, probleem is dat FreeNAS/FreeBSD een bug heeft in de boot2-bootloader, waardoor op veel systemen USB boot alsnog faalt met de melding "invalid slice". Het is uitproberen of het voor jou wel werkt. Een PATA disk (eventueel flash, or met compactflash -> PATA) werkt natuurlijk altijd.
Duidelijk, uitproberen dus :)
2) Zonder te weten welke processor je over praat is dat moeilijk te zeggen. 50MB/s write ga je niet halen met een Pentium3 ofzo, althans dat zie ik niet gebeuren. Maar zelfs een Sempron 2600+ (echt ultra-low budget) haalt 150MB/s write zonder veel problemen. Je moet wel weten dat FreeNAS een langzamere (maar beter geteste) versie van geom_raid5 gebruikt, de nieuwe versie TNG is sneller maar gebruikt wel meer geheugen.
Er zit uit mijn hoofd een AMD Athlon 64 (op 2GHz) in, is al weer een tijdje oud en niet super, maar kennelijk wel goed genoeg.
3) Overweeg om die 5e schijf gewoon als PATA te kopen, dan heb je dat hele probleem niet. Je bespaart de kosten van een PCI kaartje waar je later toch niks aan hebt en je hebt geen snelheidsbelemmering. 1 disk op PCI zal echter geen significante snelheidsbelemmering mogen veroorzaken, maar PCI slurpt wel veel CPU cycles hetgeen op zichzelf al write performance kan imperken. Bovendien zit je gigabit ethernet ook op PCI hetgeen opzichzelf al 50% cpu kan innemen om daar 70MB/s ruw mee te verstoken. Test dit eens uit is mijn advies, met TCP bandbreedte software (kperf voor windows, iperf voor FreeBSD).
Duidelijk, dat wordt uitzoekwerk. Hoe, dat weet ik nog niet (heb namelijk nog geen 4 disks, maar daar kom ik wel uit.

Ok, allereerst veel dank voor de antwoorden, en uiteraard nog gelijk 2 vragen erbij :)
1) Ondersteunt freenas nu al online capacity expantion? (dus ook voor niet 64 bit processors?)
2) Is het mogelijk om een enkele partitie groter dan 2TB te maken onder freenas?

Dank alvast voor de input, en ik houd jullie op de hoogte van de plannen. Zal soms even duren, want in de tussentijd moet er ook een huis gekocht worden :D maar jullie krijgen updates :)

Wil iedereen die in telekinese gelooft mijn hand opheffen a.u.b.


Acties:
  • 0 Henk 'm!

Verwijderd

Sparhawk schreef op zondag 12 augustus 2007 @ 23:47:
Er zit uit mijn hoofd een AMD Athlon 64 (op 2GHz) in, is al weer een tijdje oud en niet super, maar kennelijk wel goed genoeg.
Oh dat noem ik wel een moderne processor hoor. :)
Ok, allereerst veel dank voor de antwoorden, en uiteraard nog gelijk 2 vragen erbij :)
1) Ondersteunt freenas nu al online capacity expantion? (dus ook voor niet 64 bit processors?)
Pas over een week ofzo zal de expansion 'beta' zijn en dus getest gaan worden door geinteresseerden in een situatie waarbij bugs geen ernstige gevolgen kunnen hebben. Dan werkt de software ook op 32-bit systemen. Zodra de software final is (en ik heb hier geen datum voor) zal hij beschikbaar zijn voor FreeBSD en FreeNAS. Mogelijk niet voor de eerdere releases van FreeNAS daar moet ik nog naar kijken.

Ook als de final is uitgebracht zal dir command-line blijven, dus dat betekent SSH'en naar je FreeNAS box, een package/script installeren en de expansion uitvoeren. Dit is absoluut niet moeilijk, maar het is natuurlijk mooier als expansion direct geintegreerd is in de FreeNAS GUI. Verwacht dit echter niet vandaag of morgen, eerder over een maand of 2.

Natuurlijk kun je nu gewoon FreeNAS gebruiken en later upgraden en dan de expansion uitvoeren. Je moet wel weten dat upgraden problemen kan geven met je huidige arrays. Hopelijk wordt de volgende stabiele release van FreeNAS uitvoerig getest met name op dit punt.
2) Is het mogelijk om een enkele partitie groter dan 2TB te maken onder freenas?
Sure, althans onder FreeBSD wel want ik werk met partities van 6.8 en 5.0TB. Voor hoger dan 2TB is 64-bit LBA nodig, ik denk dat je zelfs geen BIOS support hiervoor nodig hebt.

Acties:
  • 0 Henk 'm!

Verwijderd

Na een weekje spelen met mijn configuratie (zie eerdere post) ben ik redelijk gelukkig. Performance is prima, stilte van de kast helemaal OK. Heb echter een vreemd probleempje: soms initieert mijn RAID niet bij het opstarten :? .... soms ook weer wel. Het lijkt volledige willekeur. Of wellicht niet doordat ik Ubuntu en mdadm gebruik. Iemand dit eerder gezien en wellicht ergens een oplossing gevonden?

Acties:
  • 0 Henk 'm!

  • rob040
  • Registratie: Augustus 2007
  • Laatst online: 01-10-2022
Poe, poe, na 37 pages duizelt het een beetje. Tijd voor een uittreksel ;)

Iemand deze ooit gezien: http://embedded-pc.microbus.com/products/sbc/mat1111.html ?
Lijkt me een heel mooi bordje.

Even wat anders. Soms dacht ik tijdens het lezen wel eens dat er verwarring bestond over de gehaalde snelheden. Ik vind dat altijd weer verwarrend. Snelheid van netwerken, maar ook wat de ISP opgeeft is in Mbit/sec, toch. Als je dat omzet naar MByte/sec, dan wordt het ineens een ander verhaal. Wordt dit in de praktijk wel concequent en consistent gebruikt? Waarom met verschillende eenheden werken?
Of is dit voor de doorgewinterde systeem man/vrouw geen probleem?

Acties:
  • 0 Henk 'm!

Verwijderd

bits wordt doorgaans de lijnsnelheid mee aangeduid: bandbreedte (brutosnelheid)
bytes wordt doorgaans de doorvoersnelheid mee aangeduid: throughput (nettosnelheid)

Dit zijn twee verschillende begrippen! Voorbeeld:

SATA/300 heeft een bandbreedte van 3Gbps en een maximale throughput van 300MB/s
Dit komt door het 10/8 encodingschema waardoor je dus niet door 8 moet delen maar door 10

Bij TCP/IP kun je een bandbeedte hebben van 100Mbps hetgeen ruw vertaald 12.5MB/s aan ruwe bandbreedte is, de maximale netto throughput die je kunt halen is iets van ~10.5MB/s.

Conclusie: deel gewoon door 10 dan zit je er niet veel naast. Je zou het ook kunnen zien als: bits is theoretisch, bytes gebruik je als je over de praktijk spreekt. Dus USB levert jou 480Megabit aan bandbreedte maar in de praktijk haal je 22MB/s bijvoorbeeld. Uiteindelijk is dat laatste enkel van belangrijk, bandbreedte wordt vaak verkeerd begrepen en is eigenlijk helemaal niet zo belangrijk; de maximale throughput is in principe het enige dat telt (naast de latency).

[ Voor 24% gewijzigd door Verwijderd op 14-08-2007 21:37 ]


Acties:
  • 0 Henk 'm!

  • rob040
  • Registratie: Augustus 2007
  • Laatst online: 01-10-2022
Verwijderd schreef op dinsdag 14 augustus 2007 @ 17:48:
SATA/300 heeft een bandbreedte van 3Gbps en een maximale throughput van 300MB/s
Dit komt door het 10/8 encodingschema waardoor je dus niet door 8 moet delen maar door 10
Deze begrijp ik.
Bij TCP/IP kun je een bandbeedte hebben van 10Mbps hetgeen ruw vertaald 12.5MB/s aan ruwe bandbreedte is, de maximale netto throughput die je kunt halen is iets van ~10.5MB/s.
Maar bij deze zou het dan 1.25MB/s bruto en 1.05MB/s netto moeten zijn. (Of je moet 100Mbps bedoeld hebben).

Maar dank voor jouw heldere uitleg _/-\o_ .

Acties:
  • 0 Henk 'm!

Verwijderd

Oh sorry je hebt gelijk, idd 100Megabit, zal het gelijk aanpassen. :P

Acties:
  • 0 Henk 'm!

  • sjirafje
  • Registratie: Augustus 2003
  • Laatst online: 00:43

sjirafje

No inspirational quotes here

Interessant topic. Ik wil iets soortgelijks gaan maken. Echter moet de nas in mijn geval ook een work/game-station worden. Dat betekent in mijn geval dat er Windows XP en in de toekomst mogelijk Vista op moet draaien. FreeNAS en dergelijke zijn daarom niet mogelijk.

Mijn boodschappenlijstje tot nu toe
#ProductPrijsSubtotaal
1Asus EAX1950 PRO/HTDP/256M€ 125,-€ 125,-
1Cooler Master CM Stacker STC-T01 (E-ATX/BTX, Geen PSU, Zilver)€ 121,82€ 121,82
2Cooler Master SPB-3T4-E1 4 in 3 Device Module (4x 3.5" in 3x 5.25")€ 12,-€ 24,-
1GigaByte GA-P35-DQ6, P35 (ATX, Sound, LAN, SATA II, RAID, 1394)€ 181,40€ 181,40
1Intel Core 2 Quad Q6600 (S775, 4x 2.4GHz, 8MB, 1066MHz FSB, Boxed)€ 236,-€ 236,-
1NEC AD-7173 18x (Dual-layer, Labelflash, Zwart)€ 25,49€ 25,49
6Seagate Barracuda 7200.10 500GB€ 89,-€ 534,-
2Seagate Barracuda 7200.10, 320GB (7200rpm, SATA II, 16MB)€ 64,50€ 129,-
2Twinmos DC-001-800-TWI-240-U-16-H-5.0€ 81,15€ 162,30
1Zalman ZM600-HP 600W (ATX, Heatpipe))€ 90,20€ 90,20
ImporterenTotaal€ 1.629,21

Mijn wensen
6 x 500 GB in RAID 5 (voor mijn data)
2 x 320 GB in RAID 0 (voor OS en programmas) (dagelijkse back-up op externe HD)
Uitbreidbaarheid; ik wil de 500 gb schijven op enig moment kunnen vervangen door grotere schijven maar totdat grotere schijven betaalbaar zijn moet het ook mogelijk zijn om extra schijven "bij te kunnen prikken"

"Overdenking"
Raid 0 is geen probleem voor de controller op het moederbord. Maar raid 5? Nu weet ik dat het door middel van een hack mogelijk is om software raid 5 (ik wil namelijk raid 5 en raid 0 gaan draaien) onder windows xp te draaien. En de prestaties zijn niet onaardig.
Maar alle moederborden die ik gevonden heb hebben maximaal 8 sata poorten. Dus een schijfje er bij prikken is dus niet zonder meer mogelijk. Ik zou dan een extra PCI(-E) kaartje in moeten (minimaal 80 euro als ik het goed gezien heb) En dan is het nog maar de vraag of ik in windows de raid 5 array zomaar kan uitbreiden. Ook heb ik geen enkel moederbord gevonden dat sata port multiplier ondersteund. Kortom een RAID5 controller zou wenselijk zijn. Ware het niet dat deze erg duur zijn, zeker wanneer je (toch eigenlijk) minimaal 8 sata poorten wilt hebben.

Nu heb ik op en 2dehands site een 3ware 9500s-12 gevonden voor 300 euro met nog enkele maanden garantie (de 8 poorts versie word hier besproken) Het beeld dat ik heb gekregen van deze kaart door de review is dat het een goede middenmoter is, alleen dat de prijs te hoog was. De prijs van deze kaart is momenteel 889,91 euro. Deze kaart zou in vrijwel elke PCI of PCI-x slot werken. (Dat heb ik hier uit begrepen) Maar zitten de onderdelen op het moederbord dan niet in de weg voor het extended gedeelte van de PCI-x?
Het mooie van deze oplossing zou zijn dat ik binnen mijn budget blijf en dat ik voorlopig naar hartelust schijven kan bij prikken. Groot nadeel is wel dat ik gebruik maak van een PCI slot (Theoretische bandbreedte is 133MB/s (100MB/s effectief?) ) en dus waarschijnlijk een voor raid 5 begrippen een vrij belabberde snelheid krijg. Waarschijnlijk zit de NIC ook op de PCI-bus aangesloten, dus dan zou ik maar een snelheid van +/- 50 MB/s (?) halen.

Andere mogelijkheid is de pricewatch: HighPoint RocketRAID 2320 (8x SATA300, PCI-e, X4) Deze is met 250 iets goedkoper maar hij heeft dan ook 4 sata aansluitingen minder. Maar deze kaart is PCI-e x4 en gaat dat wel zonder problemen werken in een 4 lanes PCI-e x16 slot? Daarnaast is dit een firmware raid controller (zeg ik dit zo goed?) Dus alle berekeningen zullen door de cpu gedaan moeten worden. Nu zit er vast altijd minstens 1 core uit zijn neus te eten dus dat zal niet zo'n probleem zijn. Maar toch het vermelden waard.

Kaarten met meer dan 8 poorten kosten volgens de pricewatch minstens 500 euro en dan ga ik toch wel behoorlijk over mijn budget. En dat doe ik liever niet.

Nog een mogelijkheid is een raid kaart via eBay kopen. Bijvoorbeeld deze INTEL SRCSAS18E voor 260 euro. Maar hoe zit dat met btw, inklaringskosten en verzendkosten? (Ik heb verkoper gemaild over de verzendkosten) En een garantie van 7 dagen(!)

Zoals het er nu uitziet zou die Intel de mooiste oplossing zijn als ik deze voor minder dan 320 euro (all-in) kan krijgen. Dan moet ik er maar op gokken dat als hij kapot gaat dat hij dat binnen 7 dagen doet. Maar ik vrees dat ik hem niet voor minder dan 320 in huis heb.

Ik heb verder ook marktplaats en 2dehands nagezocht, maar er word vrij weinig aangeboden en je moet bijna altijd de hoofdprijs betalen :(

Mijn vraag
Wat is nu de beste mogelijkheid, heb ik dingen over het hoofd gezien?
En 300 euro voor die 3ware is dat een redelijk bedrag, of word ik dan afgezet?
Verder zijn alle tips en ideeen uiteraard van harte welkom.

Update
Ik heb inmiddels een andere raid controller gevonden die waarschijnlijk veel interessanter is. Het gaat om de Dell PERC5i. Deze is op eBay rond de 100 US dollar te krijgen. Iemand ervaring met deze controller? En ik neem aan dat hij gewoon in in een 4 lanes PCI-e x16 slot werkt, is dat zo?

Dell PERC 5/i
PERC 5/i Internal RAID Adapter is a PCI Express™ based SAS RAID controller that provides enterprise class protection and performance for supported Dell™ PowerEdge™ servers and Dell™ Precision™ workstations. It provides support for RAID levels 1, 5, 10, and 50. RAID level 0 is also available for non-critical data. It includes a powerful Intel® IOP333 processor with XScale® Microarchitecture along with a 256MB DDR2 memory for read and write cache. It delivers a high bandwidth of 3 Gbps SAS technology and its SAS connectors contain four SAS ports each for a total bandwidth of up to 12 Gbps. When used on supported PowerEdge™ servers, it also includes battery backup designed to provide up to 72 hours of protection.

[ Voor 5% gewijzigd door sjirafje op 15-08-2007 06:23 ]

Rodriguez has the heart of a gentleman. I don't know where he got it, but it's disgusting. - Quinn


Acties:
  • 0 Henk 'm!

  • sjirafje
  • Registratie: Augustus 2003
  • Laatst online: 00:43

sjirafje

No inspirational quotes here

Reactie van de verkoper van de intel controller, het verzenden zou 51,25 usd kosten. Het totaal zou dan inclusief btw etc ongeveer 350 euro gaan kosten. Dus die mogelijkheid word ook een stuk minder aantrekkelijk.

offtopic:
Heb ik mijn vraag soms verkeerd geformuleerd? Ik kreeg namelijk niet het antwoord dat ik verwachte.
Mijn vragen:
Do you ship to the netherlands? If so how much would it cost me?
I don't have a creditcard so i'm not a verified paypal user, can i still use paypal to make the payment?

De reactie:
Express Mail® International 3 - 5 Days $51.25
yes you can use paypal with your credit card

Rodriguez has the heart of a gentleman. I don't know where he got it, but it's disgusting. - Quinn


  • Keiichi
  • Registratie: Juni 2005
  • Laatst online: 23:13
Mijn eigen gebouwde NAS is alive and kicking, at last :P

Laatste problemen waar ik tegen aanliep:

- Supermicro SNK-P0008A pastte niet, koelblok raakte proc niet en waren te breed om naast elkaar er in te gaan. Hiervoor heb ik andere gevonden, namelijk: Nexus Technology SXA-6047. Deze waren wel goe.
- Buzzer van 1 van de drivebays bleef herrie maken. De buzzer heb ik gewoon eruit gesloopt :')

Ben momenteel de harde schijven van voor naar achter aan het doortesten (DOA's komen hier vlot aan het licht, maar heb zo snel nog niets ongewoons gezien). De snelheid op het begin van de hardeschijven is 78Mbytes/sec en op het einde 40Mbytes/sec kan ik al wel zeggen :z Ze waren tergelijk met tegen de 500Mbytes/sec hun testje weg aan het schrijven :D Wat dat betreft heeft de keuze voor PCI-x 133mhz/64bit zeer verstandig _/-\o_

Morgen een FreeBSD install, geom_raid5 test en een Linux install een Linux software raid5 test en zien wat daarbij het verschil is :9

-edit-
Qua kosten, door de nieuwe koelers is er wat meer geld uitgegeven. Het was Eur 1457.11 en het is Eur 1525.10 geworden. (68 euro voor de koelers)

[ Voor 7% gewijzigd door Keiichi op 16-08-2007 00:37 ]

Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/


  • Keiichi
  • Registratie: Juni 2005
  • Laatst online: 23:13
sjirafje schreef op woensdag 15 augustus 2007 @ 05:30:
Mijn vraag
Wat is nu de beste mogelijkheid, heb ik dingen over het hoofd gezien?
En 300 euro voor die 3ware is dat een redelijk bedrag, of word ik dan afgezet?
Verder zijn alle tips en ideeen uiteraard van harte welkom.
De prijzen voor de 3ware controllers (9650) liggen ongeveer op dit niveau (waar ik ze haal tenminste):
4poorts: 319 ex btw (ca 380 incl btw)
8poorts: 465 ex btw (ca 553 incl btw)
12poorts: 689 ex btw (ca 820 incl btw)

300 voor een 4poorts adapter is een nette prijs in ieder geval.

Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/


  • MrBarBarian
  • Registratie: Oktober 2003
  • Laatst online: 07-03-2023
Keiichi schreef op donderdag 16 augustus 2007 @ 00:22:
Morgen een FreeBSD install, geom_raid5 test en een Linux install een Linux software raid5 test en zien wat daarbij het verschil is :9
Daar ben ik erg benieuwd naar! Ik vraag me nu al een tijdje of hoeveel verschil er zit tussen Linux MDADM en het hier zo geprezen geom_raid5

iRacing Profiel


  • Shuriken
  • Registratie: November 1999
  • Laatst online: 26-08 12:33

Shuriken

Life is all about priorities

sjirafje schreef op woensdag 15 augustus 2007 @ 15:10:
Reactie van de verkoper van de intel controller, het verzenden zou 51,25 usd kosten. Het totaal zou dan inclusief btw etc ongeveer 350 euro gaan kosten. Dus die mogelijkheid word ook een stuk minder aantrekkelijk.
Als je nu toch een goedkope optie zoekt: Marvell PCI-E SATA 4 PORT

Dan heb je icm je mainboard toch 12 poortjes.

I rather have a bottle in front of me, then a frontal lobotomie


  • tafkaw
  • Registratie: December 2002
  • Laatst online: 03-09 00:58
Tja, je kan ook een SuperMicro AOC-SAT2-MV8 halen en dan software RAID5 draaien... Zal dat binnenkort ook eens proberen op mijn server en dan ervaringen posten...

  • Shuriken
  • Registratie: November 1999
  • Laatst online: 26-08 12:33

Shuriken

Life is all about priorities

Gr0wLiThE schreef op donderdag 16 augustus 2007 @ 14:17:
Tja, je kan ook een SuperMicro AOC-SAT2-MV8 halen en dan software RAID5 draaien... Zal dat binnenkort ook eens proberen op mijn server en dan ervaringen posten...
Ja dat kan ook natuurlijk. Het enige nadeel daaraan is dat je aan de "smalle" PCI bus gebonden bent.

I rather have a bottle in front of me, then a frontal lobotomie


  • sjirafje
  • Registratie: Augustus 2003
  • Laatst online: 00:43

sjirafje

No inspirational quotes here

Gr0wLiThE schreef op donderdag 16 augustus 2007 @ 14:17:
Tja, je kan ook een SuperMicro AOC-SAT2-MV8 halen en dan software RAID5 draaien... Zal dat binnenkort ook eens proberen op mijn server en dan ervaringen posten...
Maar kun je dan ook probleemloos op een ander OS overstappen? (In mijn geval van XP naar Vista)
En de supermicro die je aanhaalt is helaas PCI-x (extended) Dus dan zou ik eigenlijk een moederbord moeten hebben met PCI-x, en ik kan in de pricewatch maar bar weinig moederborden vinden waar de Q6600 op kan en die PCI-x hebben.

Ik ben uiteraard op ook zoek gegaan naar reviews van de Dell PERC 5/i sas controller. Maar ik kan er helaas maar bar weinig over vinden.

Wat ik heb gevonden tot nu toe:
Standaard specs lijstje: accessories.us.dell.com
Waar op letten bij aanschaf: xtremesystems.org
Klein benchje (wat mij vrij weinig zegt): lonesysadmin.net
De Dell zou een LSI MegaRAID 8408E zijn: tummy.com

Review van de LSI MegaRAID 8408E (die kwa uiterlijk helemaal niet op de dell lijkt) : hexus.net
LSI website over de megaraid 8408E (downloads, specs etc): lsi.com
De LSI in de pricewatch: pricewatch: LSI Logic MegaRAID 8408E (8x SAS, RAID, 256MB, PCI-e x8)
PCI-x broertje van de LSI? (specs zijn wel iets anders): nieuws: LSI Logic komt met 8-poorts low-profile SATA RAID-adapter

Rodriguez has the heart of a gentleman. I don't know where he got it, but it's disgusting. - Quinn


  • vandijk
  • Registratie: Oktober 1999
  • Laatst online: 02-09 21:37
Heeft iemand al een 8+ poorts pci-e kaartje gevonden?

Canon cameras en lenzen. Elinchrom flitsers, Lowepro en Pelican tassen/koffers. Polestar 2


  • sjirafje
  • Registratie: Augustus 2003
  • Laatst online: 00:43

sjirafje

No inspirational quotes here

vandijk schreef op donderdag 16 augustus 2007 @ 15:07:
Heeft iemand al een 8+ poorts pci-e kaartje gevonden?
Ja, ondereandere de pricewatch: HighPoint RocketRAID 2320 (8x SATA300, PCI-e, X4) (softwareraid) hoewel ik op tomshardware heb gevonden dat de 2320 wel hardwarematig XOR zou doen en de DELL PERC 5/i

Dit zijn alle 8 poorts PCI-e (sata/nas/scsi door elkaar!) kaarten die in de pricewatch staan (overschrijft je huidige winkelkar!)
En dit zijn alle 8+ PCI-e (sata/nas/scsi door elkaar!) kaarten die in de pricewatch staan (schrik niet van de prijzen!) (overschrijft je huidige winkelkar!)

Je kunt dit vinden als je naar de pricewatch gaat en dan op 'I/O controlers en hubs' klikt, gevolgd door 'hardeschijf controlers' . Je komt dan hier uit. Wanneer je dan aan de rechterkant op card interface klikt en dan alle PCI-e versies aanklikt en op go klikt dan krijg je alle PCI-e kaarten te zien. Wanneer je dan op bus klikt worden ze netjes gesorteerd.
Ik neem aan dat je zelf wel weet hoe je op eBay moet zoeken.
Succes!

[ Voor 5% gewijzigd door sjirafje op 16-08-2007 15:59 ]

Rodriguez has the heart of a gentleman. I don't know where he got it, but it's disgusting. - Quinn


  • vandijk
  • Registratie: Oktober 1999
  • Laatst online: 02-09 21:37
De raid kaarten had ik ook al gevonden. Ik bedoel dus de niet raid kaarten.

Het mooiste zou een pci-e variant zijn van de SuperMicro AOC-SAT2-MV8 . eSata ben ik ook niet in geintereseerd.

Canon cameras en lenzen. Elinchrom flitsers, Lowepro en Pelican tassen/koffers. Polestar 2


  • Shuriken
  • Registratie: November 1999
  • Laatst online: 26-08 12:33

Shuriken

Life is all about priorities

vandijk schreef op donderdag 16 augustus 2007 @ 16:21:
De raid kaarten had ik ook al gevonden. Ik bedoel dus de niet raid kaarten.

Het mooiste zou een pci-e variant zijn van de SuperMicro AOC-SAT2-MV8 . eSata ben ik ook niet in geintereseerd.
Er is op dit moment nog geen fabrikant die een chipset heeft voor PCI-e die 8 poorten aan kan. Marvell loopt op kop met de 4 poorten tellende 88SX7042.

Opzich zouden fabrikanten wel meerdere chips kunnen combineren op een kaart....maar kennelijk is er weinig behoefte aan.

I rather have a bottle in front of me, then a frontal lobotomie


  • Keiichi
  • Registratie: Juni 2005
  • Laatst online: 23:13
Gr0wLiThE schreef op donderdag 16 augustus 2007 @ 14:17:
Tja, je kan ook een SuperMicro AOC-SAT2-MV8 halen en dan software RAID5 draaien... Zal dat binnenkort ook eens proberen op mijn server en dan ervaringen posten...
Zoals ik *O*
Zorg wel dat je ook een PCI-x slot op je moederbord hebt, anders gaat het een bottleneck vormen :*)

Over het aantal poorten. Schakel port multipliers in en je kunt per poort, 5 devices hebben d:)b Alleen heb ik nog nooit zoiets geprobeerd...
Dit is er bijvoorbeeld eentje: http://www.hardware.info/...rt_multiplier_op_de_foto/

Controleer adhv van de specs van controllers of port multiplying wel mogelijk is. In Sata1 is dit zowiezo niet mogelijk.

[ Voor 33% gewijzigd door Keiichi op 16-08-2007 20:27 ]

Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/


Acties:
  • 0 Henk 'm!

  • vandijk
  • Registratie: Oktober 1999
  • Laatst online: 02-09 21:37
Zo te zien is die hier te koop: http://www.webconnexxion....?cPath=80&products_id=532

80 euro is wel erg duur..Om nog maar te zwijgen over de kabel spagetti die je krijgt.

[ Voor 18% gewijzigd door vandijk op 17-08-2007 09:38 ]

Canon cameras en lenzen. Elinchrom flitsers, Lowepro en Pelican tassen/koffers. Polestar 2


Acties:
  • 0 Henk 'm!

  • Itsacon
  • Registratie: Maart 2006
  • Laatst online: 23-08 11:14
vandijk schreef op donderdag 16 augustus 2007 @ 16:21:
De raid kaarten had ik ook al gevonden. Ik bedoel dus de niet raid kaarten.
Die Highpoint kaart is een software-raid kaart, is dus onder FreeBSD gewoon een SATA controller.

Ook wel aan de prijs te zien, ongeveer de helft van een equivalente (8 poorts) hardware raid controller.

Gewoon die highpoint kopen, geen raid configureren (alle schijven een losse array of zo), en dan geom_raid5.

Prijs is best redelijk: een 4 poorts sata PCI controller is zo'n 90 a 100 euro, 8 poorten op PCIe voor 250 vind ik best te doen.


Heb nu zelf m'n kast binnen. Krijg dit weekend geheugen als het goed is, dan FreeBSD configgen en een zooi oude schijven erin om eens wat met graid5 te experimenteren. :-)

My system is in 64 bits. But superglue keeps it together just fine...


Acties:
  • 0 Henk 'm!

  • Keiichi
  • Registratie: Juni 2005
  • Laatst online: 23:13
Heh, ik zie hier geom_vinum te testen ipv geom_raid5.

Met writes zit ik hier op 10Mbytes/sec ;( een read is wat liever met 190Mbytes/sec :9

Heeft iemand nog wat tuning tips voor FreeBSD?

Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/


Acties:
  • 0 Henk 'm!

Verwijderd

Itsacon schreef op vrijdag 17 augustus 2007 @ 09:56:
Die Highpoint kaart is een software-raid kaart, is dus onder FreeBSD gewoon een SATA controller.
De RR22xx serie is een hardware-assisted RAID kaart met XOR offloading naar de CPU. In FreeBSD krijg je dus ook geen IDE device (adX) maar SCSI/RAID devices (daX), net zoals een Areca kaart. Dat de RAID kaart de offloading overlaat aan de CPU is vanwege performance en kosten: om een IOP te integreren die voldoende rekenkracht heeft voor degelijke prestaties drijft de kosten weer op, en HighPoint positioneert de RR22xx serie onder XOR-kaarten zoals Areca. Maar het is wel degelijk een RAID controller en geen Fake RAID.

Om hem te gebruiken heb je de rr232x driver nodig. Zijn wel leuke controllers, en je kunt prima de RAID5 functie van de kaart gebruiken, alhoewel geom_raid5 (TNG) sneller kan zijn.
Keiichi schreef op vrijdag 17 augustus 2007 @ 20:59:
Heh, ik zie hier geom_vinum te testen ipv geom_raid5.

Met writes zit ik hier op 10Mbytes/sec ;( een read is wat liever met 190Mbytes/sec :9
vinum doet geen request combining, dus alle request worden 2-phase. Dan haal je niet veel performance uit je array, en zorgt ook voor meer slijtage aangezien de schijven constant moeten seeken.

[ Voor 18% gewijzigd door Verwijderd op 18-08-2007 05:14 ]


Acties:
  • 0 Henk 'm!

Verwijderd

sjirafje schreef op woensdag 15 augustus 2007 @ 05:30:
Interessant topic. Ik wil iets soortgelijks gaan maken. Echter moet de nas in mijn geval ook een work/game-station worden. Dat betekent in mijn geval dat er Windows XP en in de toekomst mogelijk Vista op moet draaien. FreeNAS en dergelijke zijn daarom niet mogelijk.
Windows is niet zo geschikt als software RAID5 NAS. Je zou natuurlijk wel FreeNAS in VMware kunnen draaien, met directe hardware toegang tot de NAS-schijven. Dat zou opzich prima moeten kunnen werken.
Anders zou ik je eerder aanraden Intel ICH9R RAID5 te draaien (hetgeen ook bootable is).
Maar alle moederborden die ik gevonden heb hebben maximaal 8 sata poorten. Dus een schijfje er bij prikken is dus niet zonder meer mogelijk. Ik zou dan een extra PCI(-E) kaartje in moeten (minimaal 80 euro als ik het goed gezien heb)
Ik kocht mijn PCIe kaartjes met 2 poorten voor 15 euro. Maar die PCI-X controller met 8 poorten zit inderdaad rond de 80-100 euro.
En dan is het nog maar de vraag of ik in windows de raid 5 array zomaar kan uitbreiden.
Dat gaat inderdaad niet. Ook is de implementatie van Windows zeer simplistisch, met gebrek aan features die de veiligheid vergroten. Zo kan je parity data ongemerkt beschadigd raken bij niet-schone reboots en shutdowns. Windows biedt geen enkele beveiliging hiertegen, waardoor je over enige tijd gedeeltelijk de bescherming van RAID5 kwijtraakt. Bovendien heb je vrijwel geen enkele controle zoals utilities. Dus als het op een gegeven moment niet werkt kun je niet met tools ingrijpen, zoals wel met geom_raid5. Ik zou me toch niet erg veilig voelen als Windows mijn data met RAID5 opslaat, zonder daarvan een nightly 1:1 backup te hebben. En dan nog..
Kortom een RAID5 controller zou wenselijk zijn. Ware het niet dat deze erg duur zijn, zeker wanneer je (toch eigenlijk) minimaal 8 sata poorten wilt hebben.
Kijk eens bij Highpoint zou ik zeggen, RR22xx serie, zijn aardige kaarten en kun je dan ook prima in Windows gebruiken.
Nu heb ik op en 2dehands site een 3ware 9500s-12 gevonden voor 300 euro met nog enkele maanden garantie (de 8 poorts versie word hier besproken) Het beeld dat ik heb gekregen van deze kaart door de review is dat het een goede middenmoter is, alleen dat de prijs te hoog was. De prijs van deze kaart is momenteel 889,91 euro. Deze kaart zou in vrijwel elke PCI of PCI-x slot werken. (Dat heb ik hier uit begrepen) Maar zitten de onderdelen op het moederbord dan niet in de weg voor het extended gedeelte van de PCI-x?
Je wilt zo'n dure controller in een PCI slot gebruiken?! :/
Volgens mij zit je dan op de verkeerde weg..
Maar deze kaart is PCI-e x4 en gaat dat wel zonder problemen werken in een 4 lanes PCI-e x16 slot?
Yep, als het fysiek past, sure. Alleen BIOS issues kunnen boot support in de weg zitten.
Daarnaast is dit een firmware raid controller (zeg ik dit zo goed?)
Nee, dit is een Hardware Assisted kaart. De RAID gebeurt door de kaart en niet door de drivers. Firmware RAID suggereert dat de RAID implementatie door de firmware wordt gedaan maar dat is niet zo, het wordt door de drivers gedaan. Daarom is Fake RAID of Driver RAID voor deze klasse een betere benaming.

Voor de duidelijkheid de 'klasse' RAID implementaties:
  • Software RAID
  • Driver RAID (Fake RAID/Firmware RAID/Hybrid RAID) - zelfde als software RAID met boot support
  • Hardware Assisted controller (meestal met XOR-offload naar CPU)
  • Hardware controller (zonder enige offloading!)
  • Embedded controller (onzichtbare controller, gedraagt zich als hardeschijf dmv conversie)
Dus alle berekeningen zullen door de cpu gedaan moeten worden.
Je CPU is veel sneller dan welke IOP dan ook, dus wat betreft de storage-performance maakt dat niets uit. De grootste performance impact komt van het gebrek aan onboard dedicated buffercache. Maar daar zit het verschil in prijs natuurlijk ook in, naast gebrek aan een dure IOP.

Acties:
  • 0 Henk 'm!

  • Itsacon
  • Registratie: Maart 2006
  • Laatst online: 23-08 11:14
Vraagje aan hen onder jullie die een Flash-IDE device gebruiken om FreeBSD te draaien:

Wat doen jullie met swap space?

Swap partities hebben (relatief) veel schrijfoperaties en een flash device heeft maar een beperkt aantal writes voor ie het begeeft.

Ben er namelijk net achtergekomen dat de kleine systeem schijven die ik in m'n fileserver wilde gebruiken niet meer wil (eentje een keer laten vallen :-P), en ben nu naar wat van die Transcend units aan't kijken. Zou het echter jammer vinden als deze er na een jaartje mee uitscheidt door een overdaad aan writes.

Andere optie zou network boot kunnen zijn, maar als ik het goed heb moet ik dan elders een FreeBSD machine hebben draaien waar de kernel vandaan kan komen, toch?

Alvast bedankt.

My system is in 64 bits. But superglue keeps it together just fine...


Acties:
  • 0 Henk 'm!

  • Shuriken
  • Registratie: November 1999
  • Laatst online: 26-08 12:33

Shuriken

Life is all about priorities

Itsacon schreef op zaterdag 18 augustus 2007 @ 18:17:
Vraagje aan hen onder jullie die een Flash-IDE device gebruiken om FreeBSD te draaien:

Wat doen jullie met swap space?

Swap partities hebben (relatief) veel schrijfoperaties en een flash device heeft maar een beperkt aantal writes voor ie het begeeft.

Ben er namelijk net achtergekomen dat de kleine systeem schijven die ik in m'n fileserver wilde gebruiken niet meer wil (eentje een keer laten vallen :-P), en ben nu naar wat van die Transcend units aan't kijken. Zou het echter jammer vinden als deze er na een jaartje mee uitscheidt door een overdaad aan writes.

Andere optie zou network boot kunnen zijn, maar als ik het goed heb moet ik dan elders een FreeBSD machine hebben draaien waar de kernel vandaan kan komen, toch?

Alvast bedankt.
Als je Freenas op USB stick installeert, gebeurt dat zonder swap partitie. Dit, zoals je zelf al aangeeft, om de writes te beperken.

Hier mijn mount overzicht:
code:
1
2
3
4
/dev/md0 on /dev (ufs, local, soft-updates)
devfs on /dev (devfs, local)
/dev/raid5/datap1  on /mnt/data (ufs, NFS exported, local , soft-updates, acls)
/dev/da0a on /cf (ufs, local, read-only)

I rather have a bottle in front of me, then a frontal lobotomie


Acties:
  • 0 Henk 'm!

Verwijderd

Itsacon schreef op zaterdag 18 augustus 2007 @ 18:17:
Vraagje aan hen onder jullie die een Flash-IDE device gebruiken om FreeBSD te draaien:

Wat doen jullie met swap space?
Je kunt een paar dingen doen, als je flash disk groot genoeg is gewoon 32MB reserveren voor swap. Anders kun je in je /etc/rc.conf zetten:
swapfile="/pad/naar/swapfile"

Dan kun je dus overal je swapfile neerzetten op een partitie, en heb je dus geen dedicated swappartitie nodig. De file moet bestaan en een vaste grootte hebben. Bijvoorbeeld voor een 128MB swapfile:
dd if=/dev/zero of=/pad/naar/swapfile bs=1m count=128
Swap partities hebben (relatief) veel schrijfoperaties en een flash device heeft maar een beperkt aantal writes voor ie het begeeft.
Veel schrijfoperaties bij gebrek aan geheugen ja. Anders heb je geen I/O operaties afgezien van 16KB ofzo, het is gelukkig geen Windows die als een GEK gaat zitten swappen. Daar heb ik een gruwelijke hekel aan. Maar je hebt wel IETS van swap nodig anders kunnen sommige processes gekilled worden. 2MB ofzo is al beter dan niets. Maak je niet zo zorgen om de hoeveelheid schrijfoperaties! Bij FreeBSD stelt dat niets voor. Je /var map zal veeeeeeeeeeeele malen meer writes krijgen!
Andere optie zou network boot kunnen zijn, maar als ik het goed heb moet ik dan elders een FreeBSD machine hebben draaien waar de kernel vandaan kan komen, toch?
Yep, PXE boot. Je hebt dan een BSD server nodig met DHCP server (ports/net/isc-dhcp3-server) en een tftp-server (ports/ftp/tftp-hpa). En dat configgen. Als je instructies wilt even PM'en heb hier server staan die op die manier werkt. :)

BTW: kan ook gewoon een windows machine zijn met FreeBSD die in een VMware draait ofzo!

Acties:
  • 0 Henk 'm!

  • Itsacon
  • Registratie: Maart 2006
  • Laatst online: 23-08 11:14
Dank voor de snelle reacties!
Shuriken schreef op zaterdag 18 augustus 2007 @ 23:41:Als je Freenas op USB stick installeert, gebeurt dat zonder swap partitie. Dit, zoals je zelf al aangeeft, om de writes te beperken.
Ga waarschijnlijk voor een flash-IDE drive, niet USB. FreeBSD vindt het dus goed om geinstalleerd te worden zonder swap? (Heerlijk OS toch :-) )
Verwijderd schreef op zondag 19 augustus 2007 @ 00:34:aar dingen doen, als je flash disk groot genoeg is gewoon 32MB reserveren voor swap. Anders kun je in je /etc/rc.conf zetten:
swapfile="/pad/naar/swapfile"

Dan kun je dus overal je swapfile neerzetten op een partitie, en heb je dus geen dedicated swappartitie nodig. De file moet bestaan en een vaste grootte hebben. Bijvoorbeeld voor een 128MB swapfile:
dd if=/dev/zero of=/pad/naar/swapfile bs=1m count=128
Wist niet dat FreeBSD swap ook gewoon een `normaal' bestand op een andere partitie kon zijn. Dan is het dus mogelijk om de swap gewoon op de graid5 array te zetten?
Verwijderd schreef op zondag 19 augustus 2007 @ 00:34:Veel schrijfoperaties bij gebrek aan geheugen ja. Anders heb je geen I/O operaties afgezien van 16KB ofzo, het is gelukkig geen Windows die als een GEK gaat zitten swappen. Daar heb ik een gruwelijke hekel aan. Maar je hebt wel IETS van swap nodig anders kunnen sommige processes gekilled worden. 2MB ofzo is al beter dan niets. Maak je niet zo zorgen om de hoeveelheid schrijfoperaties! Bij FreeBSD stelt dat niets voor.
Wat is gebrek aan geheugen? Mijn bak krijgt zoals het er nu uitziet 512 MB. Zou wel genoeg moeten zijn toch?
Verwijderd schreef op zondag 19 augustus 2007 @ 00:34:Je /var map zal veeeeeeeeeeeele malen meer writes krijgen!
Maar niet genoeg om een flash device binnen een jaar te slopen, neem ik aan?
(hangt natuurlijk een beetje af van de hoeveelheid logging die je aanzet).
Verwijderd schreef op zondag 19 augustus 2007 @ 00:34:Yep, PXE boot. Je hebt dan een BSD server nodig met DHCP server (ports/net/isc-dhcp3-server) en een tftp-server (ports/ftp/tftp-hpa). En dat configgen. Als je instructies wilt even PM'en heb hier server staan die op die manier werkt. :)

BTW: kan ook gewoon een windows machine zijn met FreeBSD die in een VMware draait ofzo!
Wil voorlopig maar 1 server gaan draaien, dus is niet de oplossing. Bedankt voor de bevestiging echter!

[ Voor 7% gewijzigd door Itsacon op 19-08-2007 09:38 ]

My system is in 64 bits. But superglue keeps it together just fine...


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op maandag 13 augustus 2007 @ 19:41:
Na een weekje spelen met mijn configuratie (zie eerdere post) ben ik redelijk gelukkig. Performance is prima, stilte van de kast helemaal OK. Heb echter een vreemd probleempje: soms initieert mijn RAID niet bij het opstarten :? .... soms ook weer wel. Het lijkt volledige willekeur. Of wellicht niet doordat ik Ubuntu en mdadm gebruik. Iemand dit eerder gezien en wellicht ergens een oplossing gevonden?
Gevonden! Moest een BIOS aanpassing doen in de SATA-instellingen. Alles werkt nu als een zonnetje.

Heb nog ff met FreeNAS zitten pielen maar kreeg dat nog niet helemaal aan de praat. Gevolg: een perfecte test van mijn array. Ik heb FreeNAS een van de SATA-schijven laten gebruiken als OS-schijf omdat hij de IDE-schijf niet kon initieren. Daarna weer terug naar Ubunutu. Resultaat, een prima draaiende server met een gedegradeerd array; immers schijf 1 van de vier was "verknoeid" door FreeNAS. MDADM heeft een prima job gedaan om deze schijf weer onderdeel van het array te maken en dus weer een volledig up-and-running RAID 5 Array van 4 x 500MB schijven te hebben.

Acties:
  • 0 Henk 'm!

  • Itsacon
  • Registratie: Maart 2006
  • Laatst online: 23-08 11:14
In het rijtje van O-JA! BIOS settings, al lekker wat gekloot gehad tijdens het opzetten van m'n servertje:

Eerst 3 verschillende CD-ROM spelers geprobeerd voor ik me bedacht dat ik de secondary IDE controller op het moederbord gedisabled had.

Daarna, nadat ik er een FreeBSD install op had gegooid, voortdurend problemen. Cache fouten in harde schijven, en als ik probeerde de ports database te fetchen werd de kernel gedumpt.
Bedacht ik me net dat ik (tot ik m'n DDR modules binnen heb) nog op SDR RAM draai, en de modules die ik had liggen waren allemaal PC100. Was dus lekker m'n RAM 33% aan't overclocken. Geen wonder dat de boel crashed :-P

CPU nu even ge-underclocked (fixed multiplier), kijken of het nu wat beter gaat.

My system is in 64 bits. But superglue keeps it together just fine...


Acties:
  • 0 Henk 'm!

  • Twynn
  • Registratie: Maart 2001
  • Laatst online: 01-09 08:51
Verwijderd schreef op zaterdag 18 augustus 2007 @ 05:55:
[...]
Windows is niet zo geschikt als software RAID5 NAS. Je zou natuurlijk wel FreeNAS in VMware kunnen draaien, met directe hardware toegang tot de NAS-schijven. Dat zou opzich prima moeten kunnen werken.
Anders zou ik je eerder aanraden Intel ICH9R RAID5 te draaien (hetgeen ook bootable is).

Dat gaat inderdaad niet. Ook is de implementatie van Windows zeer simplistisch, met gebrek aan features die de veiligheid vergroten. Zo kan je parity data ongemerkt beschadigd raken bij niet-schone reboots en shutdowns. Windows biedt geen enkele beveiliging hiertegen, waardoor je over enige tijd gedeeltelijk de bescherming van RAID5 kwijtraakt. Bovendien heb je vrijwel geen enkele controle zoals utilities. Dus als het op een gegeven moment niet werkt kun je niet met tools ingrijpen, zoals wel met geom_raid5. Ik zou me toch niet erg veilig voelen als Windows mijn data met RAID5 opslaat, zonder daarvan een nightly 1:1 backup te hebben. En dan nog..
Interessant. de softwarematige RAID-5 oplossing van windows word al sinds jaar en dag gebruikt, ook binnen verschillende bedrijven. Je kunt er inderdaad geen hoge snelheden van verwachten maar je data goed opslaan zoals raid-5 hoort te doen doet het zeker wel. En die tooltjes? Nee, inderdaad niet veel. Als er een schijf uitvalt kun je deze vervangen en je kunt een resync geven. Wat heb je nog meer nodig?
Ik zie zelf maar 3 nadelen aan de windows raid :

- het is niet erg snel (al zou dat op 100Mbit geen problemen mogen geven)
- het is niet uitbreidbaar
- windows kost geld.

Maar na wat rondgekeken te hebben naar wat nas-server software waaronder ook freenas kan ik me niet voorstellen dat je je data niet durft toe te vertrouwen aan een windows raid oplossing, maar wel aan een beta product als freenas.

Acties:
  • 0 Henk 'm!

  • Keiichi
  • Registratie: Juni 2005
  • Laatst online: 23:13
heh, ik had net een nieuwe kernel op FreeBSD gebouwd, blijk ik het verkeerd gedaan te hebben en is mijn NASje even buiten bereik waardoor ik geen IO testen meer aan kan zetten :'(

Maar ik heb al 1 voorlopig test result van geom_raid5: http://www.searchy.net/be...sd_graid5/iozone_run1.txt

Nu alleen nog maar vinum, single disk, linux mdraid en linux single disk benchmarken :*)

Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/


Acties:
  • 0 Henk 'm!

  • The Collector
  • Registratie: Januari 2000
  • Laatst online: 11-03 13:05
lange post waarschuwing

Ik heb wat hulp nodig bij het zoeken/maken van een NAS en download-bak met laag energie verbruik. Ik word echt helemaal gek van alle mogelijkheden :P Eerst ff wat ik momenteel heb en wil vervangen:

Desktop PC (24/7 online)
  • AMD Athlon XP-M (Barton) @ 2.2Ghz (11x200Mhz)
  • 2x256MB + 1x512MB (Wel Dual!)
  • Asus A7N8X-E (nForce2) moederbord
  • SkyStar2 DVB-S Kaart (wordt nauwelijks gebruikt)
  • Realtek netwerk kaartje (wordt niet altijd gebruikt)
  • XFX 6600GT AGP 128MB videokaart
  • Enermax 430Watt voeding
  • SATA (RAID) kaart SiL3114 chip (nu met non-raid bios) 4 poorts
  • HDD’s
    • 2x 320GB SATA (Seagate 7200.10)
    • 1x 160GB SATA (Seagate 7200.9)
    • 1x 160GB PATA (Seagate 7200.8)
    • 1x 160GB PATA (Seagate 7200.7)
    • Dit alles in WinXP Software RAID5 + RAID1(Boot)
Dit alles verbruikt idle 175Watt (!!!) en onder load 235Watt. Mijn problemen met dit systeem:
  • Véél te hoog verbruik, systeem verbruikt 1/3 van de stroom rekening!
  • BSOD’s c.a. elke 2 dagen en daarna dus een rebuild van de arrays! ( 0x000000f4 (0x00000003, 0x8607ea00, 0x8607eb74, 0x805fa428) ) ik kan hier niets duidelijks over vinden en heb ook geen zin meer om het op te lossen, wil het gewoon weg hebben.
  • RAID5 array is LANGZAAM… Nou is dit nog niet het grootste probleem, maar echt lekker is het niet.
  • Echt bij de tijd is dit systeem niet meer
DUS. Mijn idee is om een aparte file-server (NAS) en download bak te maken die 24/7 aan blijft en als die (bijna) idle is moet hij zomin mogelijk verbruiken. Hierdoor kan de desktop PC in standby als deze niet gebruikt wordt!
Ik heb nu ook nog het volgende liggen om voor een oplossing te gebruiken:
  • P3-733Mhz @ 550Mhz Passive / 384MB (en nog wat P2-tjes, evt. Athlon 900 Thunderbird)
  • ATI RageII+ PCI videokaart (en een S3 en een MatroxG450 kaart)
  • 3COM 100mbit 3C905 (?) netwerkkaart (+4watt tenopzichte van realtek)
  • Nog een boel Realtek 8139-kaartjes
  • Ca. 250-300 euro waar ik eigenlijk nog 2x320GB Seagate 7200.10 drives van wil kopen en wat er verder nog nodig is.
Ik heb wat testen gedaan en de P3+ATI+Realtek combi verbruikt in idle mode ~31Watt (erg weinig dus). Maar er zit gewoon te weinig power achter om een fatsoenlijke snelheid te kunnen halen. Maar als het software matig op te lossen is, wil ik het wel eerst proberen, scheelt toch weer een boel poen. Alles wat ik hier heb genoemd mag op zich op alle manieren door elkaar geschud worden, maar dit is wat ik uiteindelijk wil:
  • RAID5 array met minimaal de 4x320GB hdd’s = 960GB effectief. Liefst ook nog de 2x160GB PATA erbij, dus (((2x160GB RAID0)+(4x320GB))RAID5) = 1280GB effectief.
  • Kunnen downloaden via edonkey-netwerk, news-servers, torrents.
  • 24/7 IRC client (of iets dat het doorstuurt naar de desktop als deze uit standby komt)
  • Remote admin/control/VNC/web-interface voor alles
  • Liefst gigabit mogelijkheid (mijn netwerk is het nog niet, maar de snelheid moet redelijkerwijs mogelijk zijn)
  • LAAG energieverbruik (<50Watt ALS hdd’s in standby en pc idle)
  • Upgrade van mijn desktop als dat redelijker wijs mogelijk is voor ongeveer dit budget.
Mogelijke software keuzes die ik zelf al heb verzonnen en al een beetje getest heb waar mogelijk:
  • FreeNAS, maar hier moet dan een edonkey/news/torrent/irc client ingebouwd worden en dit is niet standaard te doen. FreeNAS is opzich een leuk stukje software, maar nog wel beta.
  • FreeBSD, hier moet alles nog geïnstalleerd worden en handmatig ingesteld worden.
  • Windows 2000/XP, kan al mijn clients en remote software gewoon draaien. Voor het RAID gedeelte twee mogelijkheden bedacht.
    • Toch de NT-RAID5 functie gebruiken en een ‘hardware’-raid0 op de 160GB drives
    • FreeNAS in een virtuele omgeving draaien (op de P3 in Win2k met VMWare krijg ik 2MB/s write en 1.75MB/s read op een RAID0 array).
  • NASLite2, dit is niet te proberen, en ik koop niet zo snel software zonder te kunnen proberen. En tevens heb ik hier ook nog het probleem van de clients die niet standaard geïnstalleerd zijn.
Bedenk bij dit alles dat ik nauwlijks unix/Linux ervaring heb. Met wat hulp kom ik er meestal wel uit, maar als er ooit iets aan moet gebeuren zal ik het niet zelf 1-2-3 kunnen fixen.

Hardware keuzes zijn er natuurlijk ook nog
  • Moederbord met nVidia 5xx/6xx chipset, zodat je 6+ drives in een RAID5 kunt zetten en voldoende functies hebt om een RAID uit te breiden of te morphen. Nadeel (maar dit heb ik niet goed kunnen vinden) is dat de chipset veel stroom verbruikt.
  • Aparte ‘hardware’-raid5 kaart voor niet al te veel geld (de 3114 kaart is hiervoor niet goed, nog net zo slecht hiervoor als WinXP-Raid5, b.v. niet bootable, ookal is dit niet nodig)
  • Twee aparte pc’s voor download en NAS (gaat dit binnen het gestelde stroom verbruik??)
Punt is dat ik nu gewoon iets wil hebben wat ik kan er neer kan zetten en de komende 2 jaar kan laten staan zonder dat ik er iets aan hoef te doen. En zoals je ziet heb ik een heleboel ideëen waar ik echt geen wijs meer uit kom!

Acties:
  • 0 Henk 'm!

  • Lima
  • Registratie: Juni 2004
  • Laatst online: 14-01-2024

Lima

Techno>Music

ik heb men hardware gekocht na lang wikken en wegen voor men NAS systeempje thuis. Ik heb al veel met freenas geexperimenteerd en ben er wel erg tevreden van. Maar ik heb toch een beetje schrik om men kostbare data erop te zetten...
Daarom vraag ik hier eigenlijk om raad...wat als er iets misgaat en ik een error krijg ofzo? Ik heb wel al gehoord dat er progjes zijn om dan toch nog je data uit te kunnen lezen op een andere pc( met xp?)
Ook nog de vraag of ik mijn freenas installatie dan gewoon verder kan updaten tot aan de stabiele versie.
Ook hoor ik graag gebruikers die al miserie hebben gehad met freenas...

edit: verder wil ik ook graag weten of de buitenkant van mijn stp kabel geaard moet worden via mijn pc case, of dit alleen maar voor meer storing zorgt? Normaal zorgt het "shield" voor een zogezged kooi van faradei waardoor er geen storing doorkan ondanks hij niet geaard is..nee?

[ Voor 18% gewijzigd door Lima op 25-08-2007 00:40 ]

Techno>Music


Acties:
  • 0 Henk 'm!

  • Ventieldopje
  • Registratie: December 2005
  • Laatst online: 03-09 09:42

Ventieldopje

I'm not your pal, mate!

Ik heb een klein probleempje met mijn FreeBSD 6.2. Ik gebruik de Asus Crosshair Nforce 590 SLI met een Silicon Image 3132 sata controller er op die blijkbaar de sata poorten (6x) op het moederbord aanstuurt.

Als ik de installatie opstart van FreeBSD 6.2 en ik kies om te gaan installeren dan krijg ik de melding dat mijn hardeschijf niet gevonden kan worden. Ik las dat Enlightenment ook de zelfde chipset gebruikte. En ik vraag me af Enlightenment ... hoe flik je dat? _/-\o_

www.maartendeboer.net
1D X | 5Ds | Zeiss Milvus 25, 50, 85 f/1.4 | Zeiss Otus 55 f/1.4 | Canon 200 f/1.8 | Canon 200 f/2 | Canon 300 f/2.8


Acties:
  • 0 Henk 'm!

Verwijderd

@Phas0r:
6.2 ondersteunt SiI 3132 niet, enkel 7-CURRENT. Misschien zou je de driver kunnen backporten maar dat kan ik niet zelf. :P

Je kunt je 6.2 installatie upgraden naar 7-CURRENT of een 7-CUR snapshot gebruiken. Eerst goed testen, maar zolang je niet een van de experimentele software gebruikt zou je goed moeten zitten. Overigens kan het zijn dat de driver al naar 6-STABLE is geMFCt (=Merge From Current), zal even kijken.
L i m a schreef op vrijdag 24 augustus 2007 @ 23:43:
Daarom vraag ik hier eigenlijk om raad...wat als er iets misgaat en ik een error krijg ofzo? Ik heb wel al gehoord dat er progjes zijn om dan toch nog je data uit te kunnen lezen op een andere pc( met xp?)
Je vermeldt niet of je software RAID wilt gebruiken of niet. Zo ja, dan kun je niet onder Windows XP je data uitlezen. Dat hoeft ook niet, want je kunt gewoon een (klein) schijfje eraan hangen met FreeBSD erop (echt FreeBSD geen FreeNAS dus) en dan zelf te data uitlezen, eventueel met hulp van mij of anderen. Je data kan nooit zomaar weg zijn.
Ook nog de vraag of ik mijn freenas installatie dan gewoon verder kan updaten tot aan de stabiele versie.
Updaten naar de beta's gaf bij users problemen. Update alleen naar een stabiele release - tenzij je een 100% goede backup hebt - bij beta's kun je het probleem krijgen met mounten waardoor je dus niet bij je data kan. Maar dan is je data niet opeens weg, daar hoef je neit zo bang voor te zijn. Punt is natuurlijk wel dat het vervelend kan zijn als je een dag geen toegang tot je gegevens hebt. Dus upgrade met mate en doe het veilig/verstandig. Niet updaten voor een grote deadline en zonder backup. :P
edit: verder wil ik ook graag weten of de buitenkant van mijn stp kabel geaard moet worden via mijn pc case, of dit alleen maar voor meer storing zorgt? Normaal zorgt het "shield" voor een zogezged kooi van faradei waardoor er geen storing doorkan ondanks hij niet geaard is..nee?
S(F)TP heb je niet nodig, of je kast daarvoor geaard moet zijn om het te laten werken weet ik niet. Maar dan nog, je kabel is toch geen 100 meter en loopt langs industriele machines? Daar is S(F)TP voor bedoeld eigenlijk. :)

[ Voor 67% gewijzigd door Verwijderd op 25-08-2007 09:20 ]


Acties:
  • 0 Henk 'm!

Verwijderd

The Collector schreef op vrijdag 24 augustus 2007 @ 20:37:
DUS. Mijn idee is om een aparte file-server (NAS) en download bak te maken die 24/7 aan blijft en als die (bijna) idle is moet hij zomin mogelijk verbruiken.
Als dat je eisen zijn, zul je het gebruik van RAID5 moeten heroverwegen. Probleem van RAID5 en elk ander RAID level is dat daarbij in de praktijk alle disks nodig zijn bij activiteit. Je wilde een edonkey-client en torrents enzo, dat gaat dus continu lopen lezen en schrijven. Je schijven kunnen daardoor niet standby en 6 schijven betekent 60W aan het stopcontact. Daar zit jouw probleem.

Een oplossing hiervoor is het gebruik van een concat ipv RAID. Je hebt van een hele rits schijven die aan elkaar geplakt zijn en je wel één groot volume krijgt. Voordeel van deze techniek is dat bij het downloaden je bijvoorbeeld maar één schijf nodig hebt, omdat de data zich op die schijf bevindt. De overige schijven kunnen down-spinnen en je downloaden gaat lekker door. Zelfde geldt voor jou als je op je desktop dingen van de NAS trekt, daar hoeven ook niet alle schijven voor online. 's Nachts heb je dus maar 1 schijf onlinev oor het downloaden en overdag als jij met je NAS werkt misschien 3 - en ook niet de hele tijd natuurlijk. Qua energieverbruik een ideale oplossing, de mogelijke nadelen zijn:
  • Geen redundantie
  • 10 seconden wachten voor een schijf uit slaapmodus komt
  • Spinup/down cycles hebben een slijtend effect op de schijven (redelijk verwaarloosbaar mijns inziens)
Het grootste punt is het gebrek aan redundantie. Overweeg daarom een extra 500GB schijf als backup schijf. Of andersom, gebruik die 500GB schijf als dataschijf en pluk dat setje 160GB schijven als backup. Vraag je af of je alles wilt backuppen of alleen de bestanden die onvervangbaar zijn. Veel dingen die je downloadt kun je opnieuw downloaden. Voordelen van deze setup is:
  • Die 160GB schijfjes weg betekent dat die sowieso niet meer opspinnen tenzij je je nachtelijkse backup maakt
  • Een backup is meer waard dan een RAID-array
  • Optimaal energieverbruik zowel in idle als actief gebruik
  • Geen schijven van gelijke grootte nodig
  • Array uitbreiden door schijfjes erbij te plaatsen (capacity expansion dus)
Wat heb je nodig om dit te laten werken? FreeNAS gaat niet lukken met eDonkey en Torrent etc. FreeBSD wel, Linux ook. Je zou zelfs Windows kunnen gebruiken, alhoewel ik dat zelf niet zo sexy vindt als NAS OS. Expansion zit er waarschijnlijk ook niet in dan. Met FreeBSD en Linux kun je evengoed met VNC werken en P2P-clients op draaien. Maar hierbij heb je dus een grote keuzemogelijkheid.

Blijft over je hardware, zelf zou ik denken aan:
  • nForce 630a moederbord (laag energieverbruik, Socket AM2)
  • AMD Athlon 64 X2 3800+ EE SFF (Small Form Factor, verbruikt echt geen drol)
  • 4 onboard SATA poorten, eventueel een kaartje erbij voor meer storage, maar als je maar 1 SATA schijf erbij koopt heb je zelfs dát niet nodig. :)

Acties:
  • 0 Henk 'm!

  • Itsacon
  • Registratie: Maart 2006
  • Laatst online: 23-08 11:14
The Collector schreef op vrijdag 24 augustus 2007 @ 20:37:
Ik heb wat hulp nodig bij het zoeken/maken van een NAS en download-bak met laag energie verbruik. Ik word echt helemaal gek van alle mogelijkheden :P Eerst ff wat ik momenteel heb en wil vervangen:
[...]
Dit alles verbruikt idle 175Watt (!!!) en onder load 235Watt. Mijn problemen met dit systeem:
  • Véél te hoog verbruik, systeem verbruikt 1/3 van de stroom rekening!
  • BSOD’s c.a. elke 2 dagen en daarna dus een rebuild van de arrays! ( 0x000000f4 (0x00000003, 0x8607ea00, 0x8607eb74, 0x805fa428) ) ik kan hier niets duidelijks over vinden en heb ook geen zin meer om het op te lossen, wil het gewoon weg hebben.
  • RAID5 array is LANGZAAM… Nou is dit nog niet het grootste probleem, maar echt lekker is het niet.
  • Echt bij de tijd is dit systeem niet meer
eerste puntje: is niet weinig, maar voor een systeem met 5 harde schijven kan het nog wel. Zeker onder windows. Let er op dat je dingen als Cool 'n Quiet aan hebt staan, en dat windows de schijven snel downspint. Sowiezo Is windows wat minder goed in power-save dan andere OS-en is mijn ervaring.
tweede puntje: Dan moet je van Windows afstappen. Zelfs NT varianten hebben hun grenzen aan uptime. Heb vaak genoeg enkele weken zo niet maanden gehaald, maar jaren is me nog nooit gelukt.
derde puntje: Da's Windows software raid.
vierde puntje: Valt best mee. zoveel rekenkracht heeft een fileserver niet nodig. De hardware die je hebt ondersteunt praktisch alles wat je nodig hebt om een zuinig systeem te bouwen.
The Collector schreef op vrijdag 24 augustus 2007 @ 20:37:
DUS. Mijn idee is om een aparte file-server (NAS) en download bak te maken die 24/7 aan blijft en als die (bijna) idle is moet hij zomin mogelijk verbruiken. Hierdoor kan de desktop PC in standby als deze niet gebruikt wordt!
Ik heb nu ook nog het volgende liggen om voor een oplossing te gebruiken:
  • P3-733Mhz @ 550Mhz Passive / 384MB (en nog wat P2-tjes, evt. Athlon 900 Thunderbird)
  • ATI RageII+ PCI videokaart (en een S3 en een MatroxG450 kaart)
  • 3COM 100mbit 3C905 (?) netwerkkaart (+4watt tenopzichte van realtek)
  • Nog een boel Realtek 8139-kaartjes
  • Ca. 250-300 euro waar ik eigenlijk nog 2x320GB Seagate 7200.10 drives van wil kopen en wat er verder nog nodig is.
P3: te traag, en weinig power saving features. T'bird: Tot de komst van de Prescott core de minst zuinige processor die er was. Snel, maar slurpt energie.
Videokaarten: Als ie het doet, gebruikt de S3. Die dingen hadden nog geen eens passieve koeling nodig. Zal een significant verschil zijn ten opzichte van de GF 6200. Probleem is wel dat Windows 2000 en later hem niet ondersteund. FreeBSD weet ik niet. Waarschijnlijk wel, en dan heb je toch alleen een console nodig tijdens het installeren. Daarna kan ie er eventueel zelfs weer uit.
De 3Com zal waarschijnlijk de CPU minder belasten, en die verbruikt meer energie dan die 4 watt (hoe heb je dat ueberhaubt gemeten?).
Realtek zou ik Sowiezo mijden als je het geheel nu al traag vindt. Een goede, zuinige nieuwe gigabit kaart kopen zal het geheel zoiezo sneller maken waarschijnlijk (moet je alleen wel je netwerk upgraden, dus snap het als je dat niet wil)
Als je naar nieuwe harde schijven wil kun je ook kijken of het zinnig is de schijfgrootte in je array te upgraden. Van grotere schijven heb je er uiteindelijk minder nodig => minder energie.
The Collector schreef op vrijdag 24 augustus 2007 @ 20:37:
Ik heb wat testen gedaan en de P3+ATI+Realtek combi verbruikt in idle mode ~31Watt (erg weinig dus). Maar er zit gewoon te weinig power achter om een fatsoenlijke snelheid te kunnen halen. Maar als het software matig op te lossen is, wil ik het wel eerst proberen, scheelt toch weer een boel poen. Alles wat ik hier heb genoemd mag op zich op alle manieren door elkaar geschud worden, maar dit is wat ik uiteindelijk wil:
  • RAID5 array met minimaal de 4x320GB hdd’s = 960GB effectief. Liefst ook nog de 2x160GB PATA erbij, dus (((2x160GB RAID0)+(4x320GB))RAID5) = 1280GB effectief.
  • Kunnen downloaden via edonkey-netwerk, news-servers, torrents.
  • 24/7 IRC client (of iets dat het doorstuurt naar de desktop als deze uit standby komt)
  • Remote admin/control/VNC/web-interface voor alles
  • Liefst gigabit mogelijkheid (mijn netwerk is het nog niet, maar de snelheid moet redelijkerwijs mogelijk zijn)
  • LAAG energieverbruik (<50Watt ALS hdd’s in standby en pc idle)
  • Upgrade van mijn desktop als dat redelijker wijs mogelijk is voor ongeveer dit budget.
Mogelijke software keuzes die ik zelf al heb verzonnen en al een beetje getest heb waar mogelijk:
  • FreeNAS, maar hier moet dan een edonkey/news/torrent/irc client ingebouwd worden en dit is niet standaard te doen. FreeNAS is opzich een leuk stukje software, maar nog wel beta.
  • FreeBSD, hier moet alles nog geïnstalleerd worden en handmatig ingesteld worden.
  • Windows 2000/XP, kan al mijn clients en remote software gewoon draaien. Voor het RAID gedeelte twee mogelijkheden bedacht.
    • Toch de NT-RAID5 functie gebruiken en een ‘hardware’-raid0 op de 160GB drives
    • FreeNAS in een virtuele omgeving draaien (op de P3 in Win2k met VMWare krijg ik 2MB/s write en 1.75MB/s read op een RAID0 array).
  • NASLite2, dit is niet te proberen, en ik koop niet zo snel software zonder te kunnen proberen. En tevens heb ik hier ook nog het probleem van de clients die niet standaard geïnstalleerd zijn.
Bedenk bij dit alles dat ik nauwlijks unix/Linux ervaring heb. Met wat hulp kom ik er meestal wel uit, maar als er ooit iets aan moet gebeuren zal ik het niet zelf 1-2-3 kunnen fixen.
Ik zou voor een van de eerste twee opties gaan. Windows is gewoon niet geschikt voor een 24/7 systeem en ik heb eerlijk gezecht niet veel vertrouwen in NT-RAID5, zowel qua snelheid, als qua mogelijkheden tot migreren naar een andere server.
The Collector schreef op vrijdag 24 augustus 2007 @ 20:37:
Hardware keuzes zijn er natuurlijk ook nog
  • Moederbord met nVidia 5xx/6xx chipset, zodat je 6+ drives in een RAID5 kunt zetten en voldoende functies hebt om een RAID uit te breiden of te morphen. Nadeel (maar dit heb ik niet goed kunnen vinden) is dat de chipset veel stroom verbruikt.
  • Aparte ‘hardware’-raid5 kaart voor niet al te veel geld (de 3114 kaart is hiervoor niet goed, nog net zo slecht hiervoor als WinXP-Raid5, b.v. niet bootable, ookal is dit niet nodig)
  • Twee aparte pc’s voor download en NAS (gaat dit binnen het gestelde stroom verbruik??)
Punt is dat ik nu gewoon iets wil hebben wat ik kan er neer kan zetten en de komende 2 jaar kan laten staan zonder dat ik er iets aan hoef te doen. En zoals je ziet heb ik een heleboel ideëen waar ik echt geen wijs meer uit kom!
Eerste optie: bedoel je een moederbord met driver-raid? Lastig als het moederbord het ooit begeeft.
Tweede optie: Als je echt hardware wilt gaan (als je bij windows blijft wel aan te raden) dan is een goede (dure) raidcontroller zeker een optie. Adaptec of Areca scoort altijd wel aardig.
Derde optie: Persoonlijk zou ik gewoon m'n desktop gebruiken voor downloaden. Is het echt nodig om 24/7 te downloaden? Misschien af en to gewoon een DVDtje huren? :-)

My system is in 64 bits. But superglue keeps it together just fine...


Acties:
  • 0 Henk 'm!

  • Lima
  • Registratie: Juni 2004
  • Laatst online: 14-01-2024

Lima

Techno>Music

Verwijderd schreef op zaterdag 25 augustus 2007 @ 09:12:

Je vermeldt niet of je software RAID wilt gebruiken of niet. Zo ja, dan kun je niet onder Windows XP je data uitlezen. Dat hoeft ook niet, want je kunt gewoon een (klein) schijfje eraan hangen met FreeBSD erop (echt FreeBSD geen FreeNAS dus) en dan zelf te data uitlezen, eventueel met hulp van mij of anderen. Je data kan nooit zomaar weg zijn.
Ik ga dus de softwarematige raid 0 gebruiken van freenas :D Dus dan kan ik geen progje gebruiken om de data uit te lezen met xp :'( Maar als er zoiets gebeurt dan kan ik wel nog met behulp van jou of iemand anders me uit de nood helpen
Updaten naar de beta's gaf bij users problemen. Update alleen naar een stabiele release - tenzij je een 100% goede backup hebt - bij beta's kun je het probleem krijgen met mounten waardoor je dus niet bij je data kan. Maar dan is je data niet opeens weg, daar hoef je niet zo bang voor te zijn. Punt is natuurlijk wel dat het vervelend kan zijn als je een dag geen toegang tot je gegevens hebt. Dus upgrade met mate en doe het veilig/verstandig. Niet updaten voor een grote deadline en zonder backup. :P
Ok dan zal ik de laatste stable versie downloaden en daarmee beginnen. Want al die data kan ik onmogelijk backuppen. Ik zal elke keer als ik upgrade de belangrijkste data backuppen op mijn externe HDD maar hopelijk zullen er geen problemen zijn.
S(F)TP heb je niet nodig, of je kast daarvoor geaard moet zijn om het te laten werken weet ik niet. Maar dan nog, je kabel is toch geen 100 meter en loopt langs industriele machines? Daar is S(F)TP voor bedoeld eigenlijk. :)
Wel ik heb hier een FTP kabel genomen (afgeschermd met folie over alle paren niet per paar) omdat deze langs de voeding van ons huis loopt. Wel een paar centimeters ervan maar ik kan gratis aan FTP kabel geraken dus was de keuze snel gemaakt.
Maar ik vind heel moeilijk info over het maken van een goeie FTP kabel...
Ik dacht dat je daarvoor speciale RJ-45 jacks voor nodig had die van ijzer zijn en dan zo contact maken met de aarde van je PC kast...
Iemand met veel praktijk ervaring kan deze vraag misschien duidelijker toelichten?

edit:
zoiets als deze foto dus

Techno>Music


Acties:
  • 0 Henk 'm!

  • The Collector
  • Registratie: Januari 2000
  • Laatst online: 11-03 13:05
Verwijderd schreef op zaterdag 25 augustus 2007 @ 09:48:
[...]

Als dat je eisen zijn, zul je het gebruik van RAID5 moeten heroverwegen. Probleem van RAID5 en elk ander RAID level is dat daarbij in de praktijk alle disks nodig zijn bij activiteit. Je wilde een edonkey-client en torrents enzo, dat gaat dus continu lopen lezen en schrijven. Je schijven kunnen daardoor niet standby en 6 schijven betekent 60W aan het stopcontact. Daar zit jouw probleem.
Ik ben inderdaad nog het e.e.a. vergeten in het -toch al- lange verhaal. Ik wilde er één hdd bij zetten waar ik van kan booten en op downloaden. Als ik dan weer een keer inlog op de server gooi ik het over naar het array. Het liefst wil ik van deze schijf een (minimaal) 40GB laptop hdd hebben, zodat het verbruik ook niet erg veel meer wordt.
Een oplossing hiervoor is het gebruik van een concat ipv RAID. Je hebt van een hele rits schijven die aan elkaar geplakt zijn en je wel één groot volume krijgt. Voordeel van deze techniek is dat bij het downloaden je bijvoorbeeld maar één schijf nodig hebt, omdat de data zich op die schijf bevindt. De overige schijven kunnen down-spinnen en je downloaden gaat lekker door. Zelfde geldt voor jou als je op je desktop dingen van de NAS trekt, daar hoeven ook niet alle schijven voor online. 's Nachts heb je dus maar 1 schijf onlinev oor het downloaden en overdag als jij met je NAS werkt misschien 3 - en ook niet de hele tijd natuurlijk. Qua energieverbruik een ideale oplossing, de mogelijke nadelen zijn:
  • Geen redundantie
  • 10 seconden wachten voor een schijf uit slaapmodus komt
  • Spinup/down cycles hebben een slijtend effect op de schijven (redelijk verwaarloosbaar mijns inziens)
Het grootste punt is het gebrek aan redundantie. Overweeg daarom een extra 500GB schijf als backup schijf. Of andersom, gebruik die 500GB schijf als dataschijf en pluk dat setje 160GB schijven als backup. Vraag je af of je alles wilt backuppen of alleen de bestanden die onvervangbaar zijn. Veel dingen die je downloadt kun je opnieuw downloaden. Voordelen van deze setup is:
  • Die 160GB schijfjes weg betekent dat die sowieso niet meer opspinnen tenzij je je nachtelijkse backup maakt
  • Een backup is meer waard dan een RAID-array
  • Optimaal energieverbruik zowel in idle als actief gebruik
  • Geen schijven van gelijke grootte nodig
  • Array uitbreiden door schijfjes erbij te plaatsen (capacity expansion dus)
Dit is inderdaad wel een oplossing voor wat minder energie verbruik, maar dit is dus juist wat ik eigenlijk niet wilde. Hierdoor moet je ook backup's gaan maken i.p.v. dat je redundantie hebt. Backups maak ik ook wel van belangrijke dingen, maar het gaat hier puur om hdd falen en niet om gebruikers 'fouten'. Natuurlijk zijn er nog wel meer dingen, zoals bliksen inslag, brand e.d. Maar je kunt het natuurlijk maar tot een bepaalde hoogte door voeren voor niet al te veel geld.
Wat heb je nodig om dit te laten werken? FreeNAS gaat niet lukken met eDonkey en Torrent etc. FreeBSD wel, Linux ook. Je zou zelfs Windows kunnen gebruiken, alhoewel ik dat zelf niet zo sexy vindt als NAS OS. Expansion zit er waarschijnlijk ook niet in dan. Met FreeBSD en Linux kun je evengoed met VNC werken en P2P-clients op draaien. Maar hierbij heb je dus een grote keuzemogelijkheid.
FreeBSD of Linux lijken mij zelf ook de beste oplossingen, alleen heb ik er zo weinig ervaring mee. Ik zou het graag begrijpen, maar tot nu toe is de achter liggende gedachte van deze os'en nog niet bij mij doorgedrongen. Ik heb dus ookal FreeBSD als test geinstalleerd gehad, maar nadat je ingelogd bent, heb ik dus geen idee meer wat er moet gebeuren. Grafische user interface installeren/configureren voor VNC, clients installeren, geom_raid5 configureren EN begrijpen voor onderhoud...
Blijft over je hardware, zelf zou ik denken aan:
  • nForce 630a moederbord (laag energieverbruik, Socket AM2)
  • AMD Athlon 64 X2 3800+ EE SFF (Small Form Factor, verbruikt echt geen drol)
  • 4 onboard SATA poorten, eventueel een kaartje erbij voor meer storage, maar als je maar 1 SATA schijf erbij koopt heb je zelfs dát niet nodig. :)
nForce630a een laag energieverbruik, dat wist ik nog niet, ga ik naar op zoek. De EE, SFF heb ik wel vangehoord en was waarschijnlijk ook mijn gedachte geweest. Ik zal eens gaan kijken op wat voor een prijs die zitten. Eens kijken of die chipset meer dan 4 poorten ondersteund, maar anders inderdaad dat SATA-kaartje wat ik nog heb liggen er bij prikken...
Itsacon schreef op zaterdag 25 augustus 2007 @ 09:59:
[...]

eerste puntje: is niet weinig, maar voor een systeem met 5 harde schijven kan het nog wel. Zeker onder windows. Let er op dat je dingen als Cool 'n Quiet aan hebt staan, en dat windows de schijven snel downspint. Sowiezo Is windows wat minder goed in power-save dan andere OS-en is mijn ervaring.
Ik weet niet helemaal zeker, maar ik dacht dat Cool'n'Quiet niet op mijn Barton zat, maar PowerNow! ben ik me niet helemaal zeker van. Ik ga dit eens uitzoeken, scheelt voorlopig weer iets.
tweede puntje: Dan moet je van Windows afstappen. Zelfs NT varianten hebben hun grenzen aan uptime. Heb vaak genoeg enkele weken zo niet maanden gehaald, maar jaren is me nog nooit gelukt.
Jaren hoeft ook niet zonder een keer opnieuw op te starten, maar structureel de zelfde fout om de (ca) 2 dagen, lijkt me ook wel een andere uiterste. Heb zelf vroeger Win2K op een PentiumPro200 gehad, die volgens mij wel het jaar heeft gehaald aan uptime (was ISDN-'server' met UPS erbij :D)
derde puntje: Da's Windows software raid.
Helaas, maar waar. Zet me wel aan tot denken, zijn er eigenlijk 3rd-party software-raid oplossingen voor windows?
vierde puntje: Valt best mee. zoveel rekenkracht heeft een fileserver niet nodig. De hardware die je hebt ondersteunt praktisch alles wat je nodig hebt om een zuinig systeem te bouwen.
Het gaat er mij om dat ik een desktop systeem heb waar ik ook gewoon op kan gamen e.d. en een 24/7-systeem dat zomin mogelijk verbruikt en beschikbaar is. Wat al deze hardware doet als die niet idle is, maakt me niet zoveel uit. Maar als alles idle is en in standby, dan moet het verbruik minimaal zijn. Als ik nu één systeem hiervoor maak, zoals ik nu heb, dan blijven b.v. de videokaart en die skystar2 kaart best veel stroom zuipen zonder dat het nodig is, hier wil ik dus van af. Als het dus ook niet lukt om een server te maken met laag verbruik, dan heeft het voor mij ook bijna geen nut om over te stappen!
P3: te traag, en weinig power saving features. T'bird: Tot de komst van de Prescott core de minst zuinige processor die er was. Snel, maar slurpt energie.
Videokaarten: Als ie het doet, gebruikt de S3. Die dingen hadden nog geen eens passieve koeling nodig. Zal een significant verschil zijn ten opzichte van de GF 6200. Probleem is wel dat Windows 2000 en later hem niet ondersteund. FreeBSD weet ik niet. Waarschijnlijk wel, en dan heb je toch alleen een console nodig tijdens het installeren. Daarna kan ie er eventueel zelfs weer uit.
De 3Com zal waarschijnlijk de CPU minder belasten, en die verbruikt meer energie dan die 4 watt (hoe heb je dat ueberhaubt gemeten?).
Realtek zou ik Sowiezo mijden als je het geheel nu al traag vindt. Een goede, zuinige nieuwe gigabit kaart kopen zal het geheel zoiezo sneller maken waarschijnlijk (moet je alleen wel je netwerk upgraden, dus snap het als je dat niet wil)
Als je naar nieuwe harde schijven wil kun je ook kijken of het zinnig is de schijfgrootte in je array te upgraden. Van grotere schijven heb je er uiteindelijk minder nodig => minder energie.
P3, vooral te traag je. Heb het systeem, met 1 hdd en 1cdrw-drive op ongeveer 31Watt gekregen, terwijl de harddisk draait! Energie valt dus wel mee, maar te traag ja...
Video: yep, maar drivers valt wel mee, heb als test Win2K op de P3 draaien, werkt gewoon.
3Com: yep, minder cpu verbruik, maar viel me nog redelijk mee t.o.v. de realtek kaart. Die +4Watt weet ik door mijn Voltcraft Energy Check 3000 :D. Gigabit is nog geen must, maar zou het graag in mijn server hebben omdat ik dan altijd nog m'n routerer/switches/andere netwerk kaarten kan vervangen. Maar zoals gezecht wilde ik de server maken en neerzetten voor de komende 2 jaar en er eigenlijk niets meer aan hoeven doen, ook geen netwerk kaart vervangen (of zelfs bijprikken als ik een m/b met FastEthernet heb i.p.v. Gigabit).
Ik zou voor een van de eerste twee opties gaan. Windows is gewoon niet geschikt voor een 24/7 systeem en ik heb eerlijk gezecht niet veel vertrouwen in NT-RAID5, zowel qua snelheid, als qua mogelijkheden tot migreren naar een andere server.
Zie reactie op Enlightenment hierboven
Eerste optie: bedoel je een moederbord met driver-raid? Lastig als het moederbord het ooit begeeft.
Ja, dit bedoelde ik. De nvRaid lijkt me bijvoorbeeld erg makkelijk te werken, met meer dan 4 drives mogelijk, werkt onder windows, uitgebreide tools erbij voor migratie en expansie e.d. Maar je moet i.d.d. wel bijna een reserver moederbord hebben. EN de chipset die dit ondersteund moet zuinig zijn. Ik ga dus eens kijken of die nforce 630a die Enlightenment hierboven noemde dit ondersteund, maar het lijkt me wel een kandidaat (zowel voor hardware als software raid).
Tweede optie: Als je echt hardware wilt gaan (als je bij windows blijft wel aan te raden) dan is een goede (dure) raidcontroller zeker een optie. Adaptec of Areca scoort altijd wel aardig.
Hier ben ik dus ookal veel naar aan het kijken geweest, maar ze zijn eigenlijk gewoon te duur. Dus de enige optie zou semi-hardware (Highpoint bijvoorbeeld) Raid zijn. en dan klinkt software of moederbord raid ook weer een stuk interessanter.
Derde optie: Persoonlijk zou ik gewoon m'n desktop gebruiken voor downloaden. Is het echt nodig om 24/7 te downloaden? Misschien af en to gewoon een DVDtje huren? :-)
Hehe, ik wil wel de mogelijkheid hebben ja. DVDtje huren, mmmm, duurt lang, ver weg... En ik koop ze wel als ze een redelijke prijs hebben, maar tot die tijd komen ze van internet ;)

Acties:
  • 0 Henk 'm!

  • erikafoort
  • Registratie: December 2006
  • Niet online
Verwijderd schreef op zaterdag 25 augustus 2007 @ 09:48:
[...]

Als dat je eisen zijn, zul je het gebruik van RAID5 moeten heroverwegen. Probleem van RAID5 en elk ander RAID level is dat daarbij in de praktijk alle disks nodig zijn bij activiteit. Je wilde een edonkey-client en torrents enzo, dat gaat dus continu lopen lezen en schrijven. Je schijven kunnen daardoor niet standby en 6 schijven betekent 60W aan het stopcontact. Daar zit jouw probleem.
Ik heb mijn data die ik veel gebruik op 1 schijf staan, de rest van de schijven gebruik ik minder vaak dus die gaan daardoor vaak in slaapstand. 1 van de 4 schijven slaapt dus eigenlijk bijna nooit. Als deze schijf vol komt te zitten ga ik een vervanger zoeken daarvoor ( dus ik blijf 4 schijven houden ).

Acties:
  • 0 Henk 'm!

  • Kenny_NL
  • Registratie: Februari 2005
  • Laatst online: 20:43
The Collector schreef op zondag 26 augustus 2007 @ 12:09:

P3, vooral te traag je. Heb het systeem, met 1 hdd en 1cdrw-drive op ongeveer 31Watt gekregen, terwijl de harddisk draait! Energie valt dus wel mee, maar te traag ja...
Ach, het is maar wat je ervan verwacht. Met een 100Mbit-netwerkje thuis valt het met die snelheid reuze mee. Je moet ook niet verwachten dat je dan full-HD realtime kunt gaan video-editten met een bestand op je NAS. Maar voor MP3's, documenten die op iedere PC in huis bereikbaar mag zijn en andere gedeelde spullen is een P3 met 100Mbit snel zat. Ook al heb je een supersnelle proc, 100Mbit blijft 100Mbit, totdat je alles gaat upgraden (de switch, de PC's en zo)...

Ik heb ook een P3 (een 1,13Ghz of zo) en dat voldoet prima.

Acties:
  • 0 Henk 'm!

  • MadDog11
  • Registratie: Juni 2001
  • Laatst online: 21:32
Same here, draai met een PII 450 met 768 MB en 100 Mbit-netwerk en voor MP3's-verdeling en opslag van data aan alle pc's thuis en bereikbaar via ftp voor het internetdeel nog snel zat, zeker als je FreeNAS draait met een zeer lage load, is een PII of PIII snel genoeg imho.
En och, dan zal ik op een document 1,2 of 3 seconden wachten, wat is het probleem, je verdoet meer tijd met klooien dan met werken.

Acties:
  • 0 Henk 'm!

  • The Collector
  • Registratie: Januari 2000
  • Laatst online: 11-03 13:05
Ik denk dat ik er voorlopig uit ben, in samenspraak met m'n portemonee. FreeBSD installeren op de P3, versie 7.0-CURRENT om ondersteuning te hebben voor mijn Silicon Image 3114 kaartje. Hierin de 3COM - 3C905 kaart als netwerk en dan 4x320GB+2x160GB schijven gebruiken om een 1,2TB array te maken. Een oude 40GB hdd als boot/download schijf zodat de rest in standby kan. Tevens wil ik de P3-733 die nu op 550mhz draait proberen te overclocken en als ik merk dat het veel mbit/s scheelt vervangen. Er zal nog een koeling bij moeten, maar das niet zo moeilijk voor een S370 processor...

Problemen die ik dan heb, is mijn bijna nihile ervaring met FreeBSD. Ik ga het proberen, maar ik hoop dat er hier mensen zijn die me ermee kunnen helpen als het zover is! (Alvast bedankt ;) )

[edit]
Heb even zitten kijken, maar volgens mij ondersteund 6.2-STABLE ook de SiL3114 kaart... komt mooi uit, kan ik een stable gaan draaien :D

[ Voor 8% gewijzigd door The Collector op 28-08-2007 20:22 ]


Acties:
  • 0 Henk 'm!

  • Itsacon
  • Registratie: Maart 2006
  • Laatst online: 23-08 11:14
The Collector schreef op zondag 26 augustus 2007 @ 22:49:Problemen die ik dan heb, is mijn bijna nihile ervaring met FreeBSD. Ik ga het proberen, maar ik hoop dat er hier mensen zijn die me ermee kunnen helpen als het zover is! (Alvast bedankt ;) )
Blader voor je begint het FreeBSD Handbook eens door, en hou die erbij terwijl je bezig bent. Meeste informatie die je nodig hebt kun je daar in vinden, de rest staat in de man pages.

My system is in 64 bits. But superglue keeps it together just fine...


Acties:
  • 0 Henk 'm!

  • The Collector
  • Registratie: Januari 2000
  • Laatst online: 11-03 13:05
Itsacon schreef op maandag 27 augustus 2007 @ 10:36:
[...]


Blader voor je begint het FreeBSD Handbook eens door, en hou die erbij terwijl je bezig bent. Meeste informatie die je nodig hebt kun je daar in vinden, de rest staat in de man pages.
Ik ga het dalijk proberen, bedankt voor de tip!

Btw. zou het nog uit kunnen maken als ik een nieuwe Intel PRO/1000 GT Netwerk PCI Adapter erin zet i.p.v. de 3COM 3C905? Ik hoef geen gigabit snelheden te halen, maar misschien net iets meer dan met de 3com en evt. wat vinder verbruik?

Acties:
  • 0 Henk 'm!

  • Keiichi
  • Registratie: Juni 2005
  • Laatst online: 23:13
The Collector schreef op maandag 27 augustus 2007 @ 11:28:
[...]

Ik ga het dalijk proberen, bedankt voor de tip!

Btw. zou het nog uit kunnen maken als ik een nieuwe Intel PRO/1000 GT Netwerk PCI Adapter erin zet i.p.v. de 3COM 3C905? Ik hoef geen gigabit snelheden te halen, maar misschien net iets meer dan met de 3com en evt. wat vinder verbruik?
Het verbruik van de Intel® 82575 Gigabit Ethernet Controller is in 100mbit 1Watt en in Gbit 2.4 tot 2.8Watt.
Het verbruik van een simpele 3com kon ik niet echt goed achterkomen wat het verbruik was, maar zou 3Watt en 10Watt in kunnen liggen (de specs zeggen bij +5V 600mA en bij +12V 600mA )

Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/


Acties:
  • 0 Henk 'm!

  • Underground75
  • Registratie: Augustus 2002
  • Laatst online: 04-09 15:10
Na een week proberen om Freenas op mijn server te krijgen, heb ik besloten om te wachten op de Ubuntu Home Server Edition (komt waarschijnlijk uit eind oktober).

Tijdens de installatie op Compact-Flash blijft de installatie hangen op volgend menu:
code:
1
2
3
4
5
6
1. Boot [default] 
2. Boot with ACPI enabled 
3. Boot in Safe Mode 
4. Boot with verbose logging 
5. Escape to loader prompt 
6. Reboot


Hardware is een Asus TR-DLS moederbord met 2x PIII-1,26GHz processors, 3,5GB geheugen.
Installatie via image direct op CF geeft bovenstaand menu.
Installatie via live-cd op CF of HDD geeft hetzelfde menu.

Ik heb echt geen idee wat ik moet doen om Freenas werkend te krijgen op deze server. Op het Freenas help-forum staat een topic hierover.

Toch jammer, het geom-raid gebeuren spreekt me erg aan.

Acties:
  • 0 Henk 'm!

  • Lima
  • Registratie: Juni 2004
  • Laatst online: 14-01-2024

Lima

Techno>Music

L i m a schreef op zaterdag 25 augustus 2007 @ 10:20:


Wel ik heb hier een FTP kabel genomen (afgeschermd met folie over alle paren niet per paar) omdat deze langs de voeding van ons huis loopt. Wel een paar centimeters ervan maar ik kan gratis aan FTP kabel geraken dus was de keuze snel gemaakt.
Maar ik vind heel moeilijk info over het maken van een goeie FTP kabel...
Ik dacht dat je daarvoor speciale RJ-45 jacks voor nodig had die van ijzer zijn en dan zo contact maken met de aarde van je PC kast...
Iemand met veel praktijk ervaring kan deze vraag misschien duidelijker toelichten?

edit:
zoiets als deze foto dus
niemand?

Techno>Music


Acties:
  • 0 Henk 'm!

  • Kenny_NL
  • Registratie: Februari 2005
  • Laatst online: 20:43
Blijkbaar niet. Misschien kunnen ze je in het forum Netwerken verder helpen?

Ik ben S-FTP-kabels ook niet veel tegengekomen in de netwerk-implementaties die ik gezien heb...

Acties:
  • 0 Henk 'm!

  • Keiichi
  • Registratie: Juni 2005
  • Laatst online: 23:13
Ik heb nog steeds niet alle testen weten te draaien om een vergelijking tussen graid en de linux raid implementatie te maken.

Maar ik ben al wel ver genoeg om voorzichtig te kunnen zeggen dat de raid implementatie bij Linux veel sneller is. Een grote verschil lijkt behaald te worden doordat Linux geen CPU cycle ongemoeid probeerd te laten en bij FreeBSD graid5 dat er gaten in de verwerking ontstaan als het ware.

Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/


Acties:
  • 0 Henk 'm!

  • The Collector
  • Registratie: Januari 2000
  • Laatst online: 11-03 13:05
Keiichi schreef op woensdag 29 augustus 2007 @ 15:58:
Ik heb nog steeds niet alle testen weten te draaien om een vergelijking tussen graid en de linux raid implementatie te maken.

Maar ik ben al wel ver genoeg om voorzichtig te kunnen zeggen dat de raid implementatie bij Linux veel sneller is. Een grote verschil lijkt behaald te worden doordat Linux geen CPU cycle ongemoeid probeerd te laten en bij FreeBSD graid5 dat er gaten in de verwerking ontstaan als het ware.
Ik heb dus pas een paar extra hdd's en een netwerkkaart besteld om het hele zaakje inelkaar te gaan zetten. Maar waarom zou ik FreeBSD gaan draaien als het met Linux sneller zou werken? is geom_raid al beter ontwikkeld / veiliger / veelzijdiger? Aangezien ik een oudere P3 ga gebruiken zijn alle cpu-cycles die voor het array gebruikt worden welkom.

Acties:
  • 0 Henk 'm!

  • MrBarBarian
  • Registratie: Oktober 2003
  • Laatst online: 07-03-2023
The Collector schreef op woensdag 29 augustus 2007 @ 16:59:
[...]

Ik heb dus pas een paar extra hdd's en een netwerkkaart besteld om het hele zaakje inelkaar te gaan zetten. Maar waarom zou ik FreeBSD gaan draaien als het met Linux sneller zou werken? is geom_raid al beter ontwikkeld / veiliger / veelzijdiger? Aangezien ik een oudere P3 ga gebruiken zijn alle cpu-cycles die voor het array gebruikt worden welkom.
Die vraag stel ik me ook al een tijd; waarom zou ik geom_raid5 nemen ipv mdadm. Hier (op GoT dus) zijn er redelijk wat freenas gebruikers, maar wat is dus de meerwaarde (waarbij ik er gemakshalve er vanuit ga dat Linux alles kan dat freenas ook kan) van freenas?

iRacing Profiel


Acties:
  • 0 Henk 'm!

  • Keiichi
  • Registratie: Juni 2005
  • Laatst online: 23:13
Ik heb nog geen harde schijf crashes gesimuleerd, dat is wel het minste wat je kun testen voor veiligheid.

Ik geloof dat graid5 zich nog in een redelijk pril stadium begeeft, waar Linux mdadm waarschijnlijk al veel grondiger getest is.

Met vinum (dus niet graid5) heb ik last gehad van diverse crashes.

[ Voor 12% gewijzigd door Keiichi op 29-08-2007 19:27 ]

Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/


Acties:
  • 0 Henk 'm!

  • MadDog11
  • Registratie: Juni 2001
  • Laatst online: 21:32
MrBarBarian schreef op woensdag 29 augustus 2007 @ 19:07:
[...]

Die vraag stel ik me ook al een tijd; waarom zou ik geom_raid5 nemen ipv mdadm. Hier (op GoT dus) zijn er redelijk wat freenas gebruikers, maar wat is dus de meerwaarde (waarbij ik er gemakshalve er vanuit ga dat Linux alles kan dat freenas ook kan) van freenas?
Wat ik de meerwaarde van FreeNAS vindt is dat het bijna out-of-the-box draait en binnen 5 minuten in de lucht is, en ik heb echt 0,1 % verstand BSD en Linux, dus heel snel en handig kun je een NAS online hebben

Acties:
  • 0 Henk 'm!

  • Kenny_NL
  • Registratie: Februari 2005
  • Laatst online: 20:43
Wat is nou het voordeel (performance-wise) van iSCSI t.o.v. CIFS? iSCSI maakt het mogelijk om een schijf fysiek te koppelen (als het ware), terwijl CIFS alleen de share benaderbaar maakt. Je blijft toch gebonden aan de snelheid van de combi netwerk/disks, of zit er ook nog een groot verschil in protocol?

Ik weet wel een klein beetje van netwerken en protocollen (CIFS is voor zover ik weet niet veel anders dan SMB, dus erg chatty over het netwerk), maar storage, zoals bijv. FibreChannel en iSCSI zijn voor mij een onontgonnen gebied. Als iSCSI minder protocol-overhead heeft als CIFS, dan kan het zin hebben om FreeNAS als iSCSI-target te gebruiken in plaats van SAMBA-server.

Maar misschien heb ik de kok wel horen fluiten omdat-ie niet weet waar de lepel hangt, daar heb ik vaker last van...

Acties:
  • 0 Henk 'm!

  • Keiichi
  • Registratie: Juni 2005
  • Laatst online: 23:13
Kenny_NL schreef op woensdag 29 augustus 2007 @ 22:37:
Wat is nou het voordeel (performance-wise) van iSCSI t.o.v. CIFS? iSCSI maakt het mogelijk om een schijf fysiek te koppelen (als het ware), terwijl CIFS alleen de share benaderbaar maakt. Je blijft toch gebonden aan de snelheid van de combi netwerk/disks, of zit er ook nog een groot verschil in protocol?

Ik weet wel een klein beetje van netwerken en protocollen (CIFS is voor zover ik weet niet veel anders dan SMB, dus erg chatty over het netwerk), maar storage, zoals bijv. FibreChannel en iSCSI zijn voor mij een onontgonnen gebied. Als iSCSI minder protocol-overhead heeft als CIFS, dan kan het zin hebben om FreeNAS als iSCSI-target te gebruiken in plaats van SAMBA-server.

Maar misschien heb ik de kok wel horen fluiten omdat-ie niet weet waar de lepel hangt, daar heb ik vaker last van...
iSCSI heeft stuk minder overhead, omdat dit zich stuk lager in het OSI model bevind. Op layer 5. CIFS/SMB zit helemaal op layer 6/7.

Een verschil hoe ik iSCSI tegenover SMB gebruikt heb, is dat ik een iSCSI target als volwaardig blockdevice laat dienen, terwijl ik SMB op de bekende manier gebruik. bij iSCSI heb ik het voordeel dat ik eigenlijk maar te maken heb met 1 filesystem, (de target hoeft niet zo veel na te denken). Met gebruik van ZFS kan een iSCSI op meerdere client gebruikt worden, anders niet, waarbij dit bij SMB weer wel makkelijker is.

Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/


  • MrBarBarian
  • Registratie: Oktober 2003
  • Laatst online: 07-03-2023
MadDog11 schreef op woensdag 29 augustus 2007 @ 19:27:
[...]


Wat ik de meerwaarde van FreeNAS vindt is dat het bijna out-of-the-box draait en binnen 5 minuten in de lucht is, en ik heb echt 0,1 % verstand BSD en Linux, dus heel snel en handig kun je een NAS online hebben
Kan ik me voorstellen, maar dat is voor mij juist een beperking. Ik denk niet dat freenas de functionaliteit bied die ik wil (en dat verwacht ik al helemaal niet via e.a. gui)

En ik denk dat dat voor me meeste powerusers geldt.

iRacing Profiel


  • Twynn
  • Registratie: Maart 2001
  • Laatst online: 01-09 08:51
MrBarBarian schreef op donderdag 30 augustus 2007 @ 09:10:
[...]

Kan ik me voorstellen, maar dat is voor mij juist een beperking. Ik denk niet dat freenas de functionaliteit bied die ik wil (en dat verwacht ik al helemaal niet via e.a. gui)

En ik denk dat dat voor me meeste powerusers geldt.
Ben ik met je eens.
Overigens, als je ipv een bsd oplossing naar een linux-oplossing wilt kijken kun je ook naar openfiler kijken. Iets uitgebreider als freenas.

  • frv
  • Registratie: November 2002
  • Laatst online: 22-07-2024

frv

ben ook geinteresseerd in een nas oplossing ...

totnutoe zit ik vooral verveeld met de hardware keuze. Mijn NAS doos zal ook nog een aantal andere zaken moeten doen

1. MythTV Backend ( liefst geen aparte doos hiervoor aangezien over 100mbit 2 mpeg2 streams schrijven/lezen (dual tuner ...)
2. Asterisk

Voor beide functies heb ik al de nodige hardware ( hauppage 500 dual tuner en Digium interface card).

Qua moederbord dacht ik ook eerst aan dat goedkoop mobo die enlightenment voorstelde maar helaas zijn deze niet meer zo makkelijk te verkrijgen ... Deze Asus K8V-XE
zou een vervanger kunnen zijn echter maar 6 sata poorten

Budget :

Totaal 200 a 300 euro ... voor case/mobo/processor (zonder HD's/RAM/etc)

Case (nog geen idee ... moet 8 SATA drives kunnen herbergen, liefst meer ... )

Systeem 1 :Totaal : 162 of 252 euro.

Systeem 2 :

Config van enlightenment
  • Mobo

    Asus K8N4-E Deluxe (8x sata; s754) (als ik deze ergens kan vinden ?)
  • CPU
    Sempron 2800+ S754 (opnieuw als ik een shop kan vinden ...)
Systeem 3 :

El Cheapo ... (maar 6 sata poorten op mobo)Totaal : 61,4 + BTW = 74 euro

100% zeker :
  • HD (start met 4 , uiteindelijk 8 )
    Samsung SpinPoint T166 500GB (energiezuinig volgens dit topic ...)
  • RAM (1 gig voldoende ?)
    TwinMos 1024MB DDR2 667MHz 5300 Memory Module 19 % € 37,04
Zoals je hierboven kan zien twijfel ik tussen 3 systemen.

Voor mij zijn de 3 belangrijkste punten

1. value for money
2. stroomverbruik
3. uitbreidbaar ( minimum 8 disks )

Uiteraard dient de hardware te werken onder FreeBSD/FreeNAS. Ga voor software raid gaan (geom_raid5 vandaar mobo's die 8 SATA poorten hebben + een pci-e slot voor als ik later nog wil uitbreiden met een extra pci-e sata kaart ... )

Wat is volgens jullie de beste configuratie voor hetgeen ik van plan ben ? Het prijsverschil tussen 1 en 3 is +- 100euro (indien mobo van 99 euro ). Is dit gerechtvaardigd of overkill ? 100euro is niet een enorm bedrag maar we blijven spaarzaam ...

Suggesties en tips zijn altijd welkom ( zal de uiteindelijk config dan ook in deze post editeren ...)

ps : dit is mijn eerste grote post op tweakers ... hoop dat hij een beetje volgens de regels/gebruiken is ?

[ Voor 27% gewijzigd door frv op 06-09-2007 20:00 ]


  • Kenny_NL
  • Registratie: Februari 2005
  • Laatst online: 20:43
Omdat ik nu een PC met Ubuntu heb staan (P3-1,13Ghz met 512MB) naast mijn regulier werkpaard met XP (AthlonXP2600+ met 1GB aan geheugen), ben ik eens wat snelheden aan het vergelijken.
Het valt mij op, dat de P3 - ondanks z'n leeftijd - een bestand van 300 MB veel sneller naar zich toe haalt van FreeNAS (P3-1Ghz met 256MB) dan de XP-bak.
Om het een beetje "eerlijk" te laten verlopen, heb ik de transfer met (win)scp gedaan.
Ubuntu haalt een snelheid van (afgemeten uit de grafiekjes van FreeNAS, dus geen exacte gegevens) ongeveer 7 á 8 Mbit/s en XP doet niet sneller dan 3 á 4 Mbit/s.

Zijn er meer mensen met dergelijke ervaringen?

Acties:
  • 0 Henk 'm!

  • Keiichi
  • Registratie: Juni 2005
  • Laatst online: 23:13
Vedraaid, ik probeer vandaag mijn array in productie te nemen.

Simuleer ik even 2 harde schijf failures (wel raid6), klapt de server er uit! :( :( Ik moet thuis nog kijken waarom...

[ Voor 3% gewijzigd door Keiichi op 07-09-2007 13:59 ]

Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/


Acties:
  • 0 Henk 'm!

  • Calculon
  • Registratie: November 2002
  • Niet online
Kenny_NL schreef op donderdag 06 september 2007 @ 19:45:
Het valt mij op, dat de P3 - ondanks z'n leeftijd - een bestand van 300 MB veel sneller naar zich toe haalt van FreeNAS (P3-1Ghz met 256MB) dan de XP-bak.
Om het een beetje "eerlijk" te laten verlopen, heb ik de transfer met (win)scp gedaan.
Ubuntu haalt een snelheid van (afgemeten uit de grafiekjes van FreeNAS, dus geen exacte gegevens) ongeveer 7 á 8 Mbit/s en XP doet niet sneller dan 3 á 4 Mbit/s.

Zijn er meer mensen met dergelijke ervaringen?
Dat ligt puur aan de implemenatie van winscp. Ik heb hier dezelfde ervaringen als jij. Je doet beter een vergelijkende test met scp onder unix/linux, en pscp onder windows.

Meer info op: http://www.chiark.greenend.org.uk/~sgtatham/putty/

[ Voor 9% gewijzigd door Calculon op 07-09-2007 14:47 ]


Acties:
  • 0 Henk 'm!

  • Kenny_NL
  • Registratie: Februari 2005
  • Laatst online: 20:43
Hmmm. Als ik een karrevracht aan foto's (veel 1-2MB JPEG's en RAW-bestanden van 6MB) naar FreeNAS FTP, dan vliegt het wel de lijn over (snelheden van 60Mbit/sec). Ik ben dan weer benieuwd waar dat dan weer aan ligt...
Kennelijk is FTP meer geschikt voor dit doel.

[ Voor 5% gewijzigd door Kenny_NL op 10-09-2007 08:15 ]


Acties:
  • 0 Henk 'm!

  • Calculon
  • Registratie: November 2002
  • Niet online
Welja, bij SCP komt er encryptie bij kijken, en dat vergt CPU cycles. FTP is voor het overzetten van grotere bestanden alvast sneller dan smb of scp.

Acties:
  • 0 Henk 'm!

  • Kenny_NL
  • Registratie: Februari 2005
  • Laatst online: 20:43
CPU-cycles OK, maar een factor 10 is wel erg veel. SMB/CIFS zal wel een grotere protocol-overhead hebben dan FTP (is ook een wat ouder protocol, bestaat al in de een of andere vorm sinds 1971), en SCP is weer afhankelijk van de implementatie, zoals je schrijft.

Acties:
  • 0 Henk 'm!

Verwijderd

Kleine update van mijn kant en enkele ervaringen, misschien heeft iemand er wat aan.

Voeding
In eerdere post gaf ik al aan opzoek te zijn naar een degelijke voeding die meer hd's ondersteunt dan wat meeste mensen hier op de forum voor ogen hebben. Momenteel zit ik op 8 hd's en de Sweex trok het helemaal niet, logisch.

Als richtlijk heb ik 3A p/hdd genomen en dat is over het algemeen te veel gebleken. Echter het is zeker iets om op te letten als je veel hd's wilt nemen. De hardeschijf met meeste verbruik bij mij is 1.97A tijdens opstarten. Een opvallende uitschieter is IBM Deskstar met 2.97A! tijdens opstarten. Gelukkig is dat ook de enige die zo'n hoge Ampere nodig heeft.

Per toeval kwam ik uit op HPC-420, die 40A op 5VDC en 33A op 12VDC levert en tevens 9x 5.25 aansluitingen heeft. Mijne is een Chieftec, maar ze worden onder verschillende merken verkocht o.a Thermaltake. Het is een ATX v1.3 voeding, maar ik heb ook maar een oude mobo.

IDE Kabel
Zoals ook in eerdere post aangegeven vormden deze een probleem. Na vervangen van Aopen HX45 door Codegen 4U-600 zijn de errors spontaan verdwenen. Ik heb toch de kabels vervangen door AC Ryan FX2, omdat ik ze de investering waard vond en ook korting kreeg op de bestelling (geen verzendkosten)

Kabels kosten maar 3.33 euro bij 4U-web.nl

OS hd
Uit ervaring met thinclient hardware, Neoware, wilde ik de OS hd vervangen door een DiskOnModule. Om te kijken of het uberhapt werkt heb ik een DOM van 32MB in de moederbord gestopt, Abit K7T-RAID, maar het mocht niet baten. Wat ik ook probeerde, het wilde maar niet herkend worden. Waar het aan ligt is niet echt duidelijk. DOM werkt, ze werken in de thinclients, dus ik ga ervan uit dat de mobo ze niet lust. Ik weet niet hoe het met de nieuwere DOM zit, dus de gok is nog even niet waard.

Coolermaster 4-in-3 module
Ik heb deze meteen besteld met de kabels, en kan bevestigen dat het past. Echter kan je het niet vastschroefen. Ik kan me voorstellen dat wanneer de module vol zit en je de kast optilt de hele module in de kast kan vallen.

Waarom het niet vast te schroeven is: De klep van Codegen 4U-600 is niet hol, dus wat uit de voorkant steekt zal de klep in de weg zitten. Ik heb de module zover naar achteren geduwd zodat de klep dicht kan waardoor de schroefgaten van de module niet meer overeenkomen met de gaten van 5.25" bay.

Acties:
  • 0 Henk 'm!

  • IRCfreAk
  • Registratie: Januari 2003
  • Laatst online: 17-08-2021
Ik heb een vraag.

Is de limiet van raid0 beperkt tot 2TB of is dat mijn controller die dat doet?
Ik was erg blij met nog 2 samsung 500gb drives naast de 4 die ik al had tot dat bleek dat ik ze niet erbij kon zetten in de array. Ik kon of raid10 of raid50 kiezen met 6x500gb. (met 1.5tb als gevolg)
Uiteindelijk heb ik gekozen voor raid5 met 5 schijven, zit nu weer met 1 losse drive.

Ik gebruik een adaptec 2610SA als controller.

.edit ben er al achter, schijnt limiet van controller te zijn, of van sataI

[ Voor 8% gewijzigd door IRCfreAk op 16-09-2007 17:39 ]


Acties:
  • 0 Henk 'm!

  • Shuriken
  • Registratie: November 1999
  • Laatst online: 26-08 12:33

Shuriken

Life is all about priorities

IRCfreAk schreef op zondag 16 september 2007 @ 17:17:
Ik heb een vraag.

Is de limiet van raid0 beperkt tot 2TB of is dat mijn controller die dat doet?
Ik was erg blij met nog 2 samsung 500gb drives naast de 4 die ik al had tot dat bleek dat ik ze niet erbij kon zetten in de array. Ik kon of raid10 of raid50 kiezen met 6x500gb. (met 1.5tb als gevolg)
Uiteindelijk heb ik gekozen voor raid5 met 5 schijven, zit nu weer met 1 losse drive.

Ik gebruik een adaptec 2610SA als controller.

.edit ben er al achter, schijnt limiet van controller te zijn, of van sataI
Naast LBA voor schijfjes word er met controllers ook met LBA voor arrays gewerkt. Met wat oudere controllers is de limiet 32 bit LBA. Wat dus effectief inhoud dat je iets meer dan 2 TB kan adresseren per array. Nieuwere controllers ondersteuning vaak 64 bit LBA, wat resulteerd in max 512 TB per array.

Ik vermoed dat je dus wel 2 apparte arrays kan maken, maar niet een grote.

I rather have a bottle in front of me, then a frontal lobotomie


Acties:
  • 0 Henk 'm!

  • The Collector
  • Registratie: Januari 2000
  • Laatst online: 11-03 13:05
The Collector schreef op maandag 27 augustus 2007 @ 11:28:
[...]

Btw. zou het nog uit kunnen maken als ik een nieuwe Intel PRO/1000 GT Netwerk PCI Adapter erin zet i.p.v. de 3COM 3C905? Ik hoef geen gigabit snelheden te halen, maar misschien net iets meer dan met de 3com en evt. wat vinder verbruik?
Even een updateje over mezelf... :)

Ben even helemaal een andere kant op gegaan. Ik heb dus nu staan een P3-550Mhz, 640MB RAM, 1x40GB Boot + 4x320GB aan een Silicon Image 3114 kaartje. En een Intel Pro 1000GT kaartje.

Als software ben ik uitgekomen bij Solaris! Nadat ik over het Raid5-Write-Hole gelezen had, was ik er helemaal vanaf! Nu heb ik in Solaris van de 4 schijven een Raid-Z gemaakt (echt easy voor iemand die er niets van snapt _/-\o_ ) Vervolgens VNC aangezet (binnen een minuutje), staat gewoon in het 'start'-menu. FTP-Daemon aangezet via services en de root-account aangezet.

Ben nu een testje over ftp aan het doen met bio-lol.iso ( O-) ) 6,5GB... upload naar de server in 8min42 (12,8MByte/s) en download van de server in 5min47 (19,2MByte/s). Dit had ik dus helemaal NIET verwacht, maar ben er ERG blij mee :D

Nu nog uitzoeken:
- download software: torrents/newz/edonkey
- standby op de hdd's aanzetten
- alleen m'n raid-pool in de ftp ipv het hele bestandsysteem
- efficient mounten van m'n ftp in windows (ga eens proberen of webdrive fatsoenlijk met deze snelheden werkt) > andere progs/ideeen zijn welkom (misschien ga ik eens iscsi proberen)
- kan het nog sneller als ik de processor op originele 733mhz zet!?

Oh ja, dit alles verbruikt ~70Watt idle (Maar met de hdd's aan!). Tot nu toe dus een geslaagde missie! Wordt vervolgd...

  • Kenny_NL
  • Registratie: Februari 2005
  • Laatst online: 20:43
Dan ben ik wel benieuwd dit een beetje performed als je SAMBA gaat gebruiken. Daarnaast is Solaris voor x86 altijd erg lastig met hardware, ik ben een paar keer begonnen met een installatie, maar er was altijd iets (essentieels) dat niet herkend werd, dus ben ik er nooit verder mee gekomen.

Nadeel van Solaris (en net als alle andere normale installaties), is dat het geen "fire-and-forget"-optie is zoals FreeNAS. FreeNAS biedt misschien te weinig hard-core, maar is wel lekker makkelijk op te tuigen...

  • The Collector
  • Registratie: Januari 2000
  • Laatst online: 11-03 13:05
Kenny_NL schreef op woensdag 19 september 2007 @ 12:49:
Dan ben ik wel benieuwd dit een beetje performed als je SAMBA gaat gebruiken. Daarnaast is Solaris voor x86 altijd erg lastig met hardware, ik ben een paar keer begonnen met een installatie, maar er was altijd iets (essentieels) dat niet herkend werd, dus ben ik er nooit verder mee gekomen.

Nadeel van Solaris (en net als alle andere normale installaties), is dat het geen "fire-and-forget"-optie is zoals FreeNAS. FreeNAS biedt misschien te weinig hard-core, maar is wel lekker makkelijk op te tuigen...
Nou, dit probleem had ik dus in het begin ook. Ik was begonnen met standaard Solaris 10. Deze begon niet met installeren en bleef hangen met zoeken op de 3114-controler. Hierna heb ik Solaris Express geprobeerd, deze werkte verder wel zonder problemen.

En over SAMBA. Het duurde even voordat ik het aan de gang had. Ging iets minder makkelijk, waarschijnlijk omdat ik de service niet goed (her)start kreeg. Maar dit is het resultaat (met dezelfde iso). Download: 6min45 (16,4 MByte/s) en Upload: 12min40 (8,7 MByte/s). Ziet er vrij aardig uit voor Samba dacht ik zo!

Het lijkt er wel op alsof er ergens gegevens gecached worden, want dit is de netwerk grafiek vanaf de windows-bak:
Afbeeldingslocatie: http://xs119.xs.to/xs119/07383/netwerk.gif
Links: Schrijven naar Solaris, Rechts: Lezen van Solaris.

Acties:
  • 0 Henk 'm!

  • voodooless
  • Registratie: Januari 2002
  • Laatst online: 04-09 11:50

voodooless

Sound is no voodoo!

Ik heb gisteren ook NAS hardware besteld:

- Celeron 420, 1.6 Ghz
- Intel 945GZ moederbordje
- Intel Pro 1000/G Gbit netwerk
- 1x Samsung 250 GB SATA disk
- 2x Oudere IBM 250 GB SATA disks
- 512 MB DDR2
- 2GB USB stickje
- Asus gbit switchje

Daar komt netjes freeNAS op te staan met de disks in software RAID 5. Ik ben heel benieuwd hoe dat gaat presteren. Ik ben vooral benieuwd wat de verschillen gaan zijn tussen iSCSI, Samba, en Apple network. Ik ga ze dus alledrie benchmarken.

Do diamonds shine on the dark side of the moon :?


Acties:
  • 0 Henk 'm!

  • Coenen
  • Registratie: September 2000
  • Laatst online: 26-08 20:22

Coenen

=LoT= IJsbier @ ET

Ik heb mijn FreeNAS systeem omgebouwd naar een XP machine.
Eigenlijk omdat ik het gebruikers gedeelte van FreeNAS niet goed vind.
Ik wil graag per gebruiker kunnen aangeven in welke directory hij/zij rechten heeft.

Middels VMware heb ik de laatste FreeNAS nu virtueel op m'n XP machine draaien.
Nu vraag ik mij of ik m'n datadisks (software Raid1) nu zonder problemen kan mounten in m'n Virtuele Freenas.

Acties:
  • 0 Henk 'm!

  • vandijk
  • Registratie: Oktober 1999
  • Laatst online: 02-09 21:37
Zou opzch moeten kunnen... door gebruik te maken van de physical device optie bij het aanmaken van een extra disk.

Eerst met 1 proberen. als dat werkt een 2e erbij zetten...tenzij je een backup hebt :)

Canon cameras en lenzen. Elinchrom flitsers, Lowepro en Pelican tassen/koffers. Polestar 2


Acties:
  • 0 Henk 'm!

  • Sparhawk
  • Registratie: Maart 2001
  • Laatst online: 04-09 16:52

Sparhawk

Can bind minds with his spoon

Goed, na een eerdere vraag ben ik nu ook om. Draai freenas op een Asus M2A met een AMD X2 -be (de zuinige) processor. Nu merk ik alleen dat de webinterface heel traag reageert, soms ook bijna niet. Ik vermoed doordat het komt dat ik een heel gek subnet heb (ik krijg van mijn provider (surfsnel) 8 ip adressen, met subnet mask van 255.255.255.244. Weet iemand wat nu het getal is wat ik bij subnet in moet vullen, en of dit problemen oplevert die die trage webinterface verklaren? Ben op dit moment bezig met testen van mijn raid 5, houd jullie op de hoogte hoe het verder gaat.

Wil iedereen die in telekinese gelooft mijn hand opheffen a.u.b.


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 30-08 14:20
Als beide computers (dus server en client) hetzelfde subnet hebben en beiden een IP in dezelfde range, dan zou dat geen probleem moeten zijn.

Wat mogelijk wel een probleem is, is dat je server nu rechtstreeks aan het internet lijkt te hangen. Misschien heb je bezoekers?

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • voodooless
  • Registratie: Januari 2002
  • Laatst online: 04-09 11:50

voodooless

Sound is no voodoo!

Als alleen de webinterface traag is ligt dat vast niet aan je ip instellingen. Dan zou de rest ook traag moeten zijn.

Ik hoop vanavond mijn eerste testjes te kunnen doen. Heb het spul binnen. Moet alleen nog alles in elkaar zetten :)

Do diamonds shine on the dark side of the moon :?

Pagina: 1 ... 10 ... 14 Laatste

Dit topic is gesloten.