DIY RAID NAS bouwen Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 4 ... 14 Laatste
Acties:
  • 61.275 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zondag 25 februari 2007 @ 17:36:
FreeNAS ziet er goed uit en is supergemakkelijk te installeren en configureren. Helaas ondersteunt het weer net geen XFS bestandssysteem.. waar ik ongeveer van de bovenstaande 310GB, 200 GB op heb staan. :/
Er is wel read-only XFS-support voor FreeBSD-CURRENT. Gaat denk ik niet werken in FreeNAS. Maar dat zou je eventueel kunnen gebruiken om XFS te converten naar UFS.
Kortom, eigenlijk kan ik gewoon niet wachten totdat FreeBSD gewoon ZFS helemaal goed ondersteunt (liefst niet in de CURRENT versie). Als FreeNAS het dan ook nog snel ondersteunt ben ik echt verkocht, anders ga ik zelf nog wel eens met het een en ander prutsen onder FreeBSD zelf.
Een stabiele ZFS-port moet je denk ik aan 2008 denken. ZFS komt op zijn vroegst in FreeBSD 7.0 en zal in het begin 'experimental' zijn van aard. Overigens vind ik het ironisch dat mensen een filesystem kiezen omdat deze extra veiligheid zou bieden maar wel bereid zijn een beta/unstable-versie ervan te gebruiken, waar mogelijk nog desastreuze bugs in zitten. Daarmee doel ik niet noodzakelijkerwijs op jou. :)

Als het je gaat om veiligheid is ZFS op dit moment gewoon nog geen optie, en ook niet in de nabije toekomst. Hooguit op Solaris zelf, maar dan nog. UFS, Ext3 e.d. hebben zichzelf bewezen en kun je dus ook betrouwbaar achten. Wil je nieuwe feature en ga je bleeding edge, moet je daarmee wel beseffen dat je flink inboet op het gebied van veiligheid; je draait in principe beta-software. Met name de complexiteit van ZFS kan veel verborgen obscure bugs tot gevolg hebben. Ik zelf vertrouw mijn data liever toe aan geom_raid5 + UFS + SoftUpdates.
Tenslotte ben ik nu wat aan het rondkijken naar wat meer opslagruimte, ook om de omvang van de verschillende harde schijven nu eens recht te trekken.
500GB schijfjes van Samsung T166 zijn heel aantrekkelijk. Flink goedkoper dan de concurrentie en laag energieverbruik en hoge sequentiele transfers. Koop je er twee kun je een mirror draaien of (beter nog) een nightly backup. Koop je er drie heb je 1TB opslag met RAID5.
Iemand hier misschien nog gedachten danwel tips over die mij misschien wat kunnen helpen?
Die quote gaat over de beschikbaarheid van een RAID-array, voor thuisgebruik niet erg interessant denk ik. Meer voor mission-critical servers die er geen uurtje uit mogen liggen. Dan is RAID6 de enige oplossing.

RAID5 is potentieel minder veilig dan een mirror, maar een mirror kent ook een extreem hoge overhead van 50% terwijl je die bij RAID5/RAID6 goed binnen de perken kunt houden mits je voldoende schijven hebt. Een 3-disk RAID5 is daarnaast ook sneller dan een 4-disk mirror. Maargoed heb je nou maar 2 of 3 disks, dan ligt een mirror eerder voor de hand. Maar dan vraag ik me af of je uberhaupt wel RAID moet gebruiken.

Zelf zou ik zeggen: ga voor een backup ipv een mirror. Je bent namelijk dezelfde overhead kwijt, maar je hebt wel history. Daarmee bedoel ik: stel je verwijdert perongeluk wat, je hebt een virusaanval of een andere reden zorgt ervoor dat je data weg is, dan heb je altijd die backup nog, waarvan de disk ook nog eens in slaapstand gezet kan worden de grootste tijd wat weer energie bespaart. Het enige nadeel t.o.v. een mirror is dat als een disk uitvalt je tijdelijk niet bij je data kunt, je moet dan de disken omruilen en booten van de backup disk. Voor thuisgebruik is dit meestal geen enkel probleem; zo vaak komt een crash niet voor.

Acties:
  • 0 Henk 'm!

Verwijderd

El Cid schreef op zondag 25 februari 2007 @ 18:06:
Volgens mij is RAID-1 ietsje veiliger dan RAID-5. Stel je voor dat in beide gevallen een schijf faalt. De kans dat vervolgens een schijf uitvalt in je RAID-5 array, is tweemaal zo groot als de kans dat die ene schijf in je RAID-1 array uitvalt, voordat je een nieuwe schijf hebt geplaatst.
Ehh wat zeg je nou? De kans dat hardware fysiek faalt is groter als je bepaalde eentjes en nullen (RAID) er naartoe schrijft? Dat is nieuw voor me. :P
En als je kiest voor RAID in software, dan kun je ook gewoon booten van een RAID-1 array. Met RAID-5 kan dat alleen met een (dure) RAID-kaart. Ook geeft RAID-1 meer flexibiliteit als je schijven wilt uitwisselen tussen verschillende besturingssystemen.
Dan zit je nog altijd vast aan filesystem, tenzij je FAT32 ofzo gebruikt maar dat wil je niet denk ik. :)
Ik boot trouwens (indirect) van mijn RAID-5 array; er zitten geen andere schijven of flashdisks in. Dat gaat dan wel via netboot (PXE) waarbij de kernel wordt opgehaald via TFTP op een andere server in het LAN netwerk. Daarna boot hij rechtstreeks van de RAID5 array.

Maar makkelijker is om gewoon een 50MB boot partitie te gebruiken, en de rest te gebruiken voor RAID5. Dan kun je volledig softwarematig booten dus. :)


P5ycho schreef op maandag 26 februari 2007 @ 09:18:
De performance van een degraded of rebuilding raid5 array is ook zeer slecht te noemen tov raid1/raid10.
Hooguit die enkele keer in 3 jaar dat je een keer een schijf moet vervangen is het vast geen ramp om een paar uurtjes je array niet te gebruiken, of met 10MB/s ipv 50MB/s over het netwerk.
In linux voorkom je boot-ellende in raid5 gewoon door je kernel in een 32MB raid1 bootpartitie te zetten. Weet niet of freebsd dat ook (standaard) kan.
Yep idd, RAID1 zou ook kunnen. Zelf ben ik lui en doe ik het gewoon met een enkele disk/partitie zonder RAID. Je schrijft toch niet naar je bootpartitie normaliter dus RAID1 heb je in principe ook niet nodig.


vargo schreef op maandag 26 februari 2007 @ 12:21:
Mijn NAS is ook operationeel! RAID5 (3x 500GB) onder FreeNAS. Array staat nu te rebuilden (ruim 2 uur voor nodig).
Tof! Heb je ook foto's? :)

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 19:36
Verwijderd schreef op maandag 26 februari 2007 @ 17:32:
[...]

Ehh wat zeg je nou? De kans dat hardware fysiek faalt is groter als je bepaalde eentjes en nullen (RAID) er naartoe schrijft? Dat is nieuw voor me. :P
Dat zegt hij niet :P De kans dat er 1 schijf van 2 schijven stuk gaat in een bepaalde tijd is 2x zo groot als de kans dat 1 schijf van 1 schijven stuk gaat :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Jorizzz
  • Registratie: November 2001
  • Laatst online: 20:20
Paul Nieuwkamp schreef op maandag 26 februari 2007 @ 19:01:
[...]
Dat zegt hij niet :P De kans dat er 1 schijf van 2 schijven stuk gaat in een bepaalde tijd is 2x zo groot als de kans dat 1 schijf van 1 schijven stuk gaat :)
Ja maar als je RAID5 met RAID1 vergelijkt heb je het over minimaal 4 schijven, want RAID5 is minimaal drie schijven en RAID1 altijd een even aantal. Dus dan is de kans dat één van de drie resterende schijven faalt bij allebei hetzelfde. Echter is het natuurlijk wel zo dat er bij zo'n RAID1 array nog één mirror zit die mag uitvallen zonder directe consequenties qua dataverlies, en bij de RAID5 array is het over en sluiten...
Dus het risico is niet tweemaal zo groot en ook niet gelijk, maar wel iets groter met RAID5. Het blijft dus een kwestie van afwegen wat je belangrijker vindt, de extra veiligheid van RAID1, of het efficientere datagebruik van RAID5.

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 19:36
We kunnen nu hele bomen op gaan zetten over eerlijke vergelijkingen tussen raidlevels, maar daar waar het hier over ging was (de veiligheid bij) 3x 320gb of 2x 500 ;)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Coenen
  • Registratie: September 2000
  • Laatst online: 20:01

Coenen

=LoT= IJsbier @ ET

Na het lezen van dit topic heb ik vanavond ook maar eens een Freenas systeempje opgezet.
Hardware: P1 233MHz, een schijfje van 1.6GB, draaien doet het alleen de snelheid is om te huilen. :)
Uploaden gaat maar met 1800kByte en een 100% proc belasting.
Kortom het werkt, het was simpel op te zetten, alleen een P1 233MHz redt het niet.
Dat wist ik (na het lezen van dit topic) van te voren eigenlijk ook wel, maar wou toch eens kijken hoe of wat Freenas.

Waarom een Freenas systeempje, ik heb nu een Asus AP met daaraan een 80GB USB schijfje voor m'n MP3's.Ook dit werkt, maar is irritant langzaam, plus die USB spint niet down, ook niet erg lekker.
Eigenlijk zou ik wel een betere oplossing willen hebben, je zou kunnen kiezen voor een Ethernet Schijf a la Synology DiskStation DS-106, maar dan heb je maar 1 Schijf met al je data, ook geen prettig gevoel. Plus zo'n ding is best duur.

Ik heb nu een 250GB Hitachi ATA133 schijf in m'n PC zitten waar ik ook nog data op bewaar, die zou ik dan bv in een raid 1 (ik moet er dan nog wel 1 bij kopen) config in een Freenas systeem willen zetten. Ik heb nog een socket A mobo met een T'bird 1400MHz liggen. Niet gelijk de snelste hardware maar zou wel voldoende moeten zijn om een 100Mb netwerk dicht te trekken.
Nu zou ik liever geen PATA schijf meer kopen, ik koop liever een SATA schijf, maar kan je wel met een SATA en PATA schijf combi een Raid 1 (of 5) config maken?

Wat ik mij ook nog afvroeg, kan je Freenas via de WebGUI afsluiten?
Ik kon het zo gauw niet vinden. Ook zou ik WOL wel prettig vinden.
Dan hoeft ie niet altijd aan te staan, alleen als ik hem nodig heb.

Acties:
  • 0 Henk 'm!

  • El Cid
  • Registratie: September 2003
  • Niet online
Verwijderd schreef op maandag 26 februari 2007 @ 17:32:
Dan zit je nog altijd vast aan filesystem, tenzij je FAT32 ofzo gebruikt maar dat wil je niet denk ik. :)
Een schijf met UFS als bestandssysteem, kun je gewoon uitwisselen met alle andere BSD's, en read-only met Windows en Linux.

Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 21:18
Verwijderd schreef op maandag 26 februari 2007 @ 17:09:
[...]

Dan wil je denk ik het onmogelijke:
- extreem laag energieverbruik (minder dan een gemiddelde gloeilamp)
- on-demand toegang zonder vertraging tot storage
- RAID NAS met veel opslag

Misschien moet je dan wachten tot Flash disks uit zijn met respectabele grootte. Nu is de technologie er nog niet wat je wilt, tenzij ik je verkeerd begrijp natuurlijk. Valt me wel op dat je een paar posts terug het belangrijk vond om energiezuinig om te gaan, maar er kennelijk geen moeite mee hebt als je schijven voor niets aan het draaien zijn.

Je kunt de tijd instellen op een uur bijvoorbeeld. Als je ze gebruikt zullen ze dus nooit downspinnen als je aan het werk bent. Ik neem aan dat je ook een keer slaap nodig hebt dus is dat minimaal 8 uur dat je schijfjes dan met je meeslapen, toch 33% besparing. Als het gaat om een mailserver: die zet je natuurlijk op een aparte systeemschijf / partitie zodat die niet rechtstreeks op je array draait. Mocht je dan allerlei processen actief hebben hoeft daarvoor niet je hele RAID5 array aangezwengeld te worden.
Als er snachts gedownload wordt, of er moet een mail weggeschreven worden, dan is het al raak. Ik durf mijn hand er voor int vuur te steken dat die schijven met 1 uur spindown eeuwig zullen blijven draaien. Zodra je ook maar 1 andere task voor je nas bak hebt naast het pure nas, is schijven downspinnen gewoon geen optie meer omdat je het inkomende verkeer van de buitenwereld gewoon niet kunt voorspellen. Om nu 1 server voor al het andere en 1 voor nas te bouwen, dan gaat het weer in de (stroom)kosten lopen natuurlijk. een aparte fysieke raid1 array zie ik dan ook niet zitten.
Als je je thuis voelt bij Gentoo moet je opzeker eens bij FreeBSD kijken. Zo eng is BSD trouwens niet, en niet alles is opeens anders. Alle unices werken om min of meer dezelfde manier.

Hm oke. Maar je post wel in het RAID NAS topic he. :P Terwijl voor jou een enkele 500GB schijf dus al genoeg zou zijn.
Als het raid1 is, inderdaad. Met 1 500GB schijf ben je natuurlijk goed de pineut als die schijf crasht, kun je lekker een verse install gaan doen. Daar heb ik geen zin in. Backup staat op een RWtje, en op een networked pc.
Overigens denk ik dat je in plaats van die mirror beter een (nightly) backup kunt maken . Scheelt je ook weer 80% energie voor de backup schijf omdat die de overige tijd gewoon kan downspinnen. Een backup is in principe meer waardevol dan een mirror (history).
zie ook hierboven, een backup is een waardevol iets, maar als je een uptime wilt garanderen (en dan ga ik niet over percentages per jaar praten, maar gewoon hooguit een dag downtime mocht er iets mis gaan) dan ben je wederom de lul als je maar 1 schijf hebt. Gentoo compilen duurt wel langer dan een dagje.
Daar heb je gelijk in ja. Om die reden zou ik ook een Athlon 64 3000+ ofzo aanbevelen; die verbruikt idle ook maar 5W. Maar kan toch cpu power leveren als dat nodig is. Maar zo'n Epia is ook wel schattig; maar software RAID5 moet je dan geen wonderen van verwachten. ;)

Maar nogmaals; wat in dit topic besproken wordt is denk ik wat anders dan de eisen die jij er aan stelt. De mensen hier gaan voor een NAS oplossing; dedicated voor het opslaan van (veel) storage. Jij wilt gewoon een server en daarin een schijfje voor centrale opslag. Dat zou je ook NAS kunnen noemen maar je valt daarin wel in een heel andere categorie. Ik zelf zou dat gewoon multipurpose server noemen en niet zozeer een "RAID NAS". Met zo weinig behoefte aan opslag zou ik je aanraden om voor een backup te gaan ipv mirror; op een tweetal 500GB schijfjes van Samsung (energiezuinig).
Het probleem met zo'n athlon is dat de cpu zelf wel 5W gebruikt idle, maar ik geloof dat de chipset, ram en evt. addon kaarten samen al gauw een vijfvoud daarvan verbruiken. dat zou nagemeten moeten worden, maar ik meen daar eens een kleine vergelijkende test van gezien te hebben.

Als je je NAS als dedicated storage bak gebruikt, dus zonder torrents op de achtergrond etc, dan moet er een andere pc heel de dag staan te loeien om alle content voor je NAS binnen te slurpen, niewaar? dan heb je er 'verbruiksgewijs' weinig aan. stop dan die raid array in je eigen bak en laat die de hele dag lopen. en dan heb je eigenlijk weer een multipurpose server ;)

Als je toch die bak hebt staan (en zeker als je een flinke cpu neemt) gebruik em dan ook voor de rest van die taken die je desktop helemaal niet perse hoeven doen. Kan die ook weer uit.

Ik ben benieuwd hoe al die TB+ NAS systemen gebruikt worden als ze puur NAS doen en niets anders. Er staat vast wel een pc in hetzelfde lan die aan moet blijven, omdat hij 3% van zijn cpu cycles staat te gebruiken voor het downen of seeden van een torrent oid.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op maandag 26 februari 2007 @ 17:25:
[...]

Zelf zou ik zeggen: ga voor een backup ipv een mirror. Je bent namelijk dezelfde overhead kwijt, maar je hebt wel history. Daarmee bedoel ik: stel je verwijdert perongeluk wat, je hebt een virusaanval of een andere reden zorgt ervoor dat je data weg is, dan heb je altijd die backup nog, waarvan de disk ook nog eens in slaapstand gezet kan worden de grootste tijd wat weer energie bespaart. Het enige nadeel t.o.v. een mirror is dat als een disk uitvalt je tijdelijk niet bij je data kunt, je moet dan de disken omruilen en booten van de backup disk. Voor thuisgebruik is dit meestal geen enkel probleem; zo vaak komt een crash niet voor.
(sorry voor mijn wat trage reactie.. druk druk druk :o)

Ik denk dat dit een hele goede suggestie is en dat ik hier ook (zeker in eerste instantie) maar voor ga. Ik heb nog wel een usb/firewire behuizing liggen die ik vrij kan maken. Dan heb ik en het voordeel dat ik vanuit meerdere machines bij een schijf kan, maar ook dat wat op (of met) de ene schijf gebeurt niet direct impact heeft op de andere schijf.

Trouwens, het is ook zeker mogelijk om onder FreeNAS een USB disk te mounten en te sharen.

Omdat het even niet anders kon i.v.m. de factoren beschikbare machines/operating systems en bestandssystemen, heb ik laatst nog FreeNAS onder Parallels op mijn MacBook gedraait (iso mounten en gaan met die banaan _/-\o_). Ik heb toen mijn USB disk beschikbaar gemaakt voor die virtuele machine en via shared networking kon ik dan bij FreeNAS en mijn data. Lekkere, creatieve hack :P

Ehmm, wordt vervolgd :)

EDIT:

D'oh! Realiseer mij net dat mijn USB behuizing natuurlijk een PATA versie is aan de binnenkant.

Hmm.. suggesties voor een mooi aluminium SATA wisselrack voor in mijn Lian Li kast zijn welkom ;-O

[ Voor 5% gewijzigd door Verwijderd op 28-02-2007 21:08 ]


Acties:
  • 0 Henk 'm!

  • IRCfreAk
  • Registratie: Januari 2003
  • Laatst online: 17-08-2021
ikzelf ben nu ook een diy nas aan het bouwen, naja het was er al maar het is wat uitgebreid.
Ik had een hpx4000 workstation met 2x xeon 1.7ghz en 2gb pc800 RIMM
ik heb dit nu in een cmstacker (2 psu's) gezet met de volgende schijven:
onboard u160
2x37gb 15krpm (raid1) - voor documenten opslag (er zit ook nog een adaptec 29160 scsi controller op waar een tapedrive opzit voor backups van documenten)
2x18gb 10krpm (raid0) - boot + programmas

onboard ide+promise ide
3x200gb pata (raid 0) - dump + temp voor downloads, ik gebruik sabnzbd
2x250gb pata (raid 0) - uitpak folder + opslag downloads

Adaptec 2610SA pci-x
2x200gb sata
2x250gb sata (4 samen in raid 0 800gb + nog 2 samen 100gb in raid 0)

het probleem is de verschillende maten van schijven, het liefst zou ik 5x200gb aan elkaar koppelen en 4x 250, ik denk alleen dat windows software raid minder performance bied dan de adaptec kaart.
Wat zouden jullie doen?

De bak draait windows server 2003 en functioneert als domain controller/nameserver/gateway/filesharing/download bak/mailserver

En nee ik ga geen 500gb schijven kopen dit had ik nog liggen en dit gaat erin:)

p.s. de downloads zijn uiteraard allemaal homevideos en clips van mokkels.nl

[ Voor 7% gewijzigd door IRCfreAk op 28-02-2007 19:52 ]


Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 21:18
Ik zie weinig redundancy, de kans dat je bak op zn plaat gaat is zo'n factor 10 van een pc met 1 hd. (tel maar na, 11 raid0 members). Leuk hobbybakje, maar absoluut geen betrouwbare oplossing.

Over het stroomverbruik zal ik het maar niet hebben, daar heb ik al genoeg over gezegd met m'n epia praises O-) .
+/- 25Wx4 + 15Wx9 + 125W = 360W 8)7

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

Verwijderd

P5ycho schreef op woensdag 28 februari 2007 @ 23:21:
Ik zie weinig redundancy, de kans dat je bak op zn plaat gaat is zo'n factor 10 van een pc met 1 hd. (tel maar na, 11 raid0 members). Leuk hobbybakje, maar absoluut geen betrouwbare oplossing.

Over het stroomverbruik zal ik het maar niet hebben, daar heb ik al genoeg over gezegd met m'n epia praises O-) .
+/- 25Wx4 + 15Wx9 + 125W = 360W 8)7
Ik ben co-owner van de bak. Alleen de documenten zijn van belang (welke op tape-backup gaan en al in mirror staat op twee 10x betere harddisks dan een desktop pata / sata disk), de rest van de zooi die erop staat kan ons gestolen worden :)

Overigens is het niet echt een hobby bakje hè :) Een nas maken van een pentium 66 mhz die op de kop getikt is op de vlooien markt is een hobby bakje. Dit is profi spul, alleen wij nemen een andere oplossing dan jij in gedachte hebt...

En een Epia is dagen bezig met download/repair/par/rar, daar hebben wij uiteraard de tijd niet voor.. kan ik net zo goed mijn ouwe dual P3 xeon 550 weer in gebruik nemen....

p.s. de xeons trekken al 64 watt per stuk en rimm is ook niet zuinig... is die bak ook niet voor gebouwd. Servers houden niet van crappy stroomverbruik, hoe meer hoe beter :P

[ Voor 36% gewijzigd door Verwijderd op 01-03-2007 00:08 ]


Acties:
  • 0 Henk 'm!

  • Martkrui
  • Registratie: Februari 2002
  • Laatst online: 10-09 20:56
Verwijderd schreef op woensdag 28 februari 2007 @ 23:52:
[...]
en al in mirror staat op twee 10x betere harddisks dan een desktop pata / sata disk
Volgens de stats van Google en een ander research paper is het verschil tussen consumer en enterprise disks nihil.


Ik heb nog wel een vraag voor mijzelf. Ik wil van mijn Ubuntu box een NAS maken. Ubuntu heb ik al maar ik kan niet vinden of het volgende mogelijk is :

Ik wil graag een extra sata controller die voor mij Raid 1 (mirroring) doet. Hieraan wil ik 2*300gig hangen.

Mijn vragen :
1: Zijn Raid 1 kaarten OS / Filesystem onafhankelijk ? Kan ik dus met een dualboot diezelfde Fat32 formated "schijf" gebruiken in Ubuntu/windows ?
2: Kan ik, in geval van disk failure bv, de goede of slechte schijf eraf halen en op iedere normale sata controller aansluiten als normale single disk ?
3: Hoe weet ik waneer een schijf problemen heeft ?

Natuurlijk heb ik zelf gezocht, maar ik kan net niet de concrete antwoorden vinden, of zie dingen als "this should normally not be a problem"

Ik wil dus het probleem voorkomen dat, indien de controller kapot gaat, ik verplicht ben dezelfde controller te kopen.

Als iemand concrete antwoorden heeft, evt met tip voor de hardware, graag...

I haven't lost my mind! It's backed up on tape somewhere!


Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 21:18
Verwijderd schreef op woensdag 28 februari 2007 @ 23:52:
Overigens is het niet echt een hobby bakje hè :) Een nas maken van een pentium 66 mhz die op de kop getikt is op de vlooien markt is een hobby bakje. Dit is profi spul, alleen wij nemen een andere oplossing dan jij in gedachte hebt...

En een Epia is dagen bezig met download/repair/par/rar, daar hebben wij uiteraard de tijd niet voor.. kan ik net zo goed mijn ouwe dual P3 xeon 550 weer in gebruik nemen....

p.s. de xeons trekken al 64 watt per stuk en rimm is ook niet zuinig... is die bak ook niet voor gebouwd. Servers houden niet van crappy stroomverbruik, hoe meer hoe beter :P
Dit is duidelijk een hobby bak imho. Dat je hardware gebruikt dat ooit als high-end server materiaal gebruikt is, wil niet zeggen dat het niet 'amateuristisch' gebruikt kan worden natuurlijk. Of de data nu belangrijk is of niet, de kans dat er een schijf uitvalt (en dus je bak waarschijnlijk kuren gaat krijgen, want een degraded array is nooit leuk voor een OS) is erg, erg groot. Dat terzijde is het wel leuk speelgoed natuurlijk.

Overigens zou het je nog verbazen hoe snel een epia C7 1.5Ghz is onder linux, echt een factor 4-5 performance tov. een epia c3 800 onder win2k3 voor mijn situatie. hardware AES, SHA1, SHA256 encryptie tot max 2GB/s, supersnel.

Daarnaast is wat Dr.DNA zegt ook waar, enterprise schijven gaan niet per definitie langer mee dan consumer disks. Daar mag je dan ook geen waarde aan hechten imho.

Ik zou een of meerdere raid5 arrays maken, eventueel met een hotspare. dan mooi met lvm2 oid eroverheen, of onder win2k3 met dynamic disks aan mekaar plakken en als 1 grote virtuele disk gebruiken :)

Dr. DNA:
Ik zou altijd software RAID verkiezen boven firmware RAID. software raid is gewoon veel flexibeler. je zit alleen aan de keuze van je OS vast. Dat is altijd beter dan aan je controller vast zitten.
Het zou me niets verbazen als zo'n raid controller op het begin van de schijf wat eigen data neerplant om de array te kunnen herkennen, wat problemen kan opleveren als de schijf in een andere bak gehangen wordt. Dit kan ik niet voor je verifieren helaas. Ik heb firmware raid al tijden afgezworen.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • IRCfreAk
  • Registratie: Januari 2003
  • Laatst online: 17-08-2021
de verwijzing naar het onderzoek van google waarmee word gesteld dat desktopschijven gelijk zijn aan enterprise schijven gaat mij iets te ver, het onderzoek van google bevat enkel desktopschijven.
We kunnen hier een lange discussie houden over server vs desktop schijven maar de algemene opvatting is denk ik toch echt dat de server schijven een klasse beter zijn, vooral qua betrouwbaarheid.
Verder is een vergelijking tussen een via c3 800mhz op windows en een c7 1.7ghz in linux ook weer in de categorie appels en peren.

Ik stel een simpele vraag die nu half beantwoord is en word gelijk gedegradeerd tot leuk hobbybakje.

Ik vraag me nog steeds af of de performance van windows software raid met zoveel schijven er niet onder te lijden heeft t.o.v. de losse raid combos dmv controllers.
Documenten zijn belangrijk de rest van de data niet..

Acties:
  • 0 Henk 'm!

  • Martkrui
  • Registratie: Februari 2002
  • Laatst online: 10-09 20:56
P5ycho schreef op donderdag 01 maart 2007 @ 09:00:
[...]
Ik zou altijd software RAID verkiezen boven firmware RAID. software raid is gewoon veel flexibeler. je zit alleen aan de keuze van je OS vast. Dat is altijd beter dan aan je controller vast zitten.
Het zou me niets verbazen als zo'n raid controller op het begin van de schijf wat eigen data neerplant om de array te kunnen herkennen, wat problemen kan opleveren als de schijf in een andere bak gehangen wordt. Dit kan ik niet voor je verifieren helaas. Ik heb firmware raid al tijden afgezworen.
Daar lees ik dat er bepaalde FS gebruikt moet worden, dus niet "portable"..

Eigenlijk zoek ik een controller die mij gewoon laat doen met schijf 1 wat ik wil en "stiekum" datzelfde op schijf B doet.

I haven't lost my mind! It's backed up on tape somewhere!


Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 21:18
Dr.DNA:
Dan kom je idd uit bij firmware raid. Maar dan nog, die goedkope firmware raid implementaties zou ik niet mijn data toevertrouwen, zeker niet tussen 2 OSen.

IRCfreAk:
Even los van het feit of enterprise schijven betrouwbaarder geacht worden, je kunt gewoon niet voorspellen of en wanneer o'n schijf stukgaat. Hooguit kun je een indicatie krijgen door het uitlezen van de SMART status. Dus, je kunt wel zeggen adt die schijven betrouwbaarder zijn in het algemeen, maar dan weet je nog niet wanneer ze stuk gaan. Je kunt altijd net een maandagmorgenexemplaar hebben. Een scsi schijf kopen voor meer betrouwbaarheid ipv RAID is dus ook bullshit. SCSI koop je voor snelheid.
Ik stel een simpele vraag die nu half beantwoord is en word gelijk gedegradeerd tot leuk hobbybakje.
het probleem is de verschillende maten van schijven, het liefst zou ik 5x200gb aan elkaar koppelen en 4x 250, ik denk alleen dat windows software raid minder performance bied dan de adaptec kaart.
Wat zouden jullie doen?
Je kunt raid0 arrays bouwen van ongeveer dezelfde grootte en deze in raid5 hangen, dit moet je controller echter wel ondersteunen. Ik heb geen ervaring die adaptec kaart. Het wordt sowieso een beetje een 'tricky' setup imho. Meestal hang je gewoon een flinke bak identieke schijven aan zo'n controller.
Over de term 'hobbybakje', als je je gekwetst voelt dan daarvoor mijn excuses. Je post kwam een beetje over als een patserbak-post, maar je setup heeft nogal wat gebreken in mijn ogen.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • IRCfreAk
  • Registratie: Januari 2003
  • Laatst online: 17-08-2021
het liefst zou ik ook identieke schijven in raid aan elkaar hangen, ik zit echter met verschillende controllers en standaarden en ik vond het toch wel weer zonde van die dure adaptec kaart om vervolgens windows raid te gebruiken.
als ik zou willen patsen had ik het wel over mijn dual dual-core opteron machines met hotswap u320 schijven etc etc:P

Acties:
  • 0 Henk 'm!

Verwijderd

Paul Nieuwkamp schreef op maandag 26 februari 2007 @ 19:01:
[...]
Dat zegt hij niet :P De kans dat er 1 schijf van 2 schijven stuk gaat in een bepaalde tijd is 2x zo groot als de kans dat 1 schijf van 1 schijven stuk gaat :)
Dan zou dat eerder tegen RAID1 pleiten. Bij RAID1 heb je namelijk tot de helft meer risks nodig om dezelfde capaciteit te bereiken dan bij RAID5. Als dan een RAID5 volume met een RAID1 volume van gelijke grootte gaat vergelijken is de kans op diskuitval dus statistisch kleiner bij RAID5, omdat die uit minder disks beslaat.

Maar zelf vind ik dat een beetje overdreven. RAID1 en RAID5 zijn beide zeer veilig. De kans dat twee schijven uitvallen binnen 24 uur is gewoon extreem klein, tenzij er bijzondere omstandigheden zijn zoals brand, stroomproblemen of andere fysieke/softwarematige issues; maar dan maakt de mate van redundantie ook niet meer uit; zulke risico's opvangen is een taak voor backups. Je kan dus rustig RAID5 gebruiken; enige wat je niet moet doen is tijden lang een degraded array draaien; want dan draai je effectief weer RAID0 - en dan ook zonder het snelheidsvoordeel. ;)


P5ycho schreef op dinsdag 27 februari 2007 @ 12:32:
Als er snachts gedownload wordt, of er moet een mail weggeschreven worden, dan is het al raak. Ik durf mijn hand er voor int vuur te steken dat die schijven met 1 uur spindown eeuwig zullen blijven draaien.
Misschien is het handig om daar je RAID5 array niet voor te gebruiken maar een enkele disk of systeemdisk? Als je echt 24/7 gebruik hebt, dan gaat ataidle inderdaad niet werken. Maar omwille energiebesparing kun bijvoorbeeld een kleine JBOD/RAID1 array maken en het andere deel RAID5.

Maar als jij je systemen 24/7 laat draaien om wat te downloaden of mailtjes binnen te halen, kan ik dat niet rijmen met je drang naar energiebesparing. ;)
zie ook hierboven, een backup is een waardevol iets, maar als je een uptime wilt garanderen (en dan ga ik niet over percentages per jaar praten, maar gewoon hooguit een dag downtime mocht er iets mis gaan) dan ben je wederom de lul als je maar 1 schijf hebt. Gentoo compilen duurt wel langer dan een dagje.
Waarom zou je iets moeten compilen? Er is toch een exacte kopie (backup) van de systeemschijf? Je kunt toch evengoed een backup maken van de systeemschijf? Bij Windows kan dat niet dankzij de geweldige uitvinding van een mandatory filelock, maar Linux en BSD werken toch veel fijner op dat gebied; en dat maakt het ook prima mogelijk een exacte kopie te maken. Resultaat: als je systeemschijf crasht dan kun je gewoon van de 2e schijf booten; de 'backup' is dan wel maximaal 24-uur oud afhankelijk van je backup interval. Maar dat zou niet veel ongemak mogen veroorzaken.
Het probleem met zo'n athlon is dat de cpu zelf wel 5W gebruikt idle, maar ik geloof dat de chipset, ram en evt. addon kaarten samen al gauw een vijfvoud daarvan verbruiken. dat zou nagemeten moeten worden, maar ik meen daar eens een kleine vergelijkende test van gezien te hebben.
Energieverbruik in een computerkast is heel goed te zien aan de koeling die gebruikt is. Zo zie je op processors een grote heatsink en fans, en eveneens op videokaarten. Dat is een indicatie dat ze veel energie verbruiken. Als wat jij zegt zou kloppen (25W dat het moederbord verbruikt) dan zou er ook een enorme heatsink + fan op het moederbord moeten zitten. Chipsets als ULi en SiS zijn passief gekoeld met een kleine heatsink en kun je dus schatten op 3 tot 4W. nForce-chipsets zijn vaak van actieve koeling voorzien, of een indrukwekkende passieve opstelling met heatpipes en grote heatsinks. Daaruit kun je afleiden dat deze minimaal het dubbele verbruikt aan energie, maar nog geen 25W.
Ik ben benieuwd hoe al die TB+ NAS systemen gebruikt worden als ze puur NAS doen en niets anders. Er staat vast wel een pc in hetzelfde lan die aan moet blijven, omdat hij 3% van zijn cpu cycles staat te gebruiken voor het downen of seeden van een torrent oid.
Ja mee eens, je zou eigenlijk een NAS breder moeten/kunnen gebruiken. Maar wat is de hoofdfunctie van de bak? Als iemand een algemene server heeft met heel veel dingen en ook ff samba erop knalt, wil ik dat geen "NAS server" noemen.

Maar NAS is voor veel mensen nieuw, dus is er niets op tegen om eerst eens te beginnen met FreeNAS om er in te komen en het te ontdekken en langzaam aan verder te gaan met meer functies. Vergeet niet: veel gebruikers komen niet van een UNIX-achtergrond. Dus om meteen FreeBSD of een linux dist te installeren is vaak een te grote drempel. FreeNAS is een mooi opstapje. :)

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 28 februari 2007 @ 19:04:
Trouwens, het is ook zeker mogelijk om onder FreeNAS een USB disk te mounten en te sharen.
Yep, mits de USB controller gewoon ondersteund wordt, dan heb je gewoon een USB mass storage device (umass) en kun je dat ook met FreeNAS gebruiken. Zelf niet getest though; maar het zal wel werken. :)
IRCfreAk schreef op woensdag 28 februari 2007 @ 19:46:
het probleem is de verschillende maten van schijven, het liefst zou ik 5x200gb aan elkaar koppelen en 4x 250, ik denk alleen dat windows software raid minder performance bied dan de adaptec kaart.
Wat zouden jullie doen?
Software RAID hoeft niet langzamer te zijn, zeker niet bij simpele levels als RAID0 en RAID1. Maar dan hebben we het over sequentiele toegang (STR). Ga je ingewikkeldere dingen doen zoals games, workstation-applicaties erop draaien dan is STR onbelangrijk maar is random I/O performance een betere indicatie voor de performance die je krijgt. Daarin is Hardware RAID vaak sterk, doordat deze een eigen reordering engine hebben. Nu weet ik niet of jouw kaart een echte hardware RAID kaart is, kun je vaak zien of/als er dedicated buffercache (64MB tot 2GB) op zit. Ga je de array alleen gebruiken om grote files mee op te slaan dan is software RAID een prima oplossing.
p.s. de downloads zijn uiteraard allemaal homevideos en clips van mokkels.nl
Mijn ervaring leert dat jongens/mannen met veel opslag minimaal x procent hebben gereserveerd voor porno. ;)
P5ycho schreef op woensdag 28 februari 2007 @ 23:21:
Over het stroomverbruik zal ik het maar niet hebben, daar heb ik al genoeg over gezegd met m'n epia praises O-) .
+/- 25Wx4 + 15Wx9 + 125W = 360W 8)7
Hoe kom je aan 25W en 15W? Een harde schijf verbruikt 8W nominaal en 25 tot 33W bij het opspinnen. Mijn fileserver met 8 disks verbruikt nominaal zo'n 139W. En dat is dus gemeten op de AC-lijn, qua DC-vermogen komt het dan uit op 139 * 0.82 (=82% efficiency) = 114W, de rest wordt in warmte omgezet in de voeding.

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 19:36
Verwijderd schreef op donderdag 01 maart 2007 @ 19:31:
Mijn ervaring leert dat jongens/mannen met veel opslag minimaal x procent hebben gereserveerd voor porno. ;)
In welke orde van grootte ligt X ? Volgens jouw ervaring dan? :P
Mijn fileserver met 8 disks verbruikt nominaal zo'n 139W.
Hmm, das heel wat minder dan de mijne :X Die doet 360 Watt aan de wandcontactdoos, met 16 SATA-schijven, 2 (oude) SCSI-schijven en 2x Xeon 2.4/400

Dat is ook de reden dat ik dit een beetje volg. Ik gebruik van alle data op dat ding maar een bepekt deel dagelijks / continue, dus als ik dat deel dan op een zuinig ding zet kan de "grote" uit tot ik de rest nodig heb. Ik ben trouwens aan het wachten tot de bestelde IDE -> CF adapter binnenkomt, dan kunnen de SCSI-schijven (en oude scsi HW raidcontroller) eruit, dat zal al wel iets schelen. Ook moet ik nog bij gaan houden hoeveel CPU er gebruikt wordt bij stevig netwerkverkeer, waarschijnlijk kan er wel een CPU uit, scheelt ook weer :+

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • IRCfreAk
  • Registratie: Januari 2003
  • Laatst online: 17-08-2021
[...]

Software RAID hoeft niet langzamer te zijn, zeker niet bij simpele levels als RAID0 en RAID1. Maar dan hebben we het over sequentiele toegang (STR). Ga je ingewikkeldere dingen doen zoals games, workstation-applicaties erop draaien dan is STR onbelangrijk maar is random I/O performance een betere indicatie voor de performance die je krijgt. Daarin is Hardware RAID vaak sterk, doordat deze een eigen reordering engine hebben. Nu weet ik niet of jouw kaart een echte hardware RAID kaart is, kun je vaak zien of/als er dedicated buffercache (64MB tot 2GB) op zit. Ga je de array alleen gebruiken om grote files mee op te slaan dan is software RAID een prima oplossing.

[...]

Mijn ervaring leert dat jongens/mannen met veel opslag minimaal x procent hebben gereserveerd voor porno. ;)

haha er zijn geen speciale secties voor porno. De adaptec kaart heeft 64mb en is volgens mij een echte hardware raid kaart. Het doel van de opslag is eigenlijk puur filesharing, de documenten staan al op snellere schijven met backup opslag en het os staat ook al op iets snellers. Ik heb nu de verschillende pata schijven aan elkaar gekoppeld (windows raid) maar ik merk wel dat de cpu load wat hoger word.

Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 21:18
Verwijderd schreef op donderdag 01 maart 2007 @ 19:31:
Hoe kom je aan 25W en 15W? Een harde schijf verbruikt 8W nominaal en 25 tot 33W bij het opspinnen. Mijn fileserver met 8 disks verbruikt nominaal zo'n 139W. En dat is dus gemeten op de AC-lijn, qua DC-vermogen komt het dan uit op 139 * 0.82 (=82% efficiency) = 114W, de rest wordt in warmte omgezet in de voeding.
Seeken van een 7200.10 bijv. trekt 12.5W, oudere schijven gebruiken meer vermogen. Daar het niet allemaal de nieuwste schijven zijn in die bak, ging ik even uit van 15W. SCSI schijven trekken nog meer, mijn cheetah 36LP trekt geloof ik 25W en dat heb ik dan ook even gebruikt als voorbeeld.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

Verwijderd

P5ycho schreef op vrijdag 02 maart 2007 @ 21:52:
[...]

Seeken van een 7200.10 bijv. trekt 12.5W, oudere schijven gebruiken meer vermogen. Daar het niet allemaal de nieuwste schijven zijn in die bak, ging ik even uit van 15W. SCSI schijven trekken nog meer, mijn cheetah 36LP trekt geloof ik 25W en dat heb ik dan ook even gebruikt als voorbeeld.
Je hardeschijven zijn natuurlijk niet continue aan het seeken; dat is maar heel even. Bij een NAS is seek misschien geeneens 0,5% van de tijd ook al wordt hij flink gebruikt. Tijdens het schrijven/lezen van de schijf (sequentiele toegang) verbruikt de schijf namelijk minder dan tijdens het seeken. Even een overzichtje van de Samsung T166 500GB (beste prijs-per-gigabyte, snelste desktopschijf):

standby: 0,5W - 0,7W
idle: 8.2W
read/write: 9,5W
seek: 10,6W
spinup: 28,8W (2.4A * 12V)

bron

Acties:
  • 0 Henk 'm!

  • IRCfreAk
  • Registratie: Januari 2003
  • Laatst online: 17-08-2021
de schijven zijn niet de nieuwste nee, de nieuwste in de bak zijn 7200.7 (leuk de 200gb versie had weer net geen ncq) en dm10. Dat de machine veel stroom verbruikt geloof ik graag;) ik zal er binnenkort eens een watt meter aan hangen.

Acties:
  • 0 Henk 'm!

  • vargo
  • Registratie: Januari 2001
  • Laatst online: 11:19
Hmmm ik heb mijn freeNAS bak verplaatst en nu wil deze niet meer booten van USB pen / harddisk. Ik krijg 'invalid slice'. Enkel wanneer ik de bootcd pak wil het systeem booten. Als ik daarna FreeNAS weer installeer op de USB pen of harddisk krijg ik daarna nog steeds de 'invalid slice' melding. Iemand enig idee?

Acties:
  • 0 Henk 'm!

  • IRCfreAk
  • Registratie: Januari 2003
  • Laatst online: 17-08-2021
vargo schreef op zaterdag 03 maart 2007 @ 12:36:
Hmmm ik heb mijn freeNAS bak verplaatst en nu wil deze niet meer booten van USB pen / harddisk. Ik krijg 'invalid slice'. Enkel wanneer ik de bootcd pak wil het systeem booten. Als ik daarna FreeNAS weer installeer op de USB pen of harddisk krijg ik daarna nog steeds de 'invalid slice' melding. Iemand enig idee?
dit krijg ik dus ook continu, ik heb toen freenas maar gelijk afgezworen

Acties:
  • 0 Henk 'm!

Verwijderd

vargo schreef op zaterdag 03 maart 2007 @ 12:36:
Hmmm ik heb mijn freeNAS bak verplaatst en nu wil deze niet meer booten van USB pen / harddisk. Ik krijg 'invalid slice'. Enkel wanneer ik de bootcd pak wil het systeem booten. Als ik daarna FreeNAS weer installeer op de USB pen of harddisk krijg ik daarna nog steeds de 'invalid slice' melding. Iemand enig idee?
Wat heb je precies verplaatst/veranderd?

Acties:
  • 0 Henk 'm!

  • Coenen
  • Registratie: September 2000
  • Laatst online: 20:01

Coenen

=LoT= IJsbier @ ET

Is het mogelijk om een FreeNAS machine via z'n webinterface uit te zetten?
Voor mij zou hoeft ie niet de hele dag aan te staan.

Acties:
  • 0 Henk 'm!

Verwijderd

Ik weet niet of dat via web-interface kan. Het kan in elk geval door 1x op de aan/uit knop te drukken (niet inhouden). Dan sluit hij netjes af en gaat na 15 sec ofzo uit.

Acties:
  • 0 Henk 'm!

Verwijderd

Coenen schreef op zaterdag 03 maart 2007 @ 21:50:
Is het mogelijk om een FreeNAS machine via z'n webinterface uit te zetten?
Voor mij zou hoeft ie niet de hele dag aan te staan.
Zit wel een shutdown knop op die web interface. Als ik het mij goed herinner (heb het even niet bij de hand) onder het laatste menu item wat volgens mij 'diagnostics' is.

Of je machine ook echt daadwerkelijk helemaal afsluit hangt dan vervolgens een beetje van je moederbord/BIOS/ACPI/etc. instellingen af ;)

Acties:
  • 0 Henk 'm!

  • F-91W
  • Registratie: Maart 2007
  • Laatst online: 05-09 17:42
Ik was al bijna een Thecus N5200 aan het kopen, maar dit topic heeft me van gedachten doen veranderen. Ik denk nu aan FreeNAS en
  • GigaByte Moederbord GA-M55plus-S3G
  • AMD CPU Athlon 64 X2 3600+ 2.0 GHz, 1600 MHz, 128 KB L1, 512 KB L2, Boxed
  • Kingston HyperX 512 MB, PC6400, 800 MHz
  • Samsung SpinPoint T166 500 GB, 7200 Rpm, 16 MB, S-ATA II/300
  • Antec Behuizing SLK3800 Zwart, 400 Watt, 1 X 120 Mm
Hou ik denk ik zo'n 1,5T aan over, voor 100,- meer dan een lege Thecus. Yo! Is er nog iets waar ik rekening mee moet houden bij deze spullen? Het bord is volgens mij ondersteund door de losse nVidia driver http://www.se.hiroshima-u...software/freebsd-nfe.html.

Acties:
  • 0 Henk 'm!

  • JokerLash
  • Registratie: Februari 2002
  • Laatst online: 16-04 11:03
Waarom heb ik nog niemand gehoord over de Western Digital schijfjes van 500GB staan al een paar dagen voor 125 euro in pricewatch

En weet nog iemand een niet te duur en leverbaar moederbord met 8x SATA onboard?

Acties:
  • 0 Henk 'm!

  • IRCfreAk
  • Registratie: Januari 2003
  • Laatst online: 17-08-2021
JokerLash schreef op zondag 04 maart 2007 @ 00:48:
Waarom heb ik nog niemand gehoord over de Western Digital schijfjes van 500GB staan al een paar dagen voor 125 euro in pricewatch

En weet nog iemand een niet te duur en leverbaar moederbord met 8x SATA onboard?
klinkt goed 125 eurotjes, maar een mobo met 8 sata porten die ook nog eens SNEL zijn is denk lastig. Het meerendeel van de mobos met veel sata porten, duur of goedkoop heeft vaak 1 goede en 1 crappy controller op de pci bus.
verder vraag ik me af wat voor socket je eigenlijk wil, anders is het best lastig zoeken;)

Acties:
  • 0 Henk 'm!

  • Coenen
  • Registratie: September 2000
  • Laatst online: 20:01

Coenen

=LoT= IJsbier @ ET

De Asus K8N4-E DELUXE heeft acht SATA poorten.
Of ie goed te verkrijgen is weet ik niet.
Verder ben ik ook nog het zoeken. :)

Acties:
  • 0 Henk 'm!

  • JokerLash
  • Registratie: Februari 2002
  • Laatst online: 16-04 11:03
IRCfreAk schreef op zondag 04 maart 2007 @ 01:22:
[...]


klinkt goed 125 eurotjes, maar een mobo met 8 sata porten die ook nog eens SNEL zijn is denk lastig. Het meerendeel van de mobos met veel sata porten, duur of goedkoop heeft vaak 1 goede en 1 crappy controller op de pci bus.
verder vraag ik me af wat voor socket je eigenlijk wil, anders is het best lastig zoeken;)
Het socket maakt niet uit omdat ik er ook nog een cpu bij moet zoeken, dan zou je dus al naar de nieuwere intel chipsets moeten kijken of zit ik verkeerd? (de 965)

Acties:
  • 0 Henk 'm!

Verwijderd

JokerLash schreef op zondag 04 maart 2007 @ 00:48:
Waarom heb ik nog niemand gehoord over de Western Digital schijfjes van 500GB staan al een paar dagen voor 125 euro in pricewatch
LOL!

Sta ik net op het punt om twee schijven aan te schaffen, wordt ik weer aan het twijfelen gebracht..

Rond 130 Euro:
Samsung SpinPoint T166 HD501LJ, 500GB (7200rpm, SATA II, 16MB, NCQ)

125 Euro:
Western Digital Caviar SE16 500GB SATA2 16MB 7200RPM

Zucht, wat een luxeproblemen zijn het soms ook ;) :P

Acties:
  • 0 Henk 'm!

  • JokerLash
  • Registratie: Februari 2002
  • Laatst online: 16-04 11:03
Verwijderd schreef op zondag 04 maart 2007 @ 14:55:
[...]


LOL!

Sta ik net op het punt om twee schijven aan te schaffen, wordt ik weer aan het twijfelen gebracht..

Rond 130 Euro:
Samsung SpinPoint T166 HD501LJ, 500GB (7200rpm, SATA II, 16MB, NCQ)

125 Euro:
Western Digital Caviar SE16 500GB SATA2 16MB 7200RPM

Zucht, wat een luxeproblemen zijn het soms ook ;) :P
Zucht idd en ik zal het je nog eens vergemakkelijken :P ik heb van beide merken schijfjes in men server zitten en bij beide nog nooit problemen gehad, maar men gevoel zegt me ga voor de WDs

Acties:
  • 0 Henk 'm!

  • vargo
  • Registratie: Januari 2001
  • Laatst online: 11:19
Verwijderd schreef op zaterdag 03 maart 2007 @ 17:00:
[...]

Wat heb je precies verplaatst/veranderd?
Oeps - sorry voor de trage reactie; mijn RSS feed op dit topic was niet up-to-date.

De NASbox stond in de woonkamer op tafel... Vreemd genoeg vinden vrouwen dat toch ongezellig tafelen... O-) Moest dus naar de studeerkamer. Sindsdien boot het systeem niet meer, zonder dat er iets veranderd is.

Van wat ik heb begrepen zijn slices niets meer dan primary partitions... Schijnbaar kan de bootloader de schijf op dat niveau al niet benaderen...

Acties:
  • 0 Henk 'm!

Verwijderd

@Vargo: dus er is eigenlijk niets veranderd aan het systeem behalve het fysiek verplaatsen van de kast, en opeens wil hij niet meer booten? Klinkt erg vreemd, geen BIOS reset of schijven anders aangesloten ofzo? Ik zal eens zoeken of het een bekend probleem is...
Verwijderd schreef op zondag 04 maart 2007 @ 14:55:
LOL!

Sta ik net op het punt om twee schijven aan te schaffen, wordt ik weer aan het twijfelen gebracht..

Rond 130 Euro:
Samsung SpinPoint T166 HD501LJ, 500GB (7200rpm, SATA II, 16MB, NCQ)

125 Euro:
Western Digital Caviar SE16 500GB SATA2 16MB 7200RPM
De nieuwe Samsung T166 heeft 166GB-platters en is een schijf van de nieuwste generatie - en ook de snelste desktopschijf op het moment, sneller dan Seagate 7200.10. En vele malen zuiniger, stiller en koeler. Enig nadeel is de beperkte garantie van 2 jaar ipv 5 jaar bij Seagate. Prijs per gigabyte ook stukken beter dan Seagate 7200.10.

Die WD schijf die je noemt heeft maar 1 shop die hem voor 125 euro kwijt wilt - de volgende begint bij 140 euro. Dus 125 euro is niet de 'algemene' prijs voor het ding. Ik kom wel vaker lage (afwijkende) prijzen tegen maar als je dan bestelt zijn ze opeens niet meer leverbaar - dus de vraag is verkoopt de site hem echt tegen die prijs en zijn het echt nieuwe schijven of toevallig repaired/serviced enzo.

Twee, ik kan geen echte specs vinden van die WD schijf - welke capaciteit per platter, welke energiebehoeften, etc. Mijn gevoel zegt dat het een oudere schijf is met 4 of misschien wel 5 platters. Als dat zo is, zou ik opzeker voor de Samsung gaan.

Acties:
  • 0 Henk 'm!

  • vargo
  • Registratie: Januari 2001
  • Laatst online: 11:19
Verwijderd schreef op zondag 04 maart 2007 @ 20:11:
@Vargo: dus er is eigenlijk niets veranderd aan het systeem behalve het fysiek verplaatsen van de kast, en opeens wil hij niet meer booten? Klinkt erg vreemd, geen BIOS reset of schijven anders aangesloten ofzo? Ik zal eens zoeken of het een bekend probleem is...
Niets anders nee. Heb een 2e USB stick geprobeerd, evenals 1 van de harddisks in het array. Ook getest of ik met enkel de CD drive (om te booten) en een USB disk kon booten, maar daar hetzelfde. Het lijkt wel alsof freenas het spul corrupteert; disk managing tools (oa PM8) geeft een drive error.

Een andere optie voor mij is om naar FreeBSD te gaan kijken; ik heb echter niet heel veel ervaring hiermee en ik wil niet door onervarenheid per ongeluk 1TB aan SAN data weg gooien. Hoe fool proof is geom raid5 hieronder?

Acties:
  • 0 Henk 'm!

  • rkoelewijn284
  • Registratie: Juni 2000
  • Laatst online: 25-08 18:04
Verwijderd schreef op zondag 04 maart 2007 @ 20:11:Die WD schijf die je noemt heeft maar 1 shop die hem voor 125 euro kwijt wilt - de volgende begint bij 140 euro. Dus 125 euro is niet de 'algemene' prijs voor het ding. Ik kom wel vaker lage (afwijkende) prijzen tegen maar als je dan bestelt zijn ze opeens niet meer leverbaar - dus de vraag is verkoopt de site hem echt tegen die prijs en zijn het echt nieuwe schijven of toevallig repaired/serviced enzo.
Ik heb van de week 3 van die WD's gekocht. Ze waren de volgende dag binnen. Het zijn nieuwe disks.

Acties:
  • 0 Henk 'm!

Verwijderd

vargo schreef op zondag 04 maart 2007 @ 21:02:
Een andere optie voor mij is om naar FreeBSD te gaan kijken; ik heb echter niet heel veel ervaring hiermee en ik wil niet door onervarenheid per ongeluk 1TB aan SAN data weg gooien. Hoe fool proof is geom raid5 hieronder?
Mwa opzich kun je geen gekke dingen doen. Als een volume gemount is dan kun je ook niet zomaar de partitietabel overschrijven ofzo; en in principe werkt het gelijk als Linux qua console, alleen sommige comando's iets anders.

geom_raid5 is verder ook vrij fool proof, alles gaat ook vanzelf: bij disk failure nieuwe disk erin en rebuilden maar; je hebt er eigenlijk geen omkijken naar. Via status commando kun je de status zien:
.
code:
1
2
3
4
5
6
7
8
9
10
[root@sophia ~]# graid5 status
        Name        Status  Components
raid5/sophia  COMPLETE HOT  ad4a
                            ad6a
                            ad8a
                            ad10a
                            ad12a
                            ad14a
                            ad16a
                            ad18a

COMPLETE is dus up & running, DEGRADED is een disk missing, REBUILDING is hij aan het her-syncen en FAILURE/CRITICAL is als er meer dan 1 schijf afwezig is.

Mocht je FreeBSD willen proberen en je wilt dat ik geom_raid5 op je bak installeer/configureer moet je maar DM-etje sturen, als je dan SSH-login kunt regelen heb ik het zo voor je draaiend. :)

Zoals met alle nieuwe dingen dien je wel een testperiode aan te houden, waarbij je even geen data zet op het volume die je niet elders hebt staan (zoals een backup). Maar ik gebruik geom_raid5 nu voor mn belangrijke data voor meerdere maanden en het werkt echt super. Elke keer aan/uit, en rebuilden ook omdat ik een schijf had losgehaald perongeluk. Allemaal niets aan de hand. :)
Ook bij crashes e.d. werkt het allemaal prima; hij gaat zelf automatisch rebuilden.
rkoelewijn284 schreef op zondag 04 maart 2007 @ 22:19:
[...]


Ik heb van de week 3 van die WD's gekocht. Ze waren de volgende dag binnen. Het zijn nieuwe disks.
Bij die ene shop die er 125 voor vraagt dus? Dan zou de WD de samsung wel verslaan qua prijs-per-gigabyte. Alhoewel 5 euro natuurlijk geen monsterbedrag is. Dan zou betrouwbaarheid, energieverbruik, geluidsproductie, snelheid en garantieperiode voor mij belangrijker zijn. Heeft die WD schijf ook 2/3 jaar garantie of zoals de Seagate 5 jaar?

[ Voor 12% gewijzigd door Verwijderd op 05-03-2007 00:55 ]


Acties:
  • 0 Henk 'm!

  • wallyberk
  • Registratie: Maart 2000
  • Laatst online: 01-09 18:03
Verwijderd schreef op maandag 05 maart 2007 @ 00:53:
[...]

Bij die ene shop die er 125 voor vraagt dus? Dan zou de WD de samsung wel verslaan qua prijs-per-gigabyte. Alhoewel 5 euro natuurlijk geen monsterbedrag is. Dan zou betrouwbaarheid, energieverbruik, geluidsproductie, snelheid en garantieperiode voor mij belangrijker zijn. Heeft die WD schijf ook 2/3 jaar garantie of zoals de Seagate 5 jaar?
Zo moeilijk is het niet om dat te achterhalen:
PS WD 500GB is er in 2 uitvoeringen namelijk de SE16 en RE2.
Link voor de SE16: http://www.wdc.com/en/products/productspecs.asp?driveid=214
Link voor de RE2: http://www.wdc.com/en/products/Products.asp?DriveID=238

Beiden hebben 4 platters.
Garantie is voor de SE16 3 jaar en RE2 5 jaar bron: http://support.wdc.com/warranty/policy.asp#policy

Acties:
  • 0 Henk 'm!

Verwijderd

wallyberk schreef op maandag 05 maart 2007 @ 01:22:
[...]


Zo moeilijk is het niet om dat te achterhalen:
PS WD 500GB is er in 2 uitvoeringen namelijk de SE16 en RE2.
Link voor de SE16: http://www.wdc.com/en/products/productspecs.asp?driveid=214
Ik had de PDF te pakken. Maar ook op deze pagina zie ik geen platter-capaciteit, of kijk ik verkeerd?
Garantie is voor de SE16 3 jaar en RE2 5 jaar bron: http://support.wdc.com/warranty/policy.asp#policy
Die met 5 jaar garantie is wel gelijk 167 euro:
pricewatch: Western Digital Caviar RE2 WD5000YS, 500GB (7200rpm, SATA II, 16MB)

Maar dan heb je wel een Raid Edition-versie (TLER). Maar dat is niet zo heel spannend op zich. :)

Acties:
  • 0 Henk 'm!

  • vargo
  • Registratie: Januari 2001
  • Laatst online: 11:19
Verwijderd schreef op maandag 05 maart 2007 @ 00:53:
[...]

Mwa opzich kun je geen gekke dingen doen. Als een volume gemount is dan kun je ook niet zomaar de partitietabel overschrijven ofzo; en in principe werkt het gelijk als Linux qua console, alleen sommige comando's iets anders.

geom_raid5 is verder ook vrij fool proof, alles gaat ook vanzelf: bij disk failure nieuwe disk erin en rebuilden maar; je hebt er eigenlijk geen omkijken naar. Via status commando kun je de status zien:
.
code:
1
2
3
4
5
6
7
8
9
10
[root@sophia ~]# graid5 status
        Name        Status  Components
raid5/sophia  COMPLETE HOT  ad4a
                            ad6a
                            ad8a
                            ad10a
                            ad12a
                            ad14a
                            ad16a
                            ad18a

COMPLETE is dus up & running, DEGRADED is een disk missing, REBUILDING is hij aan het her-syncen en FAILURE/CRITICAL is als er meer dan 1 schijf afwezig is.

Mocht je FreeBSD willen proberen en je wilt dat ik geom_raid5 op je bak installeer/configureer moet je maar DM-etje sturen, als je dan SSH-login kunt regelen heb ik het zo voor je draaiend. :)

Zoals met alle nieuwe dingen dien je wel een testperiode aan te houden, waarbij je even geen data zet op het volume die je niet elders hebt staan (zoals een backup). Maar ik gebruik geom_raid5 nu voor mn belangrijke data voor meerdere maanden en het werkt echt super. Elke keer aan/uit, en rebuilden ook omdat ik een schijf had losgehaald perongeluk. Allemaal niets aan de hand. :)
Ook bij crashes e.d. werkt het allemaal prima; hij gaat zelf automatisch rebuilden.
Thanks - ga het eerst zelf proberen, maar mocht ik er niet uitkomen maak ik graag van je aanbod gebruik. Hopelijk ga ik er deze week een avondje tijd voor hebben!

Acties:
  • 0 Henk 'm!

  • C@SP
  • Registratie: Juni 2001
  • Laatst online: 09-09 11:40

C@SP

Biertje ??

Volgens mij zijn 320 GB schijven nog steeds iets goedkoper per gieg dan 500 GB schijven hoor. 0,237 tegen 0,25 Euro per gieg.

"If you can't convince people with arguments, dazzle them with bullshit"


Acties:
  • 0 Henk 'm!

  • El Psycho
  • Registratie: September 2002
  • Laatst online: 26-07 09:41
C@SP schreef op dinsdag 06 maart 2007 @ 15:49:
Volgens mij zijn 320 GB schijven nog steeds iets goedkoper per gieg dan 500 GB schijven hoor. 0,237 tegen 0,25 Euro per gieg.
Je kan ook zo denken dat 500 gig schijven over een half jaar weer goedkoper zijn dan die van 320 zodat je dus later, goedkoper gigabytes er bij kan rammen. Bovendien is de potentiele grootte van je RAID groter met 500 gig schijven. ;)

Acties:
  • 0 Henk 'm!

  • REDFISH
  • Registratie: Augustus 2001
  • Laatst online: 20-11-2024

REDFISH

beetje vreemd en niet lekker

Als je er toch zoveel geld aan gaat uitgeven, misschien dan ook maar denken aan een besparing op het energieverbruik? Een dergelijk systeempje met 4 harddisks gaat toch al gauw 150 euro per jaar aan stroomkosten verbruiken als je het 24/7 laat draaien (en daar is het voor neem ik aan).

Acties:
  • 0 Henk 'm!

  • tilde
  • Registratie: November 2000
  • Laatst online: 20:19
Na dit topic gelezen te hebben en aangezien de schijfruimte hier toch aardig aan het vollopen is, ben ik ook overstag 8) .

Er is echter een punt waar ik niet goed uitkom. En dat is welk moederbord gaat werken met freenas. Ik heb nog een amd64 3200 s939 over die ik wil gebruiken.

Eisen voor het nieuwe bord zijn:
-socket 939
-gigabit lan dat wekt met freenas (liefst "out of the box")
-onboard vga

Onboard sata controller is minder belangrijk want ik heb nog een pci sata kaartje liggen.

Ik heb uiteraard zelf al heel wat afgezocht, maar niet echt iets concreets gevonden. Hopelijk kan een van jullie me op weg helpen :) .

Acties:
  • 0 Henk 'm!

  • Mark-
  • Registratie: Juli 2003
  • Laatst online: 05-09 08:22
vergeet onboard vga en je hebt een stuk meer keuze volgens mij.

Een simpel PCI of PCI-e video kaartje kost maar 30 of 40 euro.
En daar komt nog bij dat je een videokaart alleen nodig heb tijdens de installatie.
Daarna bedien je freenas gewoon via een terminal.

[ Voor 34% gewijzigd door Mark- op 08-03-2007 09:24 ]


Acties:
  • 0 Henk 'm!

  • Coenen
  • Registratie: September 2000
  • Laatst online: 20:01

Coenen

=LoT= IJsbier @ ET

Waar kan je een CF naar IDE convertor een beetje goedkoop krijgen?

Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 21:18
gratisverzenden.nl 10 euro
Tis ook nog eens een dual CF adapter. Laatst een besteld, werkt prima.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • tilde
  • Registratie: November 2000
  • Laatst online: 20:19
@maCk-: Je hebt gelijk. En een pci vga kaartje heb ik nog wel.

Eisen voor het moederbord worden dan:
-Gigabit LAN (werkend onder freeNAS)
-socket 939

Leuk zo zijn:
-onboard vga (vind ik wel wat netter als een los pci kaartje)
-4 SATA poortjes (die ook werken onder freeNAS)

Nu zit er in mijn gewone pc een bord dat opzicht wel aan de eisen voldoet, dus ik zou dat kunnen gebruiken. Het gaat hier om een asus A8R-MX (zit in een asus vintage ah1 barebone).
Specs:
-marvell 88e8053 lan (is een freeBSD driver voor)
-4 sata poorten op de uli m1573 soutbridge

Ik ga eens kijken wat freenas hierop doet :) . Suggesties zijn altijd welkom.


Voor een cf naar ide converter kun je ebay eens afstruinen, heb ik het ook vandaan.

Acties:
  • 0 Henk 'm!

Verwijderd

Bedoel je niet toevallig de Asus A7V-MX? Die is namelijk volledig supported en zal prima werken in FreeNAS. A7R bestaat niet volgens Asus site. Of die barebones staan niet in de 'product search' dat kan ook.

Marvell 88e8053 werkt standaard niet onder FreeBSD 6.2-RELEASE, dus werkt het ook niet (standaard) in FreeNAS. Maar je kunt wel een driver er zelf inpleuren (via ssh or sftp).

Acties:
  • 0 Henk 'm!

  • tilde
  • Registratie: November 2000
  • Laatst online: 20:19
Verwijderd schreef op maandag 12 maart 2007 @ 06:59:
Bedoel je niet toevallig de Asus A7V-MX? Die is namelijk volledig supported en zal prima werken in FreeNAS. A7R bestaat niet volgens Asus site. Of die barebones staan niet in de 'product search' dat kan ook.
Nee, die bedoel ik niet. Het is echt een A8R-MX. Word volgens mij ook niet los verkocht, maar alleen icm. barebone.
Marvell 88e8053 werkt standaard niet onder FreeBSD 6.2-RELEASE, dus werkt het ook niet (standaard) in FreeNAS. Maar je kunt wel een driver er zelf inpleuren (via ssh or sftp).
Eh... Juist :? . Ik heb er wel even naar gekeken. Heb ook al wat vooruitgang geboekt maar werken doet het nog niet. Ik heb zero ervaring met freeNAS, freeBSD, linux oid. ;) .

Acties:
  • 0 Henk 'm!

Verwijderd

tilde schreef op maandag 12 maart 2007 @ 09:45:
[...]
Eh... Juist :? . Ik heb er wel even naar gekeken. Heb ook al wat vooruitgang geboekt maar werken doet het nog niet. Ik heb zero ervaring met freeNAS, freeBSD, linux oid. ;) .
Je hebt het systeem al? Zo ja, ik kan een driver voor je 'bakken' (compileren voor i386). Alles wat je dan hoeft te doen is SSH'en naar de freeNAS bak en de driver kopieren en wat configs aanpassen, dan zou het moeten werken. Ga even voor je op zoek. :)

Acties:
  • 0 Henk 'm!

  • El Cid
  • Registratie: September 2003
  • Niet online
Verwijderd schreef op maandag 12 maart 2007 @ 20:56:
[...]

Je hebt het systeem al? Zo ja, ik kan een driver voor je 'bakken' (compileren voor i386). Alles wat je dan hoeft te doen is SSH'en naar de freeNAS bak en de driver kopieren en wat configs aanpassen, dan zou het moeten werken. Ga even voor je op zoek. :)
Weet jij toevallig of je drivers voor FreeBSD 6.0 kunt gebruiken in FreeBSD 6.2? Noodgedwongen kan ik mijn oude server niet upgraden, omdat Highpoint nog steeds geen nieuwe drivers voor mijn RAID-kaart heeft. Voor Linux hebben ze de broncode wel op de site gezet, maar niet voor FreeBSD. Ik heb al een mailtje gestuurd, maar ze zeiden dat hun prioriteit bij het ondersteunen van nieuwere producten ligt. Echt klote want FreeBSD 6.0 ontvangt sinds kort geen security updates meer.

Acties:
  • 0 Henk 'm!

  • tilde
  • Registratie: November 2000
  • Laatst online: 20:19
Verwijderd schreef op maandag 12 maart 2007 @ 20:56:
[...]

Je hebt het systeem al? Zo ja, ik kan een driver voor je 'bakken' (compileren voor i386). Alles wat je dan hoeft te doen is SSH'en naar de freeNAS bak en de driver kopieren en wat configs aanpassen, dan zou het moeten werken. Ga even voor je op zoek. :)
Het moederbord zit nog in mijn gewone PC. Ik heb voor te proberen freenas even op een usb stik geinstalleerd.
De driver heb ik gedownload en samen met het bestand limbpool.ko op een cd gebakken. Daarna onder freenas de boel proberen te installeren. Alles lukt tot en met het commando kldload. De netwerk adapter word dan ook gevonden.

Het editen van loader.conf lukt ook nog wel (na het remounten van een filesystem naar read/write)
Maar als ik da boel reboot staat er toch weer no driver atached achter de netwerk adapter.

Wat ik wel raar vind is dat de file loader.conf niet in /boot/ staat maar in /cf/boot/

In iedergeval alvast bedankt voor de hulp ;) .

Acties:
  • 0 Henk 'm!

  • tilde
  • Registratie: November 2000
  • Laatst online: 20:19
Het werkt! :)

Ik heb de bestanden if_myk.ko en libmbpool.ko verplaatst van /boot/kernel/ naar /cf/boot/kernel/. Probleem opgelost *O* .

Wel is er nog een ander probleem, de onboard sata controller doet het niet. Ik krijg de volgende melding:
#atapci1: <acerlabs m5287 sata150 controller> port ...irq setings ed.....
#atapci1: AHCI controller reset failure
#device attach: atapci1 attach returned 6

controller word wel gevonden, maar werkt dus niet. Er word ook geen hardeschijf gevonden.

Acties:
  • 0 Henk 'm!

Verwijderd

@tilde: Kun je in je BIOS je SATA controller is SATA (of RAID) modus zetten?
El Cid schreef op maandag 12 maart 2007 @ 21:35:
Weet jij toevallig of je drivers voor FreeBSD 6.0 kunt gebruiken in FreeBSD 6.2?
Is het een closed-source driver? Anders zou deze in 6.2 moeten zitten. Maar ja over het algemeen kun je drivers gewoon binnen dezelfde branch (5.x, 6.x) gebruiken. KLD moet echter wel voor dezelfde arch zijn gebuild; draai je AMD64 dan kun je geen module activeren die is gecompileerd voor i386, en andersom.

[ Voor 78% gewijzigd door Verwijderd op 13-03-2007 09:15 ]


Acties:
  • 0 Henk 'm!

  • tilde
  • Registratie: November 2000
  • Laatst online: 20:19
Verwijderd schreef op dinsdag 13 maart 2007 @ 09:13:
@tilde: Kun je in je BIOS je SATA controller is SATA (of RAID) modus zetten?
Ja dat kan, maar heefd geen effect.

Een stuk terug in dit topic staat:
Verwijderd schreef op zaterdag 03 februari 2007 @ 04:48:
[...]

............
Je kan natuurlijk ook gewoon een ASRock 939SLI32-eSATA2 kopen voor 69 euro, die heeft:
  • gigabit ethernet (via PCI-express x1 link!)
  • 4x SATA2
  • 2x PCI-express x8 (Areca controller dus mogelijk)
  • 1x PCI-express x4 (dus twee DeLock kaartjes mogelijk, op x4 en x8 poort)
Getuige deze patch worden de SATA controllers op dit exacte moederbord nu ondersteund. Dus werkt zowel gigabit LAN als de Serial ATA controller.
Het is volgens mij goed mogelijk dat het het zelfde probleem is als het hier boven staande bord heefd. Maar hoe je die patch installeerd staat er niet bij. Het lijkt in elk geval gecompliceerd ;) .

Acties:
  • 0 Henk 'm!

Verwijderd

tilde schreef op dinsdag 13 maart 2007 @ 10:40:
Het is volgens mij goed mogelijk dat het het zelfde probleem is als het hier boven staande bord heefd. Maar hoe je die patch installeerd staat er niet bij. Het lijkt in elk geval gecompliceerd ;) .
In de huidige versie (CVS ofwel FreeBSD 7-CURRENT) is de M5288 wel supported:

ALI: M5229, M5281, M5287, M5288, M5289.

Dit is dus gewoon een open source patch; geen closed source binary module. Het enige wat je nodig hebt is een custom kernel met deze patch applied. Ik kan een i386 kernel voor je bakken. Zal vanmiddag eens voor je kijken. :)

[ Voor 6% gewijzigd door Verwijderd op 13-03-2007 11:25 ]


Acties:
  • 0 Henk 'm!

  • El Cid
  • Registratie: September 2003
  • Niet online
Verwijderd schreef op dinsdag 13 maart 2007 @ 09:13:
Is het een closed-source driver? Anders zou deze in 6.2 moeten zitten. Maar ja over het algemeen kun je drivers gewoon binnen dezelfde branch (5.x, 6.x) gebruiken. KLD moet echter wel voor dezelfde arch zijn gebuild; draai je AMD64 dan kun je geen module activeren die is gecompileerd voor i386, en andersom.
Het is deze kaart:

http://www.highpoint-tech.com/USA/rr454.htm

Volgens mij zit de driver niet standaard in FreeBSD.

Acties:
  • 0 Henk 'm!

Verwijderd

El Cid schreef op dinsdag 13 maart 2007 @ 12:30:
[...]


Het is deze kaart:

http://www.highpoint-tech.com/USA/rr454.htm

Volgens mij zit de driver niet standaard in FreeBSD.
Hm als ik bij de downloads op HighPoint zie ik:
/BIOS_Driver/rr454/FreeBSD/hpt374-freebsd6-1.22-0306.tgz

Het lijkt erop dat die kaart in feite HPT374-chip gebruikt, beetje misleidend, kijkend naar de manpage van ata(4) zie ik dan:

HighPoint: HPT302, HPT366, HPT368, HPT370, HPT371, HPT372, HPT372N, HPT374.

Dus volgens mij moet het gewoon werken; ik zie HPT374 ook in FreeBSD 6.0 staan. Heb je het al geprobeerd of het werkt? En al zou je een (binary) driver van HighPoint moeten gebruiken, volgens mij gaat die KLD (kernel module) gewoon werken.

Acties:
  • 0 Henk 'm!

Verwijderd

tilde schreef op dinsdag 13 maart 2007 @ 02:21:
Het werkt! :)

Ik heb de bestanden if_myk.ko en libmbpool.ko verplaatst van /boot/kernel/ naar /cf/boot/kernel/. Probleem opgelost *O* .

Wel is er nog een ander probleem, de onboard sata controller doet het niet. Ik krijg de volgende melding:
#atapci1: <acerlabs m5287 sata150 controller> port ...irq setings ed.....
#atapci1: AHCI controller reset failure
#device attach: atapci1 attach returned 6

controller word wel gevonden, maar werkt dus niet. Er word ook geen hardeschijf gevonden.
Hey ik heb voor je gekeken, maar FreeBSD 6.2-RELEASE bevat de patch voor de ULi/ALi M5288 SATA controller al. Welke versie van FreeNAS heb je? Kun je eens de nieuwste beta uitproberen?

En heb je echt exact dit bord:
ASRock 939SLI32-eSATA2

Of toevallig de 939SLI-eSATA2 versie (dus geen SLI32, die heeft twee chipsets namelijk).

Acties:
  • 0 Henk 'm!

  • El Cid
  • Registratie: September 2003
  • Niet online
Verwijderd schreef op dinsdag 13 maart 2007 @ 13:15:
[...]
Het lijkt erop dat die kaart in feite HPT374-chip gebruikt, beetje misleidend, kijkend naar de manpage van ata(4) zie ik dan:

HighPoint: HPT302, HPT366, HPT368, HPT370, HPT371, HPT372, HPT372N, HPT374.

Dus volgens mij moet het gewoon werken; ik zie HPT374 ook in FreeBSD 6.0 staan. Heb je het al geprobeerd of het werkt? En al zou je een (binary) driver van HighPoint moeten gebruiken, volgens mij gaat die KLD (kernel module) gewoon werken.
De HPT-374 wordt ook gebruikt als gewone non-RAID controler, zoals bij sommige moederborden. Bij het installeren van FreeBSD 6.0 krijg ik alleen de losse schijven te zien(ad*), en niet de aanwezige RAID-array(da*). Dus ik moet eerst bij het booten de binary driver van HighPoint laden, voordat ik de boel kan installeren op de RAID-array. Maar ik weet niet of FreeBSD uberhaupt standaard een aanwezige RAID-5 array kan herkennen.

Mischien moet ik dan toch maar de gok wagen, en de verouderde binary driver onder FreeBSD 6.2 proberen.

Acties:
  • 0 Henk 'm!

Verwijderd

El Cid schreef op dinsdag 13 maart 2007 @ 13:41:
De HPT-374 wordt ook gebruikt als gewone non-RAID controler, zoals bij sommige moederborden. Bij het installeren van FreeBSD 6.0 krijg ik alleen de losse schijven te zien(ad*), en niet de aanwezige RAID-array(da*).
Oh je had even moeten zeggen dat je de onboard RAID wilde gebruiken. Kijk wat ik nu zeg klinkt misschien vreemd, maar onboard RAID bestaat eigenlijk niet. Het wordt om die reden ook wel fake RAID genoemd. Wat jij hebt is een IDE controller. Het enige wat een IDE controller en een IDE RAID controller onderscheidt is een BIOS utility om arrays mee aan te maken (setup), bootstrap support (om te booten van je array) en drivers voor waarschijnlijk alleen windows. De controller doet zelf absoluut geen RAID! Dat doen de drivers - in feite is dit dus software RAID.

Bij FreeBSD werkt het zo: FreeBSD ziet een IDE controller, en leest de metainformatie uit (die staan op de laatste sector van elke schijf). Daarin staat bijvoorbeeld: dit is schijf1 uit een RAID0-array genaamd "blablaXX4" met stripesize 128KB. FreeBSD kan met die informatie zijn eigen RAID-systeem gebruiken om vervolgens een Software RAID array aan te maken (device ar0 krijg je dan). FreeBSD gebruikt dan zijn eigen RAID-systeem aan de hand van het "etiket" dat op de schijven is geplukt. Maar voor dergelijke onboard fakeRAID wordt geen RAID5 ondersteund. Lees de ataraid(4) manpage maar:
CAVEATS
RAID5 is not supported at this time. Code exists, but it neither uses
nor maintains parity information.
Die drivers van HighPoint zijn dus nodig om RAID5 te gebruiken, de hardware zelf doet absoluut geen RAID5 of andere RAID-levels; het is enkel slim genoeg om te weten waar de bootsector staat en die in te lezen. Je krijgt met de drivers van Highpoint dan een da0 device; hetgeen voor een SCSI of RAID disk bestemd is.
Mischien moet ik dan toch maar de gok wagen, en de verouderde binary driver onder FreeBSD 6.2 proberen.
Nouja verouderd.. alleen als de API is veranderd zou het incompatible zijn. Ik denk dat het gewoon werkt; maarja proberen zal de uitslag geven.

Maar even iets heel anders: je zou natuurlijk ook software RAID5 kunnen gebruiken; zoals geom_raid5. Dat geeft je veel hogere performance en is een bewezen en goed-geschreven implementatie. Enig nadeel is dat je er niet (direct) van kunt booten. Wat wel kan is een 100MB /boot partitie zonder RAID5 en de rest wel met RAID5. Maarja ik weet niet of je boot-support uberhaupt nodig is. Maar geom_raid5 (zit ook in FreeNAS) is sowieso sneller dan de HighPoint-driver; vermoed ik. Sequentieel is geom_raid5 zelfs iets sneller dan Areca (graid5-tng haalt 400MB/s write) dus dat zit opzich wel goed. :)

Acties:
  • 0 Henk 'm!

  • El Cid
  • Registratie: September 2003
  • Niet online
Verwijderd schreef op dinsdag 13 maart 2007 @ 13:54:
Maar even iets heel anders: je zou natuurlijk ook software RAID5 kunnen gebruiken; zoals geom_raid5. Dat geeft je veel hogere performance en is een bewezen en goed-geschreven implementatie. Enig nadeel is dat je er niet (direct) van kunt booten. Wat wel kan is een 100MB /boot partitie zonder RAID5 en de rest wel met RAID5. Maarja ik weet niet of je boot-support uberhaupt nodig is. Maar geom_raid5 (zit ook in FreeNAS) is sowieso sneller dan de HighPoint-driver; vermoed ik. Sequentieel is geom_raid5 zelfs iets sneller dan Areca (graid5-tng haalt 400MB/s write) dus dat zit opzich wel goed. :)
Kan ik die overstap dan maken zonder de data te verliezen die op mijn huidige array staat? En dan bedoel ik dus zonder 100 DVDtjes te branden. :P

Op het moment ben ik bezig met een nieuwe fileserver. Dat wordt waarschijnlijk Solaris met ZFS. Maar ik ben nogal gehecht aan een goede beveiliging, dus het blijft toch knagen dat FreeBSD 6.0 geen security updates meer ontvangt. Hopelijk blijven de hackers/virussen mij nog even ontzien.

Toen ik die kaart kocht, leek het zo'n goede keus. Maar ik weet nu beter. Drivers van de fabrikant zijn niet goed genoeg. De ondersteuning voor de hardware moet daadwerkelijk standaard in de kernel zelf zitten om dit soort problemen in de toekomst te voorkomen.

[ Voor 10% gewijzigd door El Cid op 13-03-2007 14:09 ]


Acties:
  • 0 Henk 'm!

Verwijderd

El Cid schreef op dinsdag 13 maart 2007 @ 14:05:
[...]


Kan ik die overstap dan maken zonder de data te verliezen die op mijn huidige array staat? En dan bedoel ik dus zonder 100 DVDtjes te branden. :P
Theoretisch wel maar ik denk dat je voor veilig moet gaan en de data er eerst vanaf halen. Dat kun je het beste doen op een HDD. Wat ook kan is dat je een schijf van je array afsnoept dan draai je degraded maar dan kun je al wel aardig wat gegevens eraf halen, en de rest backup je op andere HDD of DVD. Of andere volgorde. Ik heb zelf expansion support voor geom_raid5 geschreven, dus wil je met geom_raid5 in de toekomst uitbreiden dan kan dat ook. :)
Op het moment ben ik bezig met een nieuwe fileserver. Dat wordt waarschijnlijk Solaris met ZFS.
Waarom geen FreeBSD met ZFS? Je kunt ZFS ook op geom_raid5 draaien, trouwens.
Maar ik ben nogal gehecht aan een goede beveiliging, dus het blijft toch knagen dat FreeBSD 6.0 geen security updates meer ontvangt. Hopelijk blijven de hackers/virussen mij nog even ontzien.
Hm het is nou niet dat FreeBSD 6.0 gatenkaas is, kijk hier eens na:
http://www.freebsd.org/security/

Meeste zijn vulns in software die je wellicht niet draait, local exploits of Denial-of-Service attacks. Geen remote code execution / buffer overflows als ik zo snel even kijk. Misschien voel je je onveiliger dan aan de hand van de bekende vulns gerechtvaardigt zou zijn. FreeBSD is best een veilig OS, zeker als je het een beetje dichtspijkert. :)
Toen ik die kaart kocht, leek het zo'n goede keus. Maar ik weet nu beter. Drivers van de fabrikant zijn niet goed genoeg. De ondersteuning voor de hardware moet daadwerkelijk standaard in de kernel zelf zitten om dit soort problemen in de toekomst te voorkomen.
Je moet weten wat de hardware in feite voorstelt; en je moet weten wat Fake RAID is. Driver RAID5 oplossingen hebben mij zelden tevreden gestemd, ik ken nog geen implementatie die goed te noemen is. Zelf heb ik ook veel meer vertrouwen in een goede softwarematige oplossing zoals geom_raid5.

Acties:
  • 0 Henk 'm!

  • El Cid
  • Registratie: September 2003
  • Niet online
Verwijderd schreef op dinsdag 13 maart 2007 @ 14:18:
Waarom geen FreeBSD met ZFS? Je kunt ZFS ook op geom_raid5 draaien, trouwens.
Zie hier onze eerdere discussie over dit onderwerp:

El Cid in "Oudere computer met nieuwe storage vrage..."

:P

Acties:
  • 0 Henk 'm!

Verwijderd

Ah daar hadden we het al over gehad. :P

Maar de software zelf blijft natuurlijk gelijk. Als er een fout zit in ZFS dan maakt het niet uit of je Solaris of FreeBSD gebruikt (met ZFS ondersteuning). Maar het zou (iig theoretisch) kunnen dat de port van ZFS extra bugs met zich meebrengt. Maar zelf denk ik dat als je voor zeker wilt gaan je misschien nog beter even de kat uit de boom kunt kijken, en een filesystem gebruiken wat echt al breed gebruikt wordt; volgens mij wordt ZFS nog niet/nauwelijks voor bedrijfs-kritieke toepassingen ingezet.

Dat gezegd, ZFS heeft coole features en als je niet kunt wachten is OpenSolaris natuurlijk een mooi alternatief. :)

Acties:
  • 0 Henk 'm!

  • Coenen
  • Registratie: September 2000
  • Laatst online: 20:01

Coenen

=LoT= IJsbier @ ET

@Enlightenment, wat gebruik jij dan nu ipv ZFS?

Acties:
  • 0 Henk 'm!

  • tilde
  • Registratie: November 2000
  • Laatst online: 20:19
Verwijderd schreef op dinsdag 13 maart 2007 @ 13:33:
[...]

Hey ik heb voor je gekeken, maar FreeBSD 6.2-RELEASE bevat de patch voor de ULi/ALi M5288 SATA controller al. Welke versie van FreeNAS heb je? Kun je eens de nieuwste beta uitproberen?

En heb je echt exact dit bord:
ASRock 939SLI32-eSATA2

Of toevallig de 939SLI-eSATA2 versie (dus geen SLI32, die heeft twee chipsets namelijk).
Ik gebruik versie 0.68 van freenas. Ik zal eens kijken naar de laatste beta.

Moederbord is een asus A8R-MX met als chipset een ati northbridge en een uli m5287 southbridge.

owja, bedankt voor het kijken d:)b .

Acties:
  • 0 Henk 'm!

Verwijderd

Coenen schreef op dinsdag 13 maart 2007 @ 20:12:
@Enlightenment, wat gebruik jij dan nu ipv ZFS?
'Gewoon' UFS versie 2, met SoftUpdates. UFS bevat geen Journaling maar heeft wel grote limieten (zo heb ik een bestand van 550GB op mijn filesystem staan). Voor de veiligheid wordt SoftUpdates (SU) gebruikt, dit werkt zo:
  • SU stelt writes uit, maar differentieert (onderscheidt) hierbij metainformatie, directories en bestanden. Standaard worden de volgende instellingen (in seconden) gehanteerd:
    kern.metadelay: 28
    kern.dirdelay: 29
    kern.filedelay: 30
  • SU kan voor zowel snelheidsverbetering zorgen en bescherming tegen filesystem corruptie. Dit laatste doet het door eerst de 'belangrijke' metainfo weg te schrijven, daarna pas mutatues voor directories en daarna pas mutaties aan files. Op deze manier kan het nooit zo zijn dat de inhoud van een bestand is gewijzigd of juist is aangemaakt, zonder dat de metainformatie eerst is aangemaakt. In geval van een crash is het dan ook niet heel moeilijk om de niet-afgemaakte writes terug te rollen.
  • SU zorgt ook voor hogere snelheid doordat het schrijfopdrachten 'opspaart' en kan herordenen, tevens kan het veel meta-updates opsparen en ineens schrijven ipv elke keer gelijk te updaten waardoor de schijf veel moet seeken.
SoftUpdates wordt stabiel geacht aangezien het al heel lang standaard aanstaat bij de installatie. Zelf vind ik een goede journaling oplossing echter veiliger, maar het is niet zo dat omdat UFS nog geen (stabiele) journaling kent, het filesystem erg kwetsbaar is.

Ik gebruik natuurlijk geom_raid5 voor softwarematige RAID (geen verrassing hier ;)) en ik ben eigenlijk best blij met deze setup. :)

ZFS gaat zeker heel stoer worden, coole features die mij erg aanspreken. Maar het is nog niet stabiel, dus ook al biedt ZFS features de de veiligheid kunnen verhogen is het op dit moment juist een veel groter risico; ZFS kan namelijk nog verborgen gebreken hebben. Ik raad dan ook af om direct na het 'releasen' van ZFS op bijvoorbeeld Mac OSX, Linux en FreeBSD hiervan gebruik te maken voor je eigen kritieke data. Een dergelijk ingewikkeld filesystem dient eerst een aantal grote bedrijven als referentie te kennen die het gebruiken voor mission-critical toepassingen.

Acties:
  • 0 Henk 'm!

Verwijderd

tilde schreef op woensdag 14 maart 2007 @ 00:58:
[...]


Ik gebruik versie 0.68 van freenas. Ik zal eens kijken naar de laatste beta.

Moederbord is een asus A8R-MX met als chipset een ati northbridge en een uli m5287 southbridge.

owja, bedankt voor het kijken d:)b .
Oeps, ik moet echt leren mensen uit elkaar te halen. :$

Even gezocht en jouw mobo heeft M5287 en niet de M5288 (zei je zelf ook al), dus dat betekent dat je die ene patch helemaal niet nodig hebt; die is namelijk voor M5288. Het probleem is waarschijnlijk je BIOS:
The problem seems to be the fact that BIOS indicates AHCI availability
when in reality it's not available.
Ik had het volgens mij al gevraagd, maar als je in je BIOS de 'SATA mode' op AHCI zet (kan dat?), maakt dit dan iets uit? Zo niet, dan kan ik een patch voor je maken die AHCI totaal uitschakelt op de M5287 SATA controller; dan zou het weer moeten werken.

Acties:
  • 0 Henk 'm!

  • Demo
  • Registratie: Juni 2000
  • Laatst online: 24-08 16:07

Demo

Probleemschietende Tovenaar

Enlightenment, heb je misschien een link naar een goede tutorial voor het implementeren van geom raid5? Ik heb redelijk wat ervaring met FreeBSD, dus een beknopte uitleg zou al genoeg zijn, maar kan nergens iets vinden over geom raid5 :/
Heb al wel een installatie in VMware klaar staan om er eens mee te gaan stoeien, mocht het bevallen dan zal ik het zeker in mijn nieuwe server gaan toepassen :D

Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done


Acties:
  • 0 Henk 'm!

  • tilde
  • Registratie: November 2000
  • Laatst online: 20:19
Ok, ik heb de laatste beta versie geprobeert (0.683b), maar het probleem blijft. Na wat gegoogled te hebben kwam ik er achter dat dit een probleem is met de freebsd 6.2 kernel. Mensen die een upgrade deden van kernel versie 6.1 (of eerder) naar 6.2 kregen ineens dit probleem. Ergo: kernel 6.1 werk dus wel.
Dus nagegaan welke freenas versie kernel 6.1 gebruikt. Dit is versie 0.671. Dit gedownload, en het werk dan dus wel. Is natuurlijk geen echte optie om deze versie te gaan gebruiken, maargoed :) .

Bij die eerder genoemde patch staat het volgende:
--- sys-orig/dev/ata/ata-chipset.c Sat Sep 23 19:09:32 2006
+++ sys/dev/ata/ata-chipset.c Sat Sep 23 22:42:58 2006
@@ -950,6 +950,7 @@
struct ata_chip_id *idx;
static struct ata_chip_id ids[] =
{{ ATA_ALI_5289, 0x00, 2, ALISATA, ATA_SA150, "M5289" },
+ { ATA_ALI_5288, 0x00, 4, ALISATA, ATA_SA300, "M5288" },
{ ATA_ALI_5287, 0x00, 4, ALISATA, ATA_SA150, "M5287" },
{ ATA_ALI_5281, 0x00, 2, ALISATA, ATA_SA150, "M5281" },
{ ATA_ALI_5229, 0xc5, 0, ALINEW, ATA_UDMA6, "M5229" },
@@ -984,6 +985,12 @@
ctlr->channels = ctlr->chip->cfg1;
ctlr->allocate = ata_ali_sata_allocate;
ctlr->setmode = ata_sata_setmode;
+ ctlr->r_type2 = SYS_RES_MEMORY;
+ ctlr->r_rid2 = PCIR_BAR(5);
+
+ if ((ctlr->r_res2 = bus_alloc_resource_any(dev, ctlr->r_type2,
+ &ctlr->r_rid2, RF_ACTIVE)))
+ return ata_ahci_chipinit(dev);

/* enable PCI interrupt */
pci_write_config(dev, PCIR_COMMAND,


Het lijkt erop dat de patch wel gaat werken voor de m5287, en een paar ander chips. Wat ik eruit begrijp is dat de patch idd. AHCI support uitzet.

@ Enlightenment: Als je een kernel voor mij zou willen compilen, zou dat erg fijnzijn d:)b . Maar neem gerust je tijd, ik moet de NAS nog gaan bouwen. (eerst maar eens een ander bord bestellen voor de huidige pc :) ).

Acties:
  • 0 Henk 'm!

Verwijderd

Samsung SpinPoint T166 (Bulk, HD501LJ, NCQ)
http://www.alternate.nl/h...etails.html?artno=a9bu17&
€ 119,-

Acties:
  • 0 Henk 'm!

  • Coenen
  • Registratie: September 2000
  • Laatst online: 20:01

Coenen

=LoT= IJsbier @ ET

Vandaag m'n vorige week op Ebay bestelde CF to IDE convertor binnengekregen.
De convertor zelf kostte maar 1 euro, het verzenden was het duurste: 3.99 euro.
Voor 1 euro kan ik de connectoren nog niet eens zelf kopen. Echt ongelovelijk.

Nu nog een mobo, Asus K8N4-E Deluxe kan ik nog krijgen, maar moet 45 euri kosten ex nog eens 15 euro voor het versturen. Voor dat geld koop ik liever wat nieuwers.

Acties:
  • 0 Henk 'm!

Verwijderd

Ik heb een raid5 servertje gebouwd op een VIA Eden 1GHZ processor. Ik heb 4 ide-disks van 250GB gebruikt. Dit is de schrijfsnelheid:

code:
1
2
3
4
5
6
7
8
9
10
avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.00    0.00   44.80   51.60    0.00    3.60

Device:            tps   Blk_read/s   Blk_wrtn/s   Blk_read   Blk_wrtn
hda             161.00      3395.20     10632.00      16976      53160
hdb             145.60      3444.80     10536.00      17224      52680
hdc             173.40      3308.80     10513.60      16544      52568
hdd             175.20      3408.00     10588.80      17040      52944
sda               2.60         0.00        27.20          0        136
md0            3997.40     11633.60     31241.60      58168     156208


Dus zo'n 31MB/S sustained write...

De IO/Wait komt van de source disk, dit is een 5400RPM laptop schijf die ik als system boot-disk gebruik.

En vervolgens de leessnelheid (>/dev/null):

code:
1
2
3
4
5
6
7
8
9
10
avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.20    0.00   76.65   23.15    0.00    0.00

Device:            tps   Blk_read/s   Blk_wrtn/s   Blk_read   Blk_wrtn
hda             180.44     19246.31         1.60      96424          8
hdb             195.41     19214.37         3.19      96264         16
hdc             180.04     19265.47         3.19      96520         16
hdd             171.26     19214.37         1.60      96264          8
sda               0.40         0.00         4.79          0         24
md0             609.98     76975.65         0.00     385648          0


Dus 77MB/S sustained read..

Bij raid5 heb je netto een lage I/O omdat je rekening moet houden met de write penalty. Voor iedere logische I/O die je doet op raid5 doet, moet je fysiek 4 I/O's uitvoeren (lezen data+parity en schrijven data+parity). Dat is ook de reden waarom raid5 soms traag uit de bus kan komen, de CPU's van tegenwoordig zijn al lang niet meer de bottleneck. Zo ziet de configuratie er uit:


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
/dev/md0:
        Version : 00.90.03
  Creation Time : Tue Dec  6 14:49:51 2005
     Raid Level : raid5
     Array Size : 732587712 (698.65 GiB 750.17 GB)
    Device Size : 244195904 (232.88 GiB 250.06 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Thu Mar 22 15:59:08 2007
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           UUID : fd183369:ecfbe683:293fb983:a7edce17
         Events : 0.7302874

    Number   Major   Minor   RaidDevice State
       0      22        1        0      active sync   /dev/hdc1
       1       3       65        1      active sync   /dev/hdb1
       2      22       65        2      active sync   /dev/hdd1
       3       3        1        3      active sync   /dev/hda1


Het systeempje draait op Ubuntu server en is vrij standaard ingericht.. Naast fileserver gebruik ik hem ook als automatische Usenet download server en amule client. Overigens kan je met de nieuwste md tools ook een raid5 on-the-fly uitbreiden naar meer disks. In mijn geval wordt dit lastig, omdat ik alle IDE poorten al in gebruik heb.

Ik heb verder gelet op stroomgebruik en daarom staat het O.S. ook op de laptop disk. Na 30 Minuten vallen de raid disks van stroom (powermanagement) en gebruik ik voor het downloaden de laptop disk als buffer. In idle mode gebruikt het systeem iets van 70 watt. Als alle disks draaien zo'n 60 Watt extra..

Overigens heb ik deze calculators gebruikt om tot de conclusie te komen een aantal PCI kaarten te skippen:

http://resources.mini-box...lator/powersimulator.html
http://www.3dcool.com/PWC.php

[ Voor 15% gewijzigd door Verwijderd op 22-03-2007 22:16 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op donderdag 22 maart 2007 @ 22:00:
Ik heb een raid5 servertje gebouwd op een VIA Eden 1GHZ processor. Ik heb 4 ide-disks van 250GB gebruikt. Dit is de schrijfsnelheid:
Dus zo'n 31MB/S sustained write...
Dus 77MB/S sustained read..
Niet heel slecht voor VIA C3 Nehemiah. Ik vraag me af welke score geom-raid5 gehaald zou hebben.
Maar heb je ook de network performance getest? Want daarbij zal je CPU wel bottleneck wezen; kan zijn dat je via gigabit toch flink lagere scores haalt.
Bij raid5 heb je netto een lage I/O omdat je rekening moet houden met de write penalty. Voor iedere logische I/O die je doet op raid5 doet, moet je fysiek 4 I/O's uitvoeren (lezen data+parity en schrijven data+parity). Dat is ook de reden waarom raid5 soms traag uit de bus kan komen, de CPU's van tegenwoordig zijn al lang niet meer de bottleneck.
Ligt er maar helemaal aan hoe RAID5 geimplementeerd is. Zo doet geom_raid5 aan request combining zodat het helemaal geen 'write hole' meer heeft bij sequentiele I/O en lost ZFS het probleem helemaal op door een variabele stripesize te gebruiken. Linux md loopt iets achter wat dit betreft door gebrek aan een intelligente oplossing voor het RAID5 write hole probleem.
Het systeempje draait op Ubuntu server en is vrij standaard ingericht.. Naast fileserver gebruik ik hem ook als automatische Usenet download server en amule client.
Klinkt leuk, heb je ook een foto van je systeem? :)
Iig veel plezier ermee, leuk dat je post wat het uiteindelijk geworden is!

Enige wat me tegenvalt is het energieverbruik als de schijven idle zijn; ik dacht dat VIA C3 in totaal maar 20W verbruikte? Mijn NAS systeem met nForce4-mobo en Sempron 64 processor verbruikt ook 69W aan het stopcontact. Bij VIA C3 had ik toch minimaal 20W minder verwacht. Maar dat zal ook wel aan de minimum load van je voeding kunnen liggen.

[ Voor 9% gewijzigd door Verwijderd op 23-03-2007 13:26 ]


Acties:
  • 0 Henk 'm!

Verwijderd

[...]
Ligt er maar helemaal aan hoe RAID5 geimplementeerd is. Zo doet geom_raid5 aan request combining zodat het helemaal geen 'write hole' meer heeft bij sequentiele I/O en lost ZFS het probleem helemaal op door een variabele stripesize te gebruiken. Linux md loopt iets achter wat dit betreft door gebrek aan een intelligente oplossing voor het RAID5 write hole probleem.
Hmm.. Ik vind de oplossing van ZFS eigenlijk best heel elegant. Ze lossen in een klap het "write hole" probleem en de "write penalty" op. Ik kan echter niet zo snel vinden of het al volwassen is onder linux, weet jij vast wel?

Aangezien ik gevonden heb dat je ook mee hebt geschreven aan geom_raid5, weet je toevallig ook whitepapers over de geom_raid5 implementatie? Of kun je me een beetje in de goede richting wijzen waar ik (buiten source code om) info kan vinden?
Enige wat me tegenvalt is het energieverbruik als de schijven idle zijn; ik dacht dat VIA C3 in totaal maar 20W verbruikte? Mijn NAS systeem met nForce4-mobo en Sempron 64 processor verbruikt ook 69W aan het stopcontact. Bij VIA C3 had ik toch minimaal 20W minder verwacht. Maar dat zal ook wel aan de minimum load van je voeding kunnen liggen.
Ik vermoed dat het hoge stroomgebruik inderdaad te wijten is aan mijn voeding. Dit is een low cost voeding uit een oude AOpen kast. Ik moet echter wel eerst zeker zijn dat een duurdere voeding ook daadwerkelijk minder verbruikt voordat ik zo'n ding ga aanschaffen.

Hiervoor had ik een thunberbird op een ECS Mobo draaien en die gebruikte idle het dubbele. Aankoop van mijn Eden moederboardje had ik er in een jaar gebruik al uit..

Ik gebruik de server ook nog voor het opnemen van tv uitzendingen (MythTV). Ik vermoed dat de PVR150 hardware encoder idle ook nog eens een wattje of 15 gebruikt. Dat zou betekenen dat het systeem idle op 55 watt uitkomt. 20 Watt ga ik volgens mij nooit niet halen, ondanks dat VIA beweert dat dit wel kan (ja misschien zonder memory en OS, maar da's niet erg nuttig imho).

Al met al weer veel opgestoken hier.. Back to the drawing board ;)

[ Voor 3% gewijzigd door Verwijderd op 23-03-2007 16:58 ]


Acties:
  • 0 Henk 'm!

  • multipasser
  • Registratie: Oktober 2001
  • Laatst online: 10-09 18:36

multipasser

Daftpunk Ownz Ya!

Ik ben het ook beu om al mijn data bij te houden op externe hd's.
Als je er 6 of meer hebt staan ben je meer bezig met switchen tussen hd's om naar data te zoeken dan wat anders.
Dus een centrale fileserver is de oplossing.
Mijn gedacht is gewoon een areca 8lane pci-e in een zo goedkoopmogelijke pc (met pci-E) te steken.
Wel voor een stabiele/goede voeding zorgen en onboard gigalan.
Dan starten met 3x 750gb schijven denk ik. Of misschien direct voor 3x 1tb's gaan (als hitachi ze los begint te verkopen.)

Ik hoop binnen 1 a 2 maand toch zo'n fileserver neer te zetten.

Een amiga 500 met 512 kb ram !


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 23 maart 2007 @ 16:56:
Hmm.. Ik vind de oplossing van ZFS eigenlijk best heel elegant. Ze lossen in een klap het "write hole" probleem en de "write penalty" op.
Yep, dat kan ook alleen maar door filesystem en RAID-engine samen te voegen tot 1 stuk software. Nadelen kent dit ook, ZFS is redelijk complex waardoor boot-support - zelfs in Solaris - nog afwezig is. Boot-blocks hebben doorgaans 512 bytes tot 4KB en daar moeten ze het mee doen - voldoende om een kernel te localiseren en in te laden en alle tamtam eromheen.
Ik kan echter niet zo snel vinden of het al volwassen is onder linux, weet jij vast wel?
Onder linux wordt het, 'dankzij' de sterk restrictieve GPL-licentie in userland geport en niet naar de kernel. Dat is alles behalve een deftige oplossing. FreeBSD heeft hier dankzij zijn veel minder-restrictieve licentie geen last van en kan ZFS direct porten naar kernel-interface (kernel loadable module oftewel KLD). Onder beide is het nog lang niet bruikbaar in productie omgevingen. ZFS is een van de meest complexe filesystems en dat betekent dat ik voorlopig nog mijn data er niet aan toevertrouw. Laat eerst een aantal serieuze bedrijven dit maar gebruiken voor bedrijfs-kritische applicaties dan kun je erop vertrouwen dat ze ZFS aan de nodige tests hebben onderworpen en dus kennelijk stabiel is. Tot die tijd zie ik het gebruik van ZFS, ook al vervalt het beta-label, als risico. Complexe software kan verborgen gebreken hebben die pas in sommige situaties tot uiting komt - dat is het nadeel.
Aangezien ik gevonden heb dat je ook mee hebt geschreven aan geom_raid5
Haha, hoe weet je dat? :P
weet je toevallig ook whitepapers over de geom_raid5 implementatie? Of kun je me een beetje in de goede richting wijzen waar ik (buiten source code om) info kan vinden?
Er zijn geen white-papers; informatie kun je inwinnen door direct naar de auteur te schrijven (Arne Woerner) of naar mij dan forward ik het naar hem. Ik heb intensief contact met hem vanwege allerlei projectjes.

Ik ben verder bezig met diverse reviews waarin geom_raid5 wordt vergeleken met andere geom modules evenals Windows en Linux software RAID-modules, daarin wordt ook ingegaan op hoe geom_raid5 werkt en hoe het in staat is om 400MB/s write performance te halen (met de graid5-tng module).
Ik vermoed dat het hoge stroomgebruik inderdaad te wijten is aan mijn voeding. Dit is een low cost voeding uit een oude AOpen kast. Ik moet echter wel eerst zeker zijn dat een duurdere voeding ook daadwerkelijk minder verbruikt voordat ik zo'n ding ga aanschaffen.
Inderdaad, mocht je antwoord op deze vraag vinden ben ik ook zeer geinteresseerd! :)

Acties:
  • 0 Henk 'm!

Verwijderd

multipasser schreef op vrijdag 23 maart 2007 @ 17:03:
Mijn gedacht is gewoon een areca 8lane pci-e in een zo goedkoopmogelijke pc (met pci-E) te steken.
Wel voor een stabiele/goede voeding zorgen en onboard gigalan.
Dan starten met 3x 750gb schijven denk ik. Of misschien direct voor 3x 1tb's gaan (als hitachi ze los begint te verkopen.)
Dat is enorm duur per GB. Veel goedkoper bereik je door software RAID5 te gebruiken (zoals in FreeNAS) en een simpel systeempje met 4 PATA en 4 SATA Disks. Dan heb je in totaal (8 - 1) * <grootte> beschikbaar.

Kies je voor de populaire Samsung T166 500GB schijven dan wordt dat:

7*500GB = 3,5TB = 3,18TiB

Acties:
  • 0 Henk 'm!

  • multipasser
  • Registratie: Oktober 2001
  • Laatst online: 10-09 18:36

multipasser

Daftpunk Ownz Ya!

Maar ik wil liever een systeem wat een betrouwbare en snelle raid5 levert.
En softwareraid vind ik niet de perfecte langetermijn oplossing.
Van Linux ken ik niets dus ik moet het dan zoeken bij windows hack of Nvidia softraid.

Een amiga 500 met 512 kb ram !


Acties:
  • 0 Henk 'm!

Verwijderd

multipasser schreef op vrijdag 23 maart 2007 @ 18:56:
Maar ik wil liever een systeem wat een betrouwbare en snelle raid5 levert.
geom_raid5 is snel genoeg, betrouwbaarheid ligt een stuk complexer.
En softwareraid vind ik niet de perfecte langetermijn oplossing.
Waarom?
Van Linux ken ik niets dus ik moet het dan zoeken bij windows hack of Nvidia softraid.
Dan moet je je eens in FreeNAS verdiepen, supermakkelijk eigen NAS configureren - met geom_raid5. :)

Acties:
  • 0 Henk 'm!

  • Coenen
  • Registratie: September 2000
  • Laatst online: 20:01

Coenen

=LoT= IJsbier @ ET

Kan je een geom_raid5 eigenlijk uitbreiden?
Dus je begint bv met 3 500GB schijven in geom_raid 5 en plaatst er dan later 2 of 3 bij.

Acties:
  • 0 Henk 'm!

Verwijderd

Coenen schreef op vrijdag 23 maart 2007 @ 21:15:
Kan je een geom_raid5 eigenlijk uitbreiden?
Dus je begint bv met 3 500GB schijven in geom_raid 5 en plaatst er dan later 2 of 3 bij.
Ik heb zelf Offline Capacity Expansion geschreven ja, dus dat is mogelijk. Ik moet het alleen nog veelvuldig testen om er zeker van te zijn dat het goed werkt. Maar bij de zestal testen tot nu toe ging alles goed met 0% dataverlies, getest met een synchronisatiescript die de files met MD5-hash controleert.

Acties:
  • 0 Henk 'm!

  • elgringo
  • Registratie: Januari 2001
  • Laatst online: 12:47
Ik heb het topic doorgelezen en toch wat vragen, niet mbt filesystem, raid modfes op cpu, maar over de nics.

Enlightenment, jij zegt dat betere nics, met tcp offloads beter zijn. Verder dat TCP instelling veel uitmaken. Wat is hard eht verschil tussen systeem X + dure TCP offload nic, en systeem X + cheap-ass realtek nic. (Rest van het systeem blijft gelijk)

En de instelling hoeveel scheelt dat? Dan een wat dommer vraagje wat is een MTU en waarom is meer beter?

EDIT:
Oftewel de vraag, kan een NIC van 100 euro uit ivm een nic van 10 euro en haal je idd zoveel winst?
en maakt het nog uit wat voor NIC je koopt met TCP offloading? Of is offloading overloading en is Intel bijv niet beter dan 3com? En de laatste.is de 3Com 3CR990B-97 een beetje goed?

[ Voor 23% gewijzigd door elgringo op 26-03-2007 13:16 ]

if broken it is, fix it you should


Acties:
  • 0 Henk 'm!

Verwijderd

Ik ben nu al een tijdje aan het rond kijken om mijn eigen NAS te bouwen, en heb dit topic dan ook helemaal doorgelezen. Ik wil een NAS bouwen die overdag aan staat als ftp /video en muziek share/nieuwsgroep bak en ‘s avonds ook als normale pc te gebruiken is (en dan nog steeds zijn NAS functies heeft).

De onderdelen die ik al heb besteld zijn (en als het goed is zaterdag binnen moet hebben):
De Silverstone TJ06S
De Zalman ZM600-HP

Ik heb ook al een moederbord in gedachte, de Intel DG965WHMKR.
Voordeel van dit moederbord is dat hij 6 SATA2 aansluitingen heeft, er onboard video ingebakken zit, gigabit LAN onboard heeft en RAID 5 ondersteuning biedt. Nu hoor ik wel vaker dat onboard RAID 5 ondersteuning niet echt feest is qua prestaties, maar ik een losse RAID controller ook wel weer wat te duur vind (op dit moment). Ik weet dan ook niet wat ik kan verwachten van onboard RAID 5 met deze chipset (RAID 0 trok 130 MB/sec, alleen kan ik het artikel niet meer vinden waar dat in stond), maar ik zou in ieder geval wel tevreden zijn met snelheden boven de 50 MB/sec (read en write).
Ik heb 500 gig HD’s (SATA2, 16 MB cache) van Samsung gekozen, waar ik er in ieder geval 4 van wil hebben. Over de processor ben ik nog aan het twijfelen, hij moet namelijk wel redelijke prestaties kunnen leveren zodat ik en normaal kan werken op mijn computer en gigabit kan uploaden naar andere pc’s in mijn netwerk (max 2 tegelijk). Ik zit nog te twijfelen tussen de core 2 duo E6300, E6400 en de E6600.
Het OS zelf draai ik op een compact flash kaartje + adapter (wat ik op dit moment al in huis heb).

Ik zat er zelf ook al aan te denken om FreeNas in VMWare server te draaien en daarmee Geom RAID 5 te draaien, en dus direct de HD’s toe te kennen aan de virtuele machine. Alleen ben ik bang dat daarmee de prestaties niet echt super zijn, alleen of het (veel) minder is dan RAID 5 onboard?

Een probleem trouwens ook is dat ik bijna vast zit aan value ram omdat de support niet echt geweldig is voor geheugen met dit bord. Het moet een voltage hebben van 1.8 en de latency mag niet lager zijn dan 5-5-5

Nog even voor de duidelijkheid, ik wil dus Windows XP draaien. Een Unix OS gebruiken heb ik een aantal keer geprobeerd, maar na een maandje wil ik toch wel weer graag naar XP toe omdat ik beperkt word in mijn gebruik (door kennis waarschijnlijk).

Dus even kort samengevat mijn vragen:
- Wat kan ik verwachten van onboard RAID 5?
- Nu even niet zeuren om de prestaties en later iets van een Rocketraid 2320 halen?
- Of ik niet beter FreeNas in een VMWare sessie kan laten draaien
- En misschien een suggestie voor een ander moederbord

Alvast bedankt voor de reacties, en ik kan natuurlijk meer toelichten :)

-kleine edit-

Ik heb inmiddels een forum gevonden waar iemand RAID 5 draait op dat moederbord. Deze haalt 52 MB/sec read.
Linkje (onderaan)
Ik weet niet hoe ik de schrijf snelheid daaruit kan lezen, iemand die dat weet?

[ Voor 4% gewijzigd door Verwijderd op 27-03-2007 11:45 ]


Acties:
  • 0 Henk 'm!

  • Shuriken
  • Registratie: November 1999
  • Laatst online: 26-08 12:33

Shuriken

Life is all about priorities

Verwijderd schreef op dinsdag 27 maart 2007 @ 10:33:

Ik heb inmiddels een forum gevonden waar iemand RAID 5 draait op dat moederbord. Deze haalt 52 MB/sec read.
Linkje (onderaan)
Ik weet niet hoe ik de schrijf snelheid daaruit kan lezen, iemand die dat weet?
20 Mb/s volgens mij. Maar even terug kijkend gebruikt hij software raid onder linux. Dus niet de raid 5 functionaliteit van het board (wat volgens mij gewoon firmware raid is)

I rather have a bottle in front of me, then a frontal lobotomie


Acties:
  • 0 Henk 'm!

Verwijderd

Shuriken schreef op dinsdag 27 maart 2007 @ 13:38:
[...]


20 Mb/s volgens mij. Maar even terug kijkend gebruikt hij software raid onder linux. Dus niet de raid 5 functionaliteit van het board (wat volgens mij gewoon firmware raid is)
Ahja, overheen gelezen :/ Naja, verder zoeken dan maar :$

Acties:
  • 0 Henk 'm!

Verwijderd

Ik ben er zo langzamerhand ook achter dat een DIY-NAS misschien wel een goed alternatief is voor de kant-en-klare NAS boxjes van Synology etc. Ben nu aan het nadenken over een FreeBSD of Ubuntu setup, en dat is voor mij dan meteen een mooie kennismaking met *nix. Ik ben best bereid daar wat tijd en energie in te stoppen. :)

Als het even kan wil ik een systeempje bouwen met een compacte kast en een mATX alles-in-één bordje, met 4xSATA, 4xSpinpoint T166 500MB in RAID 5, Gigabit LAN en ingebouwde VGA. Maarja, al bij het uitzoeken van een geschikt moederbord duizelt het me qua keuzemogelijkheden versus hardware-ondersteuning. Voorlopig mik ik op een Sempron setup en dan zie ik de volgende interessante moederborden:

Asrock Alive NF6G-DVI. Dit was eigenlijk mijn eerste keus, want zo te zien heeft dit mobo een goede prijs/kwaliteitsverhouding. Maar het bord is al eerder in dit draadje langsgekomen en toen bleek dat hij voorzien van een Realtek RTL8211B LAN die (nog?) niet door FreeBSD wordt ondersteund (tenzij hij compatibel is met een andere Realtek chip?).

Gigabyte M61-PM-52 - idem dito.

Gigabyte GA-M51GM-S2G - gebruikt een Marvell 88E1116 controller; niet terug te vinden in de lijst met ondersteunde hardware.

Asus M2N-MX - de nforce4 LAN (MCP61P) schijnt ondersteund te worden, maar hoe zit het met die 'external Attansic PHY'?

MSI K9NBPM2-FID. Eigenlijk alweer te duur, maar afgezien daarvan: deze heeft een Vitesse SC8601 LAN chip die zo te zien niet wordt ondersteund. Idem dito voor K9NGM2.

Die lijst is vast nog niet compleet, maar het geeft wel aan hoe lastig zo'n keuze is. Kijk, natuurlijk kan ik altijd een los LAN kaartje nemen, maar ik wilde het nu net zo simpel mogelijk houden. Of een ATX bord, maar juist het alles-in-één aspect van vrijwel alle mATX borden spreekt me wel aan en VGA wil ik er wel in hebben, omdat ik dit niet enkel als NAS wil toepassen. Plus de vormfactor, natuurlijk (zouden mATX borden trouwens zuiniger zijn dan ATX, of maakt dat niet uit?). Of ik vergeet *nix maar even en gebruik gewoon Win2k3... maarja, dat is toch jammer: ik zou best wel eens willen experimenteren met de geom_raid5. ...mijmerdemijmer...

Nouja, ik vrees dat het nog lang puzzelen wordt tot ik eindelijk eens een knoop doorhak. :S

Maar ach, lang aarzelen scheelt ook weer een boel geld.

Acties:
  • 0 Henk 'm!

  • _eXistenZ_
  • Registratie: Februari 2004
  • Laatst online: 10-09 09:17
Ik zit ook _zwaar_ te denken over een servert.
Eerst dacht ik er over om een ethernet/NAS schijffie te kopen, om deze te gebruiken als roaming profile opslagplaats, en als share waarvan ik kon RISsen met Unattended.

Maar nu ik dit topic heb doorgelezen, lijkt het mij sowieso veel vetter om een mooi servertje te bouwen in een custom case die ik ooit al ben begonnen voor dit doel (Plexi behuizing van 20x20x30CM, 2 lagen, hier kan een schijf of 10 in gestacked worden samen met PSU en mobo en een 2tal 120MM fans.) Dit ding staat dood te stoffen op mijn kamer met een onaangesloten P3 500 er in.

Nu heb ik de volgende vragen:

- Hier ligt een Enermax 460Watt, en als ik ooit aan de 10 schijven kom is staggered spinup wel relext. Hoeveel tijd kost dit extra, en is dit mogelijk met software raid, bijv. de raid5 ondersteuning in FreeBSD?

- Hoe mogelijk is het om onder FreeBSD software te draaien (Torrent, HTTP/FTP downloads) die een los 80GB HDDtje gebruikt als temp opslag, en zodra de download klaar is, even de array aanzwengelen en de zooi overpompen, waarna de array weer plat gaat? Is er zulke software?

- Welke mATX bordjes (Ik zit vast aan de maten van mijn custom case, waar een P3 bord mooi inpaste) zijn geschikt om iets dergelijks te bouwen? Dit hangt geloof ik vooral af van de hardware die ondersteund wordt in FreeBSD, en het aantal SATA poorten, maar ik kan toch ook gewoon een PCI-E controller stuffen waar ik 12 schijven aan kan hangen zonder raid? (En dus een softwarematige array maak.)

/edit zo te zien bestaan losse controllers voor een groot aantal schijven zonder raid niet eens 8)7...
Kan ik ook een stuk of 3/4 van deze dingen stuffen: linkje
Deze site zoekt lekker makkelijk, voor de rest heb ik er niks mee

Die lijst in de post boven mij helpt niet echt natuurlijk, dat zijn alleen borden die niet werken.
/edit: Ik vond deze Asrock, maar gaat dit werken? --> link
- Is het slim om eerst een compleet pctje aan te schaffen, om vervolgens later de schijven te kopen als ik hier geld voor heb? Volgens mij kan dit prima, een pc kan wel ouder worden maar hij kan nog steeds hetzelfde als toen hij net nieuw was, en de eisen worden in NAS land toch niet steeds hoger imho. Ik wil de bak ook als download/mail/domainservert gebruiken, maar zwaar is dat niet.

- Is een dergelijk pctje zoals hier al vaker is besproken (150-200 euro ex schijven) up to the challenge om 70MB/s te kunnen pompen? (Dus FreeBSD software raid5, een AMD 3200 oid, een paar nieuwe schijven van 320 of 500GB, de onboard controller of een kaartje via PCI-E, en een Intel Gbit NIC?)

[ Voor 29% gewijzigd door _eXistenZ_ op 27-03-2007 18:26 ]

There is no replacement for displacement!


Acties:
  • 0 Henk 'm!

Verwijderd

Of de borden uit mijn lijst niet werken weet ik niet; ik zeg alleen dat sommige hardwareonderdelen niet in de lijst met "officieel" ondersteunde hardware voorkomen. Kan best dat ze toch wel compatible zijn met andere drivers, maar dat hoor ik liever van iemand die er verstand van heeft dan dat ik het zelf met trial & error ga uitzoeken. Mogelijk dat er ook "onofficiele" drivers bestaan, dus als iemand daar meer info over heeft dan hoor ik dat ook graag.

Ik zie dat ik in mijn post eigenlijk vergeten was om de hamvraag te stellen (de reden waarom ik dat hele verhaal hierboven eigenlijk typte): zijn deze borden toch op de één of andere manier werkbaar te krijgen en zo nee: weet iemand een geschikt mATX alternatief? In mijn zoektocht ging ik uit van een Sempron bord i.v.m. redelijk laag energieverbruik (vooral idle) voor een redelijke prijs. Eerst keek ik ook nog naar mobiele Intel processors, maar daar zijn niet zoveel desktop moederboards voor te vinden en degenen die er zijn zijn prijzig.

Acties:
  • 0 Henk 'm!

Verwijderd

elgringo schreef op maandag 26 maart 2007 @ 13:13:
Enlightenment, jij zegt dat betere nics, met tcp offloads beter zijn. Verder dat TCP instelling veel uitmaken. Wat is hard eht verschil tussen systeem X + dure TCP offload nic, en systeem X + cheap-ass realtek nic. (Rest van het systeem blijft gelijk)
Het is niet perse dat Realtek prut is en een 'dure NIC' heel goed. De grootste winst zit hem in de drivers! De 'em' drivers van Intel's 1000/Pro gigabit adapters zijn bijvoorbeeld erg goed, terwijl nVidia MCP gigabit ethernet weer een slechte reverse-engineered driver heeft die erg veel CPU cycles slurpt.

Ik denk dat je met een simpel Intel Gbps NIC al aardig goed zit, 29 euro ofzo zou dat mogen kosten. Neem ajb wel PCI-Express en geen PCI! PCI is zo'n zonde, probeer dat gewoon te vermijden.

Wat je ermee opschiet? Misschien 78MB/s versus 45MB/s ofzo; plus minder CPU overhead. Let erop dat als je client een brakke NIC heeft die niet verder komt dan 40MB/s je er natuurlijk weinig mee opschiet.
En de instelling hoeveel scheelt dat? Dan een wat dommer vraagje wat is een MTU en waarom is meer beter?
MTU = Maximum Transmission Unit, ofwel de maximum grootte van een ethernet pakketje. Standaard is de MTU 1500 bytes. Ervaring leert dat bij snelle netwerken (vanaf gigabit) het loont om grotere frames (=pakketje) te gebruiken, zoals 7000 of 9000 bytes. Dat wordt ook wel "Jumbo frames" genoemd. Jumbo frames moet ondersteunt worden door zowel de NIC als de driver, en kan winsten opleveren van 30% in transmissiesnelheid. Zowel de client als server, als bijvoorbeeld een Switch moeten Jumbo frames ondersteunen!
EDIT:
Oftewel de vraag, kan een NIC van 100 euro uit ivm een nic van 10 euro en haal je idd zoveel winst?
en maakt het nog uit wat voor NIC je koopt met TCP offloading? Of is offloading overloading en is Intel bijv niet beter dan 3com? En de laatste.is de 3Com 3CR990B-97 een beetje goed?
TOE zorgt enkel voor minder processorbelasting. Het is geen heilige graal. Het niet zo dat ALLES opeens door de chip gedaan wordt, alleen de rx/tx checksums en wat andere zooi volgens mij. 25% prestatiewinst kun je verwachten, leuk maar niet heilig. Een NIC van 100 euro is echt onzin. Dat is bedoeld voor heel veel simultane connecties, uitgebreide driverondersteuning en diverse features die je bij singleuser gebruik absoluut niet nodig hebt. Verspil daat dus je geld niet aan!

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op dinsdag 27 maart 2007 @ 10:33:
Ik ben nu al een tijdje aan het rond kijken om mijn eigen NAS te bouwen, en heb dit topic dan ook helemaal doorgelezen.
Dat was wel even wat leeswerk dan. :P
Maar er staat onderhand wel superveel info in dit topic ja!
Ik wil een NAS bouwen die overdag aan staat als ftp /video en muziek share/nieuwsgroep bak en ‘s avonds ook als normale pc te gebruiken is (en dan nog steeds zijn NAS functies heeft).
Wat beschouw je als 'normale pc', met betrekking tot het operating system? Ga je Windows gebruiken dan worden je opties wel een heel stuk minder natuurlijk.
Ik weet dan ook niet wat ik kan verwachten van onboard RAID 5 met deze chipset (RAID 0 trok 130 MB/sec, alleen kan ik het artikel niet meer vinden waar dat in stond), maar ik zou in ieder geval wel tevreden zijn met snelheden boven de 50 MB/sec (read en write).
Waarom ga je niet gewoon voor Software RAID5 dan? Fake RAID levert bij parity raid levels, waaronder RAID5, zelden goede prestaties. Je moet alleen wel zeker zijn dat je moederbord ondersteund wordt voor het OS dat je kiest. Voor Windows gaat dat wel lukken, bij Linux, FreeBSD/FreeNAS moet je meer opletten. Ik kon niet zo snel je moederbord terugvinden in FreeBSD lijsten (dmesg).
Ik zat er zelf ook al aan te denken om FreeNas in VMWare server te draaien en daarmee Geom RAID 5 te draaien, en dus direct de HD’s toe te kennen aan de virtuele machine. Alleen ben ik bang dat daarmee de prestaties niet echt super zijn, alleen of het (veel) minder is dan RAID 5 onboard?
Ik kan het testen maar dat heb ik nog niet gedaan. Ik weet niet goed of de prestaties wat zullen zijn; VMware is tja.. wel behoorlijk limiterend. Ik heb het gevoel dat je daarmee een 2GHz PC in een 150MHz PC verandert, maar ik kan er helemaal naast zitten! Ik heb zelf geen windows dus zal even zoeken of ik wat kan testen voor je.
Een probleem trouwens ook is dat ik bijna vast zit aan value ram omdat de support niet echt geweldig is voor geheugen met dit bord. Het moet een voltage hebben van 1.8 en de latency mag niet lager zijn dan 5-5-5
Mag niet lager zijn? Wat is dat nou voor onzin? :P
De SPD geeft aan wat het geheugen kan, maar de chipset (bij intel omdat die nog een FSB gebruikt) bepaalt op welke latency het geheugen gaat draaien; niet het geheugen zelf! CL2 geheugen zal om die reden dus ook gewoon op CL5 kunnen draaien, als de chipset dat zo nodig wilt. Normaal is het dat het BIOS/chipset naar de SPD kijkt (soort bios van het geheugen) om te kijken wat het geheugen aan kan, en die instellingen gebruikt.
- Nu even niet zeuren om de prestaties en later iets van een Rocketraid 2320 halen?
Dat kan, maar wees je bewust dat je dan opnieuw een array moet maken en dus alles moet backuppen!
Ik heb inmiddels een forum gevonden waar iemand RAID 5 draait op dat moederbord. Deze haalt 52 MB/sec read.
Read zou in principe niet of nauwelijks lager mogen zijn dan RAID0. Dus 52MB/s is echt te belachelijk voor woorden. Hm even gekeken en dit is Linux MD RAID5, dus niet fake RAID / driverraid / firmware raid, dus kun je absoluut niet vergelijken met de performance die je in windows gaat halen.

[ Voor 6% gewijzigd door Verwijderd op 27-03-2007 23:43 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op dinsdag 27 maart 2007 @ 14:49:
Maar het bord is al eerder in dit draadje langsgekomen en toen bleek dat hij voorzien van een Realtek RTL8211B LAN die (nog?) niet door FreeBSD wordt ondersteund (tenzij hij compatibel is met een andere Realtek chip?).
Laat nou net vandaag ondersteuning voor RTL8211B PHY zijn toegevoegd aan de rge-patch. :P

http://www.se.hiroshima-u...software/freebsd-nfe.html

Maar let op, een NIC bestaat uit MAC en een PHY. Het kan zijn van je een nVidia MAC hebt met RTL8211B PHY, beide moeten ondersteund worden! In de praktijk zijn met name de PHY's echter het probleem, omdat fabrikanten de specs hiervan zien als bedrijfsgeheim.
_eXistenZ_ schreef op dinsdag 27 maart 2007 @ 17:55:
- Hier ligt een Enermax 460Watt, en als ik ooit aan de 10 schijven kom is staggered spinup wel relext. Hoeveel tijd kost dit extra, en is dit mogelijk met software raid, bijv. de raid5 ondersteuning in FreeBSD?
Staggered spin-up heb je baat bij voor het opstarten, dan heeft FreeBSD daar niets mee te maken. Je controller moet het ondersteunen, en ik ken geen onboard controllers die dat doen. Staggered spin-up kun je voor zelfbouw NAS dus eigenlijk vergeten, tenzij je een hardware RAID kaart koopt. Maar 10x Samsung T166 500GB moet prima kunnen met 460W voeding. Kennis van me heeft CoolerMaster iGreen 430W die 11 schijven trekt voordat de overcurrent beveiliging zijn werk doet.
- Hoe mogelijk is het om onder FreeBSD software te draaien (Torrent, HTTP/FTP downloads) die een los 80GB HDDtje gebruikt als temp opslag, en zodra de download klaar is, even de array aanzwengelen en de zooi overpompen, waarna de array weer plat gaat? Is er zulke software?
Alles is te doen met cron scripts lijkt me (cron = een soort task scheduler). Torrents kun je ook gewoon draaien onder BSD idd. Alleen geen uTorrent. ;)
- Is een dergelijk pctje zoals hier al vaker is besproken (150-200 euro ex schijven) up to the challenge om 70MB/s te kunnen pompen? (Dus FreeBSD software raid5, een AMD 3200 oid, een paar nieuwe schijven van 320 of 500GB, de onboard controller of een kaartje via PCI-E, en een Intel Gbit NIC?)
70MB/s netto of bruto? Netto is zeker niet makkelijk, dan stel je best hoge eisen. Ik heb het nog niet zo ver kunnen krijgen met de testsetup van mainstream hardware. Bruto zal wel lukken. geom_raid5 zal het probleem niet zijn dat trekt 400MB/s mits de schijven dit toelaten. 8)
Pagina: 1 ... 4 ... 14 Laatste

Dit topic is gesloten.