Het grote DIY RAID NAS topic deel 2 Vorige deel Overzicht Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 3 ... 11 Laatste
Acties:
  • 138.291 views

Acties:
  • 0 Henk 'm!

  • Dirk
  • Registratie: November 2004
  • Laatst online: 12:57

Dirk

Coördinator frontpagemoderatie
Met wat voor kWh prijzen reken je? 1 kWh zit zo rond de 20-25ct afhankelijk van de verhouding van je vaste kosten en je verbruik en ook de aanbieder waar je van afneemt.

All statements are true in some sense, false in some sense, meaningless in some sense, true and false in some sense, true and meaningless in some sense, false and meaningless in some sense, and true and false and meaningless in some sense.


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 15-09 22:01
Naamgeving was niet helemaal correct. En er zaten wat brakke dingen in, post gewijzigd en voorzien van 'zinnige' dingen. Om antwoord te geven op je vraag: €0.23 per kWh.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • zyberteq
  • Registratie: Januari 2001
  • Laatst online: 07-08 14:09

zyberteq

nou, dat dus

Verwijderd schreef op dinsdag 06 mei 2008 @ 18:02:
Ik denk dat je schijf nu vrolijk in een (kapotte) array draait namelijk. ;)
nee, geen kapotte array, ik had die raid5 (4x500) al verwijderd. en ik kon dus met geen mogelijkheid de "nieuwe" schijven formatteren of toevoegen aan geom. ze worden netjes toegevoegd aan het Disk Management scherm, maar verder nergens.

maar ik heb al een oplossing gevonden:
ik heb eerst proberen te downgraden.. maar dat hielp niet, ook 0.686.2 en 0.686.1 geven dezelfde bug.
maar na een "factory reset" werkte het opeens wel weer.
denk dat het een vaag soort config bugje is. vooral omdat ik freenas upgrade en de config terugzet sinds ik freenas gebruik (vorig jaar juni ongeveer)

iig, freenas is nu vrolijk mijn nieuwe array (6x 500GB) aan het bouwen en zodra dat klaar is kan ik eindelijk verder. dus dan heb ik nog maar 8 schijven in mijn kast ipv 14. scheelt wéér een dot stroom

Ik heb nog een vraag trouwens...
weet iemand een PCI-e SATA kaart met 2 of 4 sata poorten die door FreeNAS ondersteund wordt?

[ Voor 7% gewijzigd door zyberteq op 16-05-2008 09:33 . Reden: vraag ]

[ Vocal Trance Radio @di.fm ] [ Building ] [ Driving ] [ Relaxing ]


Acties:
  • 0 Henk 'm!

  • Steephh
  • Registratie: Juni 2003
  • Laatst online: 18:06
Ik was net even met iemand in gesprek over Software RAID 5, maar wat zijn nu eigenlijk de daadwerkelijke verschillen tussen bijvoorbeeld geom_raid5 en zfs? Vooral qua snelheid en betrouwbaarheid.

[ Voor 11% gewijzigd door Steephh op 20-05-2008 13:58 ]

_@/'


Acties:
  • 0 Henk 'm!

  • !null
  • Registratie: Maart 2008
  • Laatst online: 11-09 14:00
Straks komen er dus boardjes uit met die Atom cpu, helemaal geweldig.
Maar weten jullie of er ook fanless boardjes uitkomen?

Ampera-e (60kWh) -> (66kWh)


Acties:
  • 0 Henk 'm!

  • tinus73
  • Registratie: Januari 2008
  • Laatst online: 18:25
Mooi topic.Ik zit er ook aan te denken om iets zelf te bouwen. Ik heb ook gekeken naar soho NASsen met Raid O, 1 en 5. Deze komen op de zelfde prijs (ongeveer) of goedkoper. Nu ben je met een DIY-NAS natuurlijk flexibeler.
Wat zijn jullie verdere afwegingen geweest om toch een DYI te maken en wat is het uiteindelijke stroomverbruik (gemeten!) van jullie creatie? Ik verwacht namelijk dat de uiteindelijke kosten van een kant-en-klare NAS vele malen goedkoper zijn.

Acties:
  • 0 Henk 'm!

  • Steephh
  • Registratie: Juni 2003
  • Laatst online: 18:06
tinus73 schreef op woensdag 21 mei 2008 @ 10:45:
Mooi topic.Ik zit er ook aan te denken om iets zelf te bouwen. Ik heb ook gekeken naar soho NASsen met Raid O, 1 en 5. Deze komen op de zelfde prijs (ongeveer) of goedkoper. Nu ben je met een DIY-NAS natuurlijk flexibeler.
Wat zijn jullie verdere afwegingen geweest om toch een DYI te maken en wat is het uiteindelijke stroomverbruik (gemeten!) van jullie creatie? Ik verwacht namelijk dat de uiteindelijke kosten van een kant-en-klare NAS vele malen goedkoper zijn.
Ik zou zeggen lees het topic eens door, dan lees je meer dan genoeg ervaringen en argumenten om toch voor een DIY RAID NAS te gaan. ;)

_@/'


Acties:
  • 0 Henk 'm!

  • tinus73
  • Registratie: Januari 2008
  • Laatst online: 18:25
Sorry klop ook, had het eerste topic niet vanaf pag 1 gelezen |:(
Maar ben toch wel benieuwd wat nu het 'normale' verbuik is. Hebben jullie ook een systeem met 10W idle en ca 30W normaal?

Acties:
  • 0 Henk 'm!

  • !null
  • Registratie: Maart 2008
  • Laatst online: 11-09 14:00
Ik heb nu een NAS systeem, een linksys NSLU2 met USB schijf (2.5), draait allemaal op de adapter van de NSLU2, welke max 10 watt kan leveren, dus in praktijk minder gebruikt. Daar draait linux (unslung) op welke wel aardig wat kan, er draait bijvoorbeeld ook (met moeite) torrentflux-b4rt op. Dit is gedaan met lighttpd+php+SQLite, apache + mysql gaat nog moeizamer.
Maar nu ga ik diezelfde USB harde schijf op een fanless mini-itx boardje aansluiten (VIA eden, 533 mhz), moet iets meer verbruiken maar dan heb ik wel een x86 architectuur en iets meer power(mhz), dus kan ik gewoon een volwaardige linuxserver draaien, alles installeren wat ik wil.

Ampera-e (60kWh) -> (66kWh)


Acties:
  • 0 Henk 'm!

Verwijderd

Steephh schreef op dinsdag 13 mei 2008 @ 08:21:
Raad je puur deze schijven aan vanwege de spin-down? De Samsung F1 1TB is toch een stuk sneller, dus ik zou die dan liever nemen aangezien deze ook nog eens goedkoper is? Of scheelt het in stroomverbruik met de WD Caviar GP 1TB dan zoveel dat het de moeite waard is iets tragere HD's te nemen tegenover het stroomverbruik?
De GP-schijf verbruikt slechts de helft in idle. Als je ze laat downspinnen heeft het weinig nut GP schijven te nemen, maar spindown op een actief gebruikte array (b.v. waar je 24/7 torrents naartoe gaan) heeft weinig zin. Als de schijven 24/7 draaien zou ik zeker GP schijven overwegen. De 25% lagere STR maak je goed door ze in RAID0 te schakelen. 4 van die dingen is toch alweer 300MB/s en dat is allang over gigabit heen. Qua latency kunnen de schijven nog wel trager zijn, omdat ze op 5400rpm draaien. Maar dat is meestal niet zo'n punt omdat een thuis NAS vooral data opslaat en niet 20.000 files van een of andere game die in een random-achtig patroon worden ingelezen. Bij dat laatste is je gigabit latency wellicht ook nog een issue.

In het verleden gebruikte ik een JBOD/concat array van 8 disks in combinatie met spindown. Het idee achter de JBOD was dat als ik een mp3tje luister of wat anders doe, dat maar van één schijf af komt en de rest dus downspinned kan blijven. In de praktijk zet mijn filesystem (UFS) bestanden niet contiguous (aaneensluitend) op de array en wordt bij het lezen van metainformatie ook meerdere schijven geraadpleegd, met het gevolg dus elke keer upspinnen van disks die een paar requests krijgen en dan weer niks staan te doen. Ik ben er vanaf gestapt, en nu komt die 8*8W = 64W 24/7 wel hard aan; dat moet beter kunnen dacht ik bij mezelf. :)

4W om 1000GB weg te stoppen en paraat te houden is prima te doen IMO. Maak er een leuke RAID0 van met 2 of meer disks, zorg voor een backup zoals een andere netwerk PC en je hebt een prima storage setup denk ik. Eventueel zou je RAID5 kunnen gebruiken, bij 4 of meer disks wordt dat wel interessant. De write performance is dan ongeveer 70% van de maximale geaggregeerde throughput, uitgerekend: (75 * (4-1)) * 0.70 = 157MB/s, prima te doen voor gigabit zou ik zeggen. :)

Met journaling erbij mag je het minimaal door de helft doen (* 0.40 als factor) dus zit je wel onder gigabit speed. Encryptie is afhankelijk van je CPU, een goede AMD dualcore gaat over de 100MB/s.
Dadona schreef op dinsdag 13 mei 2008 @ 12:49:
A) WD GP 500 GB WD5000AACS = 62 euro -> 3.01 watt idle, 6.53 watt actief
Heb je een URL? 3W is nog minder dan de 4W die ik heb gelezen; ben benieuwd naar de details. :)
Ik vind de keuze van enlightenment opvallend, want ze geeft juist aan dat ze aan spindown doet.
Sorry, ik had duidelijker moeten zijn.

Ik wil alleen spindown gebruiken op mijn 'oude' schijven (200GB/250GB/320GB/500GB) die elk 8W per stuk verbruiken in idle. Deze schijven gebruik ik als backup of als 'offline-array'; opslag die niet vaak verandert. Bijvoorbeeld mijn lange-termijn backups die moeten gewoon bewaard blijven en heb ik misschien pas over een jaar nodig. Wil ik toegang, moet ik dan 10 seconde wachten voor het opspinnen.

Voor mijn 'actieve' array gebruik ik dan wel 1TB GP schijven, een stuk of 4 tot 6 zou voldoende moeten zijn. Zet ik ze in RAID0 voor een leuke snelheid, de data wordt toch gebackupped. Geen spindown, dus voor mn 'actieve' data heb ik geen wachttijd. Deze mount ik dan als X: en de offline array bestaande uit oudere schijven als Z: die dan een wachttijd kent.

Acties:
  • 0 Henk 'm!

Verwijderd

Steephh schreef op dinsdag 20 mei 2008 @ 13:57:
Ik was net even met iemand in gesprek over Software RAID 5, maar wat zijn nu eigenlijk de daadwerkelijke verschillen tussen bijvoorbeeld geom_raid5 en zfs? Vooral qua snelheid en betrouwbaarheid.
ZFS is een filesystem met RAID-functionaliteit ingebouwd, geom_raid5 alleen een RAID5 driver&utility. geom_raid5 is sneller sequentiëel, betrouwbaarheid is minder makkelijk te meten.

Zowel ZFS als geom_raid5 hebben niet de ultieme test doorstaan om door een mission-critical server op een zwaarbelastte positie maandenlang te draaien. Pas na heel veel testen weet je zeker of iets goed werkt. Maar met huidige crashproblemen van ZFS onder bepaalde omstandigheden is duidelijk dat dit filesystem nog niet af is en er nog flink aan gesleuteld wordt. Ondertussen is het prima bruikbaar, maar garanties zijn er niet. De freebsd-current mailinglijst komen regelmatig ZFS bugs voorbij, in het veleden ook corruptiebugs. Maar dat betekent niet per definitie dat jij daar ook last van gaat krijgen. De betreffende bugs zijn inmiddels ook al gefixed. Maar het blijft experimentele software!

Mijn advies: vertrouw niet op één onderdeel afgezien of dat hardware of software is. Gebruik een mix, bijvoorbeeld ZFS en een losse backup met een ander filesystem of RAID-engine. Merk hierbij op dat als ZFS zelf corruptie zou vertonen, dit ook je backup zal verpesten wanneer je weer opnieuw synct. De backup kan niet weten of een file corrupt is, hooguit dat het verandert is. De backup zou wel een vorm van snapshots kunnen gebruiken zodat altijd nog naar een eerdere backup gegrepen kan worden. Zowel UFS als ZFS bieden deze functionaliteit. Ook kun je voor het maken van een backup je ZFS array kunnen scrubben: zoeken naar foute checksums en/of corruptie. Als deze feature probleemloos werkt zou je zo een corrupte backup kunnen voorkomen. De vraag is misschien: hoe ver wil je gaan om data nóg betrouwbaarder te maken? 100% veilig bestaat niet, en hoe dichter daartegen hoe duurder het prijskaartje. ;)
GreenSky schreef op dinsdag 20 mei 2008 @ 20:33:
Straks komen er dus boardjes uit met die Atom cpu, helemaal geweldig.
Maar weten jullie of er ook fanless boardjes uitkomen?
Die Atom met 20W Intel-chipset ernaast ja en een heel mooi maar traag PCI slotje en 10/100 ethernet onboard. Sorry maar dat platform kan me nog niet warm maken... zo snel is die Atom ook niet en we vergeten dat alleen het idle verbruik belangrijk is voor een 24/7 NAS. 1W is leuk maar een CPU met 25W TDP met een idle verbruik van 2W doe ik het ook voor. Zeker als die me meer performance geeft en/of goedkoper is.

Daarnaast is niet de CPU meer het probleem, maar het moederbord. De VRM en de chipset verbruiken in relatie met een low-power CPU gewoon teveel. Zeker Intel en nVidia chipsets zijn stroomvretertjes. SiS, ULi en AMD/ATi daarintegen juist zuinig(er). VIA weet ik niet goed, maar sinds dat die zich focussen op SBC en Mini-ITX zal de nadruk wel op energieverbruik liggen. Zelf zie ik bijvoorbeeld dit bordje wel als NAS gebruikt worden:

Afbeeldingslocatie: http://www.fluffles.net/images/VIA-Epia-SN-1.jpg

Afbeeldingslocatie: http://www.fluffles.net/images/VIA-Epia-SN-2.jpg

Heeft 4x SATA poorten, 1x PATA, Dual LAN: één PCI-express gigabit NIC en de ander een 10/100 PCI NIC. Daarnaast heb je één PCI-express x16 slot dus je kunt er een 16-poorts SATA RAID controller in kwijt zoals de betaalbare Highpoint RocketRAID 2340. Hiermee heb je al een aardige NAS denk ik voor weinig power. En helemaal passief gekoeld dus 100% stil. :)

[ Voor 5% gewijzigd door Verwijderd op 21-05-2008 19:02 ]


Acties:
  • 0 Henk 'm!

  • Bylie
  • Registratie: April 2002
  • Laatst online: 13:06
Verwijderd schreef op woensdag 21 mei 2008 @ 18:52:
Zelf zie ik bijvoorbeeld dit bordje wel als NAS gebruikt worden:

[afbeelding]

[afbeelding]

Heeft 4x SATA poorten, 1x PATA, Dual LAN: één PCI-express gigabit NIC en de ander een 10/100 PCI NIC. Daarnaast heb je één PCI-express x16 slot dus je kunt er een 16-poorts SATA RAID controller in kwijt zoals de betaalbare Highpoint RocketRAID 2340. Hiermee heb je al een aardige NAS denk ik voor weinig power. En helemaal passief gekoeld dus 100% stil. :)
In hoeverre heeft zo'n bordje genoeg power om bijvoorbeeld een NAS te maken met ZFS? Meestal wordt er, zachtjes ;), 64-bit CPU's aangeraden om hiermee aan de slag te gaan (wat de Isaiah volgens mij wel ging ondersteunen btw) plus liefst nog een goeie sloot geheugen. In hoeverre zou je een verschil merken tussen bijvoorbeeld zo'n VIA embedded bordje en een AMD 4050e + 780G chipset voor normaal thuisgebruik over gigabit LAN?

Acties:
  • 0 Henk 'm!

  • Bylie
  • Registratie: April 2002
  • Laatst online: 13:06
Verwijderd schreef op woensdag 21 mei 2008 @ 18:52:
Merk hierbij op dat als ZFS zelf corruptie zou vertonen, dit ook je backup zal verpesten wanneer je weer opnieuw synct. De backup kan niet weten of een file corrupt is, hooguit dat het verandert is. De backup zou wel een vorm van snapshots kunnen gebruiken zodat altijd nog naar een eerdere backup gegrepen kan worden. Zowel UFS als ZFS bieden deze functionaliteit. Ook kun je voor het maken van een backup je ZFS array kunnen scrubben: zoeken naar foute checksums en/of corruptie. Als deze feature probleemloos werkt zou je zo een corrupte backup kunnen voorkomen. De vraag is misschien: hoe ver wil je gaan om data nóg betrouwbaarder te maken? 100% veilig bestaat niet, en hoe dichter daartegen hoe duurder het prijskaartje. ;)
Heb inderdaad ook al tot mijn schande bijna dataverlies mogen ondervinden door een synchronisatie, gelukkig geeft het syncprogramma steeds een overzicht van wat er gaat gebeuren en toevallig zag ik daar wel heel vreemde directories en files opduiken wat er uiteindelijk op wees dat ik met een corrupt FS zat aan één kant en dat bijna gesynct had naar de andere kant (was een oneway sync).

In hoeverre beïnvloed zo'n scrub de levensduur van de disks? Als dit verwaarloosbaar zou zijn zou je een scheduled wekelijkse scrub kunnen doen om dan bij eventuele errors een mailtje te laten sturen oid.

Acties:
  • 0 Henk 'm!

Verwijderd

Bylie schreef op woensdag 21 mei 2008 @ 20:14:
In hoeverre heeft zo'n bordje genoeg power om bijvoorbeeld een NAS te maken met ZFS?
Weet ik niet. :)

I'm keen to find out, though. Ik wil binnenkort diverse moederborden gaan kopen waaronder een paar ITX bordjes en het energieverbruik gaan vergelijken, met als doel een geschikte 24/7 low-power NAS te bouwen.

Zolang je geen gekke dingen doet maar gewoon simpel RAID0/1 zou je geen problemen moeten ondervinden. Ga je ook compressie en andere dingen doen dan kan die 1GHz VIA cpu wel eens ernstig tekort komen. ook qua gigabit gaat hij het zwaar krijgen. Encryptie zou kunnen via VIA Padlock engine, hardware accelerated. Support daarvoor zou in FreeBSD moeten zitten, ik heb het nog niet getest omdat ik nog geen VIA hardware heb gebruikt.

Maar zo'n bordje als hierboven, als het goed werkt dan zie ik dat voor een simpele NAS wel komen. Probleem is dat het bordje nu nog aardig prijzig is, minimaal 2x dat van een 780G bordje. Dat gezegd zit er natuurlijk al wel een CPU op.

De scrub-feature in ZFS gaat gewoon alle files lezen, checksum uitrekenen en vergelijken met de checksum zoals ZFS geregistreerd heeft staan, en zodoende corruptie kunnen ontdekken. Dat zou niet de levensduur van je schijven mogen aantasten, alleen geeft wel een heftige CPU belasting zeker op die low-performance chips van VIA, en het duurt erg lang. Maar als je zoiets 's nachts doet met een scriptje zie ik geen probleem. :)

[ Voor 25% gewijzigd door Verwijderd op 21-05-2008 20:32 ]


Acties:
  • 0 Henk 'm!

  • Coenen
  • Registratie: September 2000
  • Laatst online: 15-09 21:01

Coenen

=LoT= IJsbier @ ET

Dit is misschien ook wel een handig bordje: VIA NAS 7800

Afbeeldingslocatie: http://www.via.com.tw/en/images/products/mainboards/segment/nas7800/nas-7800.jpg
The VIA NAS 7800 is powered by a low heat, energy-efficient 1.5GHz VIA C7® processor with the option of a fanless VIA Eden™ SKU, the VIA NAS 7800 boasts support for up to eight S-ATA II drives, two Gigabit ports. Security is assured with both a TPM module for key generation and storage while data encryption and decryption is performed through hardware using the integrated VIA PadLock Security Engine. An MFX module for comprehensive wake-up scheduling is included, allowing IT managers to further reduce energy costs.

Acties:
  • 0 Henk 'm!

Verwijderd

Gigabit en SATA via PCI of PCI-express? Ik heb er namelijk niks aan als het via PCI loopt, dat wil ik nooit meer. Afgezien daarvan ziet het er zeker stoer uit!

Even opgezocht:
1 x VIA VT6130 PCIe Gigabit Ethernet Controller
1 x VIA VT6122 PCI Gigabit Ethernet Controller (for NAS 7800-15LST)

Dus wel degelijk PCI-express. :)

Acties:
  • 0 Henk 'm!

  • Coenen
  • Registratie: September 2000
  • Laatst online: 15-09 21:01

Coenen

=LoT= IJsbier @ ET

Dus het is wel wat voor je? :)

Acties:
  • 0 Henk 'm!

Verwijderd

Nog even mailen of de SATA op volledige snelheid draait (dus niet zo'n Silicon Image PCI chipje om het aantal poorten van 4 naar 8 te brengen). Zo ja, dan is het zeker wel een interessant bordje. Wil ik wel gaan meebestellen ja. :)

Thnx voor de tip. _/-\o_

[ Voor 5% gewijzigd door Verwijderd op 21-05-2008 20:59 ]


Acties:
  • 0 Henk 'm!

  • Bylie
  • Registratie: April 2002
  • Laatst online: 13:06
Verwijderd schreef op woensdag 21 mei 2008 @ 20:59:
Nog even mailen of de SATA op volledige snelheid draait (dus niet zo'n Silicon Image PCI chipje om het aantal poorten van 4 naar 8 te brengen). Zo ja, dan is het zeker wel een interessant bordje. Wil ik wel gaan meebestellen ja. :)

Thnx voor de tip. _/-\o_
Is dit bordje wel beschikbaar voor de gewone consument aangezien ik ergens gelezen had dat het enkel voor "system builders" of met andere woorden appliance makers zou zijn. Volgend filmpje vermeld ook al dat het niet beschikbaar zal zijn voor de gewone consument : http://www.youtube.com/watch?v=g5xyJ9An4E8

Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 17:48
Bylie schreef op woensdag 21 mei 2008 @ 20:14:
[...]

In hoeverre heeft zo'n bordje genoeg power om bijvoorbeeld een NAS te maken met ZFS? Meestal wordt er, zachtjes ;), 64-bit CPU's aangeraden om hiermee aan de slag te gaan (wat de Isaiah volgens mij wel ging ondersteunen btw) plus liefst nog een goeie sloot geheugen.
Ik zou wachten tot de Isaiah beschikbaar is mocht je voor een Epia platform gaan icm ZFS. De Isaiah is een flinke evolutie tov. de C7 met onder andere OoOE en x86-64 extensies. ZFS draait lekkerder op een 64bit platform.
Ook moet je even begrijpen dat ZFS een combinatie van volume manager en bestandssysteem is (zoals je onder linux bijvoorbeeld softRaid5 + LVM zou kunnen gebruiken). Ik kon niet goed uit je post halen of je het verschil snapt.
De Raid5-achtige implementatie binnen ZFS heet RaidZ. (Raid6 == RaidZ2)
Deze verschillen echter wezenlijk qua performance.
Ik zou als richtlijn min. 1GB voor ZFS aanhouden. Liever teveel dan te weinig en geheugen is cheap.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

Verwijderd

Isaiah is iets waar ik naar uitkijk ja, de architectuur ziet er veelbelovend uit (check de preview op The Tech Report) en het idle verbruik zou door de vele stroombesparende features heel laag gehouden kunnen worden, terwijl je wel net dat beetje extra juice hebt voor je veeleisende applicaties. Een iets hogere TDP vind ik niet erg, zolang het idle verbruik maar zo laag mogelijk blijft. Dat is in feite het enige wat telt.

RAID-Z is leuk maar niet expandable, en zelf vond ik de performance nogal tegenvallen. ZFS op geom_raid5 doet het sneller. Voordeel van RAID-Z is dat ZFS over redundantie beschikt en daarmee automatisch corruptie kan corrigeren: het heeft namelijk net als een mirror de beschikking over een alternatief voor de betreffende data. De kans op corruptie is echter niet groot, vooral bugs eigenlijk.

Acties:
  • 0 Henk 'm!

Verwijderd

Hoi allemaal, ik ben van plan ook een NAS te bouwen, maar ik zit met wat vraagjes en zou graag jullie gedacht hierover even willen weten.

Doelstelling:
Een zo goedkoop mogelijk NAS bouwen met RAID5 die zo weinig mogelijk stroom verbruikt.

Voor hardware had ik het volgende in gedachten:
Intel Pentium Dual-Core E2140 (Boxed, FC-LGA4)
MSI 945P Neo5-F (Gb-LAN, Sound, ATX)
Kingston ValueRAM 512 MB DDR2-667 (KVR667D2N5/5122)
Cooler Master Centurion 5 (nog niet zeker)
4 x Western Digital Caviar SE16 (Bulk, WD5000AAKS)

Vraagjes:
- hou zou dit ding performen met geom_raid5
- ik heb nog een zalman 400w voeding liggen, maar is dat niet wat overkill voor dit systeem, het moet een zo zuinig mogelijk systeem worden dus koop ik beter een nieuwe en efficientere voeding en zoja met hoeveel watt kom ik dan doe?

Acties:
  • 0 Henk 'm!

Verwijderd

Intel chipsets en Intel processoren staan niet bekend om hun lage energieverbruik, is er een speciale reden dat je Intel wilt of wil je ook andere opties overwegen? Idle verbruik van low-end Intel CPUs is mij overigens onbekend.

Zelf zie ik meer heil in de goedkope AMD Athlon X2 4850e chips met 45W TDP; die verbruiken zo'n 5W idle. Combineer met een energiezuinige chipset (geen Intel en geen nVidia) en je zou een zuinig systeempje moeten hebben. ECS heeft bijvoorbeeld een AMD 740G bordje voor rond de 40 euro, met solid capacitors op de VRM, PCI-express, Gigabit en 6x SATA onboard. Lijkt me best geschikt als NAS bordje.

Waarvoor ga je je NAS gebruiken, voor grote bestanden? Is het dan niet verstandiger WD GP schijven te nemen ipv AAKS? Scheelt je weer 4*4 = 16W continu idle verbruik. Qua voeding: 4 schijven betekend 4 * 33W = 133W piekvermogen + je systeem dus 200W voeding zou afdoende moeten zijn. Kies een voeding met 80-plus certificaat die ook onder 15% load een hoge efficientie heeft. 80% efficienctie @ 80% load is leuk, maar als die maar 50% efficient is bij 50W verbruik dan heb je alsnog een onzuinige voeding die veel warmte opbouwt en energie verspilt.

Performance wil je > 100MB/s hebben, non-sequential performance is veelal geen issue omdat een NAS vooral grote bestanden opslaat (databestanden iig, geen applicatieschijf). Met 2 schijven in RAID0 haal je dat dus al. 4 schijven in RAID5 zou ook boven de 100MB/s liggen, tenzij je journaling wilt gebruiken. Dan ligt de write wel onder de 100MB/s.

[ Voor 14% gewijzigd door Verwijderd op 22-05-2008 17:29 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Nou ik overweeg alles zolang het maar zuinig is in verbruik. Zal zeker die AMD overwegen.

Qua schijven moeten ze niet specifiek op grote of kleine bestanden zijn gericht, voor mij voornamelijk films & series maar voor men pa is het bijvoorbeeld voor hopen kleine bestanden, maar die kan ik gezamelijk in grotere rar files steken. Maar als die GP schijven wat besparen zal ik die eens bekijken.

Qua performance is rond de 100MB/s meer dan genoeg. Ik moet maar 1 keer al men huidige bestanden overzetten en daarna gaat het om relatief kleine overdrachten.

[ Voor 12% gewijzigd door Verwijderd op 22-05-2008 17:42 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Oke, overweeg dan het gebruik van journaling. Dat biedt de beste zekerheid tegen gegevensverlies door unclean shutdowns, reboots, crashes en stroomproblemen. Wilde je trouwens FreeNAS of FreeBSD(7) gebruiken?

Acties:
  • 0 Henk 'm!

Verwijderd

FreeBSD, heb ik al wat ervaring mee en kan ik dan nog makkelijk customizen, simpel mini http servertje derop of iets dergelijks

Acties:
  • 0 Henk 'm!

  • ImpactMaster
  • Registratie: Juli 2006
  • Laatst online: 09-07-2023
Ik ben van plan om mijn server te gaan uitbreiden. Maar ben er nog niet uit wat de beste(/geen gods vermogen kost) oplossing is. Ik verwacht dat ik meer ruimte nodig ga hebben, dus wil een uitbreidbaar systeem. Wat ik dus nu niet heb, maar wel wenselijk is. Ik draai nu mijn raid 5 op een FastTrak TX4310 maar deze kaart accepteert het niet als er een 2de bij komt (heb ik begrepen van Promise). Ik heb het probleem gehad dat de controller offline was gegaan, ik moest de raid verwijderen en maar hopen dat de data nog beschikbaar zou zijn. Dit is gelukt maar hierdoor heb ik wel het vertrouwen verloren in het product, om de data veilig te houden heb ik een 2de server geplaatst met dezelfde controller en hard drives. Deze server dient als backup van de 1ste server. Maar zoals bij iedereen blijft de data groeien... en de snelheid om de data te krijgen is te laag.

Op dit moment heb ik 3 servers die ik wil verenigen;
Server 1:
CPU: AMD Sempron, 1800 MHz (9 x 200) 3000+ Socket 940
Motherboard: AOpen AK86-L (5 PCI, 1 AGP, 3 DDR DIMM, Audio, Gigabit LAN)
Motherboard Chipset: VIA VT8383 Apollo K8T800, AMD Hammer
System Memory: 1536 MB (PC3200 DDR SDRAM) 1 GB + 2x 256 MB (3.0-3-3-8 @ 200 MHz)
Boot Drive: WDC WD800JB-00JJC0 (74 GB, IDE)
SCSI/RAID Controller: Windows Promise FastTrak TX4310 - 4 Disk RAID5 SCSI Disk Device (894 GB)
Network Adapter Intel(R) PRO/1000 GT Desktop Adapter
Case: Chieftec UNC-410F-B

Server 2:
CPU Type 2x Intel Pentium III-S, 1266 MHz (9.5 x 133)
Motherboard: Tyan S2518 Thunder LE-T (2 PCI64, 4 DIMM, Video, LAN)
Motherboard Chipset: ServerWorks NB6635 Champion LE
System Memory 1536 MB
Boot Drive: WDC WD800JB-00JJC0 (74 GB, IDE)
SCSI/RAID Controller: Windows Promise FastTrak TX4310 - 4 Disk RAID5 SCSI Disk Device (894 GB)
Network Adapter Intel(R) PRO/1000 GT Desktop Adapter
Case: Coolermaster Mystique 631

Server 3:
CPU Type: Intel Pentium 4 630 @ 3000 Ghz 775 LGA
Motherboard: Intel GrantsDale CRB Board
Motherboard Chipset: Intel i915GV
System Memory 4096 MB waar van 3072 beschikbaar is voor het systeem
Boot Drive: raid 1 (2x)320 western Digital
Case: Tyan GS14

Ik zou dus graag een 16 of meer hdd server neerzetten. 8 hdd in raid 5 of 5ee voor de data en hierna uitbreiden naar 16 //en minimaal 2 schijven in raid 1 voor Windows 2003 server. Mij lijkt de Adaptec RAID 31605 een mooie kaart om de 16 schijven aan te koppelen. En ik heb een kast gevonden die 16 schijven kan huizen en 1 cd/dvd slim drive en floppy/hdd maar deze kast is maar 3u hoog. En naar mijn weten zijn er geen stille voedingen van 3 u die een performers hebben van 600+ (16x 33wat piek)+(2x33 wat piek)+mobo en pross.

Graag hoor ik van jullie of een passende oplossing weten, of met de huidige hardware met een aanvulling mijn wens te verwekelijken is. Alvast bedankt!!!

Acties:
  • 0 Henk 'm!

  • !null
  • Registratie: Maart 2008
  • Laatst online: 11-09 14:00
Ik kom ook nog even tussendoor met een vraagje. Ik heb nu Debian geinstalleerd op een flash disk van 512 mb, mbv het base/netinstall cdtje. En dan verder geen extra dingen geinstalleerd. Ik dacht dat het dan maar iets in de trant van 60 mb zou innemen. Maar het heeft al 220 mb ingenomen. Is geen ramp, ik kom er wel.
Of raden jullie een ander OS aan?

Die flash diskjes zijn wel leuk trouwens, gewoon van Transcend, flash IDE modules. Kosten niet veel (met linux heb je ook niet zoveel nodig) en je kan netjes data (hdd's) van OS (flash disk) scheiden zoals kleine NAS apparaatjes dat ook doen. En op IDE kan je alles installeren zonder gezeik.
Waarschuwing, die flash modules nemen wel je hele IDE socket in beslag, dus er kan dan geen IDE drive meer naast (tenzij je uiteraard een 2e IDE socket op het mobo hebt)

Ampera-e (60kWh) -> (66kWh)


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 13:32

Q

Au Contraire Mon Capitan!

GreenSky schreef op donderdag 22 mei 2008 @ 23:10:
Ik kom ook nog even tussendoor met een vraagje. Ik heb nu Debian geinstalleerd op een flash disk van 512 mb, mbv het base/netinstall cdtje. En dan verder geen extra dingen geinstalleerd. Ik dacht dat het dan maar iets in de trant van 60 mb zou innemen. Maar het heeft al 220 mb ingenomen. Is geen ramp, ik kom er wel.
Of raden jullie een ander OS aan?
Je kunt beter voor 15 euro een 1 gb flash disk kopen dan om die reden van os te switchen. Met 512 mb red je het prima met Debian, mits je geen gekke software er allemaal bij wil.
Die flash diskjes zijn wel leuk trouwens, gewoon van Transcend, flash IDE modules. Kosten niet veel (met linux heb je ook niet zoveel nodig) en je kan netjes data (hdd's) van OS (flash disk) scheiden zoals kleine NAS apparaatjes dat ook doen. En op IDE kan je alles installeren zonder gezeik.
Waarschuwing, die flash modules nemen wel je hele IDE socket in beslag, dus er kan dan geen IDE drive meer naast (tenzij je uiteraard een 2e IDE socket op het mobo hebt)
Mijn storage doos draait debian op een 2gb cf via zo'n ide converter en dat werkt inderdaad prima.

Acties:
  • 0 Henk 'm!

Verwijderd

CompactFlash zonder wear-leveling zoals die losse kaartjes gaat snel kapot. Vooral als je logs ook op die disk komen, of je moet aan delayed writes doen zoals SoftUpdates op FreeBSD. Daarmee spaar je de writes op tot standaard 30 seconden, zodat je niet per seconde bijv. 30 keer naar dezelfde sector schrijft. Want dat gaat je flash kaartje niet fijn vinden. ;)

Of je nou Linux of FreeBSD fijner vindt werken dat is persoonlijk, probeer ze beide eens uit of verdiep je er enigszins in om de keus te maken welke voor jou het meeste geschikt is. Als je al (command-line) Linux ervaring hebt dan is dat natuurlijk mooi meegenomen, maar veelal is die kennis ook toepasbaar op BSD en andere UNIX-achtige operating systems. Dus je kennis is niet opeens waardeloos als je van OS switcht.

@ImpactMaster: je hebt veel geluk gehad met het opnieuw maken van de array; bij enige andere variabele (stripe-size of disk-order) had je al je data gecorrupteert; zeer riskant! In de toekomst kun je een broken array beter recoveren met FreeBSD, ik heb van diverse mensen waaronder op GoT data weten te recoveren via FreeBSD, terwijl ze zelf hardware of onboard RAID gebruikten.

Over je plan:
1) je hebt niet zo'n sterke voeding nodig als je een controller kiest met Staggered Spinup, zoals de Highpoint RocketRAID 2340 (hardware-assisted) met 16 poorten; best leuke controller voor een goede prijs. Je kunt er zelf voor kiezen hardware RAID of software RAID te draaien; ik raad het laatste aan.
2) je wilt uiteindelijk naar 16 disks in RAID5 gaan, dat is niet echt veilig meer te noemen, vooral als je geen backup hebt. Ik raad een backup sowieso aan. Zelf vind ik een RAID0 setup en een backup daarnaast in RAID5 de beste setup maar ieders wensen en situatie verschilt.
3) eventueel kun je je arrays splitsen, zodat je b.v. 4TB als actieve dataset hebt en een ander gedeelte als 'passief' beschouwt en daar spin-down op inschakelt.
4) gebruik PCI-express voor alles; geen PCI. Zeker als je in een nieuwe setup investeert!

[ Voor 6% gewijzigd door Verwijderd op 23-05-2008 07:03 ]


Acties:
  • 0 Henk 'm!

  • !null
  • Registratie: Maart 2008
  • Laatst online: 11-09 14:00
Q schreef op donderdag 22 mei 2008 @ 23:54:

Mijn storage doos draait debian op een 2gb cf via zo'n ide converter en dat werkt inderdaad prima.
Ja ik weet niet of dat een goed idee is, maar het zal in de praktijk wel meevallen. Voordeel van zo'n converter met CF kaartjes is dat de kaartjes nog goedkoper zijn dan het spul waar ik mee werk. Ik doelde op deze dingen:
http://shop.transcend.nl/...ory.asp?Cid=24&indexnum=4
Al hebben ze ook andere interessante flash dingen, kijk maar onderin het menu.

Ampera-e (60kWh) -> (66kWh)


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op donderdag 22 mei 2008 @ 18:26:
Oke, overweeg dan het gebruik van journaling. Dat biedt de beste zekerheid tegen gegevensverlies door unclean shutdowns, reboots, crashes en stroomproblemen. Wilde je trouwens FreeNAS of FreeBSD(7) gebruiken?
welk filesystem zou ik het best gebruiken ? ext3 dacht ik maar support UFS of ZFS geen journalling?
zou ext3 minder performen?

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 15-09 22:01
Enlightenment, je geef iedere keer aan dat je voor pci-e moet gaan en niet voor pci, maar waarom zou je niet een gigabit lan kaartje in een pci slot steken? Het grote probleem van pci is dat de snelheid omlaag gaat als je meerdere pci sloten tegelijk gebruikt (hetzelfde als met usb). Maar als je maar één pci slot gebruik dan is er toch niets aan de hand? Of is pci belastender voor de cpu dan pci-e? Qua snelheid moet het in ieder geval kunnen.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 15-09 22:01
Verwijderd schreef op woensdag 21 mei 2008 @ 18:24:
[...]
Heb je een URL? 3W is nog minder dan de 4W die ik heb gelezen; ben benieuwd naar de details. :)
De 500gb GP versie van WD

hmm had net zo goed de edit kunnen pakken... :X

[ Voor 6% gewijzigd door Dadona op 24-05-2008 00:46 ]

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 23 mei 2008 @ 18:26:
welk filesystem zou ik het best gebruiken ? ext3 dacht ik maar support UFS of ZFS geen journalling?
zou ext3 minder performen?
Ext3 is er niet voor FreeBSD en heeft maar 'lichte' journaling. UFS heeft van zichzelf geen journaling maar Soft-Updates; een coole techniek die op kale non-write-back mechanismen prima werkt. Op RAID5 arrays is het minder effectief en kun je nog steeds corruptie krijgen bij ongewone situaties. FreeBSD7 heeft ondersteuning voor sterke journaling - geom_journal - iets wat Linux niet heeft. Met sterke journaling heb je een ijzersterk filesystem dat heftige write-back mechanismen kan beveiligen en dus een prima keuze is voor optimale zekerheid.

De nadelen: werkt alleen met FreeBSD7 en hoger, impliceert de keuze voor het UFS filesystem en het haalt je sequentiële schrijfsnelheid met minimaal de helft naar beneden omdat alle bytes dubbel naar disk worden geschreven. Eerst naar de journal, en daarna naar de uiteindelijke locatie. geom_journal kan voor kleine updates echter wel snelheidswinst opleveren; alleen het schrijven van grote bestanden is duidelijk langzamer. Maar afhankelijk van jouw situatie kan dat meer dan genoeg zijn.
Dadona schreef op vrijdag 23 mei 2008 @ 21:36:
Enlightenment, je geef iedere keer aan dat je voor pci-e moet gaan en niet voor pci, maar waarom zou je niet een gigabit lan kaartje in een pci slot steken?
Omdat PCI een hogere latency en hogere CPU belasting kent. 30% op een dualcore vind ik te gek worden, PCI is erg heftig qua interrupts. Misschien dat polling minder CPU belasting kost maar dat ondersteunt afaik niet elke kaart.

Qua snelheid lever je gewoon veel in, ook al heb je maar één PCI slot in gebruik zoals ik. Ik heb getest met 2 disks op PCI en 2 disks op PCIe en in gstat kun je zien dat de latency van PCI gewoon stukken hoger ligt. De exacte cijfers kan ik even niet vinden, misschien dat ik dit nog een keer goed uittests en op mn site zet ofzo.

Het probleem van PCI is dat er al best wat PCI apparaten in gebruik zijn ook al zijn al je PCI slots leeg, alle super I/O, audio, soms onboard ethernet, PS/2, USB en nog veel meer spul loopt op één PCI bus. Als één apparaat de PCI bus wilt, ben je hem gelijk voor 32 of 64 kloktikken kwijt. Dat kan de latency ernstig doen fluctueren. Iedereen praat over MB/s maar latency wordt niet genoemd, omdat het vaak niet wordt begrepen. Maar uiteindelijk kun je alle performance uitdrukken in wachttijd dus latency is voor alle I/O superbelangrijk. Mijn tests toonden aan dat PCI trager was ook al was de throughput met 14.4MB/s duidelijk onder de grens van PCI - 133MiB/s. Staar je dus niet blind op de bandbreedte - het is de latency die PCI zo onaantrekkelijk maakt. En daarnaast de CPU belasting.

Waarom zou je wél PCI willen? PCI-express is beter in alle opzichten, gewoon doen dus. :)
Oke, maar dit is de 500GB versie, de 1TB versie verbruikt wel 4W. Gek genoeg stelt hardware.info dat de RE2 versie van de GP 1TB schijf een iets lager verbruik heeft, terwijl andere bronnen op internet juist de RE2 GP versie op iets over de 4W stellen. Misschien dat nog uitmaakt precies welk model je hebt dat daar nog aan getuned is oid. :)

Zelf heb ik liever 1TB voor 4W dan 2x500GB voor 2x3=6W; uiteindelijk gaat het mij om zo'n laag mogelijk verbruik en hoe minder schijven hoe beter. Bedenk ook dat minder schijven minder ruimte inneemt en minder van je voeding vraagt tijdens het opspinnen. Daar tegenover staat dat meer schijven je meer snelheid opleveren in striping RAID configuraties. Maar je haalt al snel genoeg voor gigabit dus dit is wellicht niet zo'n punt voor een NAS.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 13:32

Q

Au Contraire Mon Capitan!

Verwijderd schreef op vrijdag 23 mei 2008 @ 07:01:
CompactFlash zonder wear-leveling zoals die losse kaartjes gaat snel kapot. Vooral als je logs ook op die disk komen, of je moet aan delayed writes doen zoals SoftUpdates op FreeBSD. Daarmee spaar je de writes op tot standaard 30 seconden, zodat je niet per seconde bijv. 30 keer naar dezelfde sector schrijft. Want dat gaat je flash kaartje niet fijn vinden. ;)
GreenSky schreef op vrijdag 23 mei 2008 @ 10:39:
[...]


Ja ik weet niet of dat een goed idee is, maar het zal in de praktijk wel meevallen. Voordeel van zo'n converter met CF kaartjes is dat de kaartjes nog goedkoper zijn dan het spul waar ik mee werk. Ik doelde op deze dingen:
http://shop.transcend.nl/...ory.asp?Cid=24&indexnum=4
Al hebben ze ook andere interessante flash dingen, kijk maar onderin het menu.
Onder linux kun je deze tips ter harte nemen om de levensduur van je CF te verlengen:
http://www.cyrius.com/debian/nslu2/linux-on-flash.html

Ik maak zelf af en toe een dd van de CF als ik dan nodig vind. Heb backup CF liggen mocht het mis gaan.

Ik wist niet dat er zelfs kant-en-klare ide-flashdisks bestaan. Veel kosten ze niet.

[ Voor 28% gewijzigd door Q op 25-05-2008 00:08 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Ik heb een tijdje FreeNAS 686.3 gedraaid op een oude Sempron 2200+, met 2x 160 GB in RAID 1 en 2x 200 GB los. Aangezien ik toch een beetje ruimte (fysiek en qua opslagcapaciteit) tekort kwam heb ik besloten om een wat grotere kast te kopen en tegelijkertijd een nieuw moederbord aangezien de 2 PCI poorten al bezet waren met een IDE RAID en een SATA RAID controller.
Nu dus over op een MSI P35 Neo2-FR met 5x intern en 2x externe SATA poorten en ook die IDE RAID (Promise FastTrak 100) en SATA RAID (Sil3112) erin.

Heb nu wel FreeBSD 7.0-STABLE erop gezet aangezien ik ook wel eens script in PHP enzo en ik ook al een colobak heb met FreeBSD 6.2-STABLE erop en toch wel wat meer vrijheid wilde qua applicaties. Daarnaast is ook de hardware support een stuk beter omdat ik de onboard SATA poorten van de ICH9R chipset niet goed werkend kreeg bij 686.3 (die gebaseerd is op 6.2-RELEASE-p11, hij liep vast bij het mounten) en bij FreeBSD 7.0-STABLE wel.
Enige nadeel is wel dat DHCP niet goed werkt met de onboard Realtek controller (RTL1111b geloof ik zo snel uit mijn hoofd), maar dat gebruik ik toch niet ;)
Heb nu 2x 160 GB nog in RAID1 staan via die Promise en die 2x 200 GB in een ZFS pool want dat wilde ik ook eens uitproberen en het bevalt erg goed! Lekker makkelijk ook dat alles met maar 2 commands gaat *O*

Nou maar eens doorsparen voor een wat snellere CPU want die Pentium 4 530 is toch niet zo heel snel :X (wordt officieel ook niet ondersteund door het moederbord maar ik had er nog een liggen). Ook komt er zsm 2x 750 GB (of 2x 1TB) aangezien die 160 GB en 200 GB schijven 3 jaar oud zijn (dat is ook voornamelijk de reden waarom ik ze allebei laat mirroren ;) )

Ook maar ff wat pics erbij doen ;)
Voorkant nieuwe kast:
Afbeeldingslocatie: http://farm3.static.flickr.com/2083/2509677560_50ccec6547.jpg
Ruimte in nieuwe kast *O* (past evt. nog E-ATX in)
Afbeeldingslocatie: http://farm3.static.flickr.com/2036/2509680840_9a31f0f108.jpg
Schijven (nog niet allemaal aangesloten)
Afbeeldingslocatie: http://farm4.static.flickr.com/3191/2508853353_5280a414bc.jpg

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 13:32

Q

Au Contraire Mon Capitan!

Ha, ik heb de kleinere broer van die kast. Niet zo ruim als deze hoor, maar ruim genoeg en wel mooi.

Acties:
  • 0 Henk 'm!

  • Tomba
  • Registratie: Mei 2000
  • Laatst online: 10:49

Tomba

Quis custodiet ipsos custodes?

* Tomba draait momenteel FreeBSD 7.0 RC1
code:
1
2
3
olympos Tomba /usr/home/Tomba # uname -a
FreeBSD olympos.bt.local 7.0-RC1 FreeBSD 7.0-RC1 #0: Mon Dec 24 10:10:07 UTC 2007  
root@driscoll.cse.buffalo.edu:/usr/obj/usr/src/sys/GENERIC  amd64

Ik zie echter dat inmiddels (al een tijdje zelfs ;)) 7.0 Release uit is ! Kan ik deze gewoon upgraden mbv de 1e installatieCD ?

tomba.tweakblogs.net || Mijn V&A


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Tomba schreef op woensdag 28 mei 2008 @ 12:38:
* Tomba draait momenteel FreeBSD 7.0 RC1
code:
1
2
3
olympos Tomba /usr/home/Tomba # uname -a
FreeBSD olympos.bt.local 7.0-RC1 FreeBSD 7.0-RC1 #0: Mon Dec 24 10:10:07 UTC 2007  
root@driscoll.cse.buffalo.edu:/usr/obj/usr/src/sys/GENERIC  amd64

Ik zie echter dat inmiddels (al een tijdje zelfs ;)) 7.0 Release uit is ! Kan ik deze gewoon upgraden mbv de 1e installatieCD ?
http://www.freebsd.org/do...andbook/cutting-edge.html

Veel lees plezier gewenst ;) Heel moeilijk is het niet : Het duurt even, maar dan heb je ook wat !!

Je kan het ook eventueel hiermee doen als je in een luie bui bent af en toe : http://www.freebsd.org/cg...ports/sysutils/sysupdate/ :+

Discalimer : Als optie #2 je systeem verpest of niet goed update ben ik niet schuldig. Sowieso is het handig om te weten hoe je het zelf moet doen sinds dit je dan kan redden over het algemeen !!

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

Verwijderd

Tomba schreef op woensdag 28 mei 2008 @ 12:38:
* Tomba draait momenteel FreeBSD 7.0 RC1
code:
1
2
3
olympos Tomba /usr/home/Tomba # uname -a
FreeBSD olympos.bt.local 7.0-RC1 FreeBSD 7.0-RC1 #0: Mon Dec 24 10:10:07 UTC 2007  
root@driscoll.cse.buffalo.edu:/usr/obj/usr/src/sys/GENERIC  amd64

Ik zie echter dat inmiddels (al een tijdje zelfs ;)) 7.0 Release uit is ! Kan ik deze gewoon upgraden mbv de 1e installatieCD ?
Kan je doen, maar als je toch bezig bent met upgraden, zou ik het gewoon meteen naar 7.0-STABLE upgraden. Is iets moeilijker maar met deze tutorial kom je er ongetwijfeld uit. Is wel voor i386 maar veel meer dan de mapnaam verschilt het (tot zover de tutorial) niet ;)

Zit trouwens te kijken of ik mijn NAS niet wat stiller kan krijgen want die Intel Boxed Cooler die ik er nu op heb zitten maakt echt veel lawaai (50 dB(A) ), dit zou dan waarschijnlijk een Scythe Ninja gaan worden. Naast de CPU koeler ben ik ook van plan om m'n voeding een upgrade te geven want dat is een inmiddels iets van 4 jaar oude AOpen van 350W en zij staan niet echt bekend om hun goede en efficente voedingen :+ Hier nog tips waar ik het beste naar kan kijken? Zat zelf te kijken naar de OCZ StealhXStream of de Corsair CMPSU-450VX

Waarom? OCZ is een naar mijn idee wat bekender merk wat me gevoelsmatig al een stuk meer vertrouwen geeft en de 600W versie heeft ook flink wat awards weten te ontvangen. Ik wilde dan zelf voor de 500W versie gaan omdat die toch een kleine 20 e goedkoper is en waarschijnlijk toch niet meer nodig heb. Er zitten nu in totaal 5 HD's bij en daar wil ik over niet al te lange tijd nog 2 a 3 schijven bijplaatsen.
Corsair is voor mij een vertrouwd merk en straalt ook professionaliteit uit. De 450W is helaas niet modulair maar ze geven wel 5 jaar garantie op hun spullen wat mij ook wel een teken geeft van dat het goed spul is ;) enige nadeel is dat de prijs van de 450W Corsair even hoog ligt als de 600W van OCZ en daarom dan ook meer neig naar dit merk, vooral ook omdat ik nooit aanspraak heb hoeven maken op de garantie van een voeding van de vele computers die ik hier in huis heb staan. Wat zijn jullie ervaringen met deze merken?

Acties:
  • 0 Henk 'm!

  • phobosdeimos
  • Registratie: Augustus 2007
  • Laatst online: 17:29
Is er een ATX case op de markt, die speciaal gericht is op dit soort projecten?
Dan bedoel ik dus een case waar al een hot-swap SATA bay in steekt, voor een stuk of 5 schijfjes bijvoorbeeld...
Dat je gewoon langs voor je schijfjes kan inpluggen.

Acties:
  • 0 Henk 'm!

  • basprofessional
  • Registratie: Januari 2005
  • Laatst online: 15-09 06:32
phobosdeimos schreef op zaterdag 31 mei 2008 @ 11:33:
Is er een ATX case op de markt, die speciaal gericht is op dit soort projecten?
Dan bedoel ik dus een case waar al een hot-swap SATA bay in steekt, voor een stuk of 5 schijfjes bijvoorbeeld...
Dat je gewoon langs voor je schijfjes kan inpluggen.
Coolermaster Itower:
http://www.trustedreviews...oolerMaster-iTower-930/p1

Acties:
  • 0 Henk 'm!

Verwijderd

Ik heb sinds vrijdag alle onderdelen van men fileserver aangekregen, ben nu al sinds vrijdag bezig het volledig inorde te krijgen.

Heb uiteindelijk voor de volgende onderdelen gekozen:
GigaByte MA78GM-S2
AMD Athlon? 64 X2 4850E
3 x WD5000AACS
1 x WD5000AAKS (had ik nog liggen)
Kingston ValueRam 512MB DDR2

Heb nu enkele problemen waar ik niet om heen geraak:
- Het moederbord heeft een RTL8111C NIC en daar bestaat geen driver voor FreeBSD7 voor
nu heb ik dan tijdelijk een 100mbit oud realtek prul dat wel perfect werkt erin gestoken
- FreeBSD kan onmogelijk booten als de schijven in RAID of AHCI mode staan, ik krijg dan een BTX halted fout, daarom draai ik ze nu als native IDE wat geen probleem zou zijn ware het niet dat freebsd geen dma mode hoger dan UDMA33 wilt instellen!
ik doe "atacontrol mode ad4 UDMA133" en ik krijg terug "current mode = UDMA33"
labelen alleen al duurt dus enorm lang (zon 400 minuten) terwijl de processor nauwelijks iets doet

iemand die me kan helpen met deze problemen?

Dmesg:
code:
1
2
3
4
5
atapci1: <ATI IXP700 UDMA133 controller> port 0x1f0-0x1f7,0x3f6,0x170-0x177,0x376,0xfa00-0xfa0f at device 20.1 on pci0
ad4: 476938MB <WDC WD5000AACS-00ZUB0 01.01B01> at ata2-master UDMA33
ad5: 476940MB <WDC WD5000AACS-00ZUB0 01.01B01> at ata2-slave UDMA33
ad6: 476940MB <WDC WD5000AACS-00ZUB0 01.01B01> at ata3-master UDMA33
ad7: 476940MB <WDC WD5000AAKS-00TMA0 12.01C01> at ata3-slave UDMA33

[ Voor 22% gewijzigd door Verwijderd op 01-06-2008 12:37 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zondag 01 juni 2008 @ 12:19:
Ik heb sinds vrijdag alle onderdelen van men fileserver aangekregen, ben nu al sinds vrijdag bezig het volledig inorde te krijgen.

Heb uiteindelijk voor de volgende onderdelen gekozen:
GigaByte MA78GM-S2
AMD Athlon? 64 X2 4850E
3 x WD5000AACS
1 x WD5000AAKS (had ik nog liggen)
Kingston ValueRam 512MB DDR2

Heb nu enkele problemen waar ik niet om heen geraak:
- Het moederbord heeft een RTL8111C NIC en daar bestaat geen driver voor FreeBSD7 voor
nu heb ik dan tijdelijk een 100mbit oud realtek prul dat wel perfect werkt erin gestoken
- FreeBSD kan onmogelijk booten als de schijven in RAID of AHCI mode staan, ik krijg dan een BTX halted fout, daarom draai ik ze nu als native IDE wat geen probleem zou zijn ware het niet dat freebsd geen dma mode hoger dan UDMA33 wilt instellen!
ik doe "atacontrol mode ad4 UDMA133" en ik krijg terug "current mode = UDMA33"
labelen alleen al duurt dus enorm lang (zon 400 minuten) terwijl de processor nauwelijks iets doet

iemand die me kan helpen met deze problemen?

Dmesg:
code:
1
2
3
4
5
atapci1: <ATI IXP700 UDMA133 controller> port 0x1f0-0x1f7,0x3f6,0x170-0x177,0x376,0xfa00-0xfa0f at device 20.1 on pci0
ad4: 476938MB <WDC WD5000AACS-00ZUB0 01.01B01> at ata2-master UDMA33
ad5: 476940MB <WDC WD5000AACS-00ZUB0 01.01B01> at ata2-slave UDMA33
ad6: 476940MB <WDC WD5000AACS-00ZUB0 01.01B01> at ata3-master UDMA33
ad7: 476940MB <WDC WD5000AAKS-00TMA0 12.01C01> at ata3-slave UDMA33
De Realtek 8111C doet het als het goed is wel, alleen DHCP niet, de oplossing hiervoor is zelf een vast IP adres instellen.
Wat betreft je SATA-controller, wat je zou kunnen proberen is:
1. eerst kijken of hij staat in de Hardware Compatibility list van FreeBSD 7.0
2. Kijken of er een BIOS update is
3. Upgraden naar FreeBSD 7.0-STABLE (mbv de tutorial die in mijn vorige post staat)
Had er zelf ook problemen mee maar heb ze door deze stappen uit te voeren opgelost ;) suc6!

Acties:
  • 0 Henk 'm!

Verwijderd

Thanks! die manual om te updaten heeft goed geholpen, schijven draaien nu op SATA300 mode.
Enkel nog geen succes met de onboard NIC, maar daar ben ik atm niet mee bezig.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zondag 01 juni 2008 @ 19:37:
Thanks! die manual om te updaten heeft goed geholpen, schijven draaien nu op SATA300 mode.
Enkel nog geen succes met de onboard NIC, maar daar ben ik atm niet mee bezig.
Ik heb de FreeBSD mailinglists doorgespit en gevonden dat de developer yongari een patch heeft gemaakt voor realtek adapters, deze is echter al een paar dagen uit en waarschijnlijk al gemerged in de -STABLE tak aan de header gezien, hij is dan ook voornameling bedoeld voor 7.0-RELASE dacht ik. Je kunt het natuurlijk altijd proberen maar het zal waarschijnlijk niks uitmaken, daarnaast heb ik ook geen idee wat deze patch precies doet en moet je wel weten hoe je een kernel bakt (al heb ik daar nog een link naar een tutorial voor mocht je interesse hebben)
De patch is in ieder geval hier te vinden ;)

Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Ik heb nu een Athlon 64 Mobile 3000+ op een MSI K8N Neo 3 moederbord. Hieraan hangen nu een drietal sil 3114 chipjes met daaraan 8 WD 250G schijven in software raid dmv. mdadm. Ik wil graag meer performance, is het dan intressanter op bv. een Highpoint 2320 erin te steken en hopen dat dat werkt.

Het alternatief is wat nieuwe hardware kopen zoals : Asus P5K WS en daarvan de onboard poorten allemaal gebruiken (twee e-sata poorten doorlussen naar binnen) en vervolgens doorgaan met de mdadm setup. Ik zou er dan twee keer 1G DDR 2 bijdoen en bv. een Intel Core 2 Duo E2180.

Voordeel van de eerste setup is dat ik weinig nieuws moet kopen en dat ie zuiniger is maar mogelijke problemen met de highpoint in de pci-e 16x slot. Met de tweede oplossing kan ik mijn compaq scsi kaartje met 3x18GB op 10k erin steken om van te booten echter geef ik meer geld uit en nog steeds met mdadm werk.

[ Voor 7% gewijzigd door analog_ op 01-06-2008 23:32 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Mr.SiS schreef op zondag 01 juni 2008 @ 23:30:
Ik heb nu een Athlon 64 Mobile 3000+ op een MSI K8N Neo 3 moederbord. Hieraan hangen nu een drietal sil 3114 chipjes met daaraan 8 WD 250G schijven in software raid dmv. mdadm. Ik wil graag meer performance, is het dan intressanter op bv. een Highpoint 2320 erin te steken en hopen dat dat werkt.

Het alternatief is wat nieuwe hardware kopen zoals : Asus P5K WS en daarvan de onboard poorten allemaal gebruiken (twee e-sata poorten doorlussen naar binnen) en vervolgens doorgaan met de mdadm setup. Ik zou er dan twee keer 1G DDR 2 bijdoen en bv. een Intel Core 2 Duo E2180.

Voordeel van de eerste setup is dat ik weinig nieuws moet kopen en dat ie zuiniger is maar mogelijke problemen met de highpoint in de pci-e 16x slot. Met de tweede oplossing kan ik mijn compaq scsi kaartje met 3x18GB op 10k erin steken om van te booten echter geef ik meer geld uit en nog steeds met mdadm werk.
Waarom zou de Highpoint die zelf PCI-express x4 is, niet werken in een x16 slot? Hardware RAID via de Highpoint controller levert je, naast een paar vrije PCI poorten (neem aan dat je nu 3x een Sil3114 kaartje hebt), onafhankelijkheid van mdadm op en daarmee onafhankelijkheid van OS. Ook levert het (ten eerste omdat je gebruik maakt van een PCI-e bus) snelheid op en ontlast het (afhankelijk van de chip op de controller) je CPU.

3x 18 GB in SCSI is "leuk" maar voor hetzelfde geld wat je voor al die nieuwe spullen betaald kun je net zo goed 2x 500 GB in SATA gebruiken of WD raptors aanschaffen wil je per se de snelheid van die 10k schijven. Welke bus gebruikt de SCSI adapter? anders kun je deze ook in de vrijgekomen PCI sloten van je moederbord steken.

(edit)
OP reviews: Areca ARC-1280 preview en mini SATA RAID-vergelijking kan je een review vinden waaruit blijkt dat de Highpoint 2320 nog wel gebruik maakt van de CPU voor de berekeningen maar dit merk je alleen bij RAID 5 maar verder haast niet onder doet voor de Areca ARC 1280 en zelfs in de conclusie aangeraden wordt voor de thuisserver :)

[ Voor 8% gewijzigd door Verwijderd op 02-06-2008 00:23 ]


Acties:
  • 0 Henk 'm!

  • The Realone
  • Registratie: Januari 2005
  • Laatst online: 02:42
Verwijderd schreef op maandag 02 juni 2008 @ 00:20:
[...]


Waarom zou de Highpoint die zelf PCI-express x4 is, niet werken in een x16 slot?
Niet alle PCI-E 16x sloten slikken per definitie kaartjes anders dan videoplanken.

Acties:
  • 0 Henk 'm!

Verwijderd

The Realone schreef op maandag 02 juni 2008 @ 09:37:
[...]


Niet alle PCI-E 16x sloten slikken per definitie kaartjes anders dan videoplanken.
Dit zou ik erg vreemd vinden. Heb je hier een bron van?
Op http://www.highpoint-tech.com/USA/series_2000pcie.htm staat in ieder geval dat de 2320 PCIe x16 compatible is. Het lijkt me niet dat ze dat neerzetten als dit afhangt van de chipset.

Wat ik binnenkort eens een keertje ga proberen is om zelf een LCD in elkaar te knutselen en daar dan allemaal status informatie van m'n NAS te tonen mbv LCDproc onder FreeBSD. Probleempje is alleen dat er geen parallele poort meer zit op m'n MSI P35 Neo2-FR en ben opzoek naar een USB-naar-Parallel converter die zeker ook onder FreeBSD werkt (of zijn dit ze gewoon allemaal?)...

Een ander probleem is ook dat de meeste converters niet de parallele aansluiting heb die ik zoek, ik vind namelijk alleen maar deze:
Afbeeldingslocatie: http://www.dealextreme.com/productimages/sku_9135_1.jpg
Terwijl ik gewoon eentje wil met 25 ronde gaatjes (geen idee wat de benaming hiervan is)

Wat ik ook nog zit te overwegen is om een PCBtje te laten maken waarop al het geconvert plaatsvind aangezien de meeste kant-en-klare converter kabels ~15 euro kosten incl verzenden en een eigen PCBtje 20 e ;)

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Verwijderd schreef op maandag 02 juni 2008 @ 13:32:Dit zou ik erg vreemd vinden. Heb je hier een bron van?
Op http://www.highpoint-tech.com/USA/series_2000pcie.htm staat in ieder geval dat de 2320 PCIe x16 compatible is. Het lijkt me niet dat ze dat neerzetten als dit afhangt van de chipset.
Sommige PCIe sloten zijn in feite PCIe-G sloten ofzoiets in ieder geval alleen voor "Graphics" .
Wat ik binnenkort eens een keertje ga proberen is om zelf een LCD in elkaar te knutselen en daar dan allemaal status informatie van m'n NAS te tonen mbv LCDproc onder FreeBSD. Probleempje is alleen dat er geen parallele poort meer zit op m'n MSI P35 Neo2-FR en ben opzoek naar een USB-naar-Parallel converter die zeker ook onder FreeBSD werkt (of zijn dit ze gewoon allemaal?)...

Een ander probleem is ook dat de meeste converters niet de parallele aansluiting heb die ik zoek, ik vind namelijk alleen maar deze:
[afbeelding]
Terwijl ik gewoon eentje wil met 25 ronde gaatjes (geen idee wat de benaming hiervan is)

Wat ik ook nog zit te overwegen is om een PCBtje te laten maken waarop al het geconvert plaatsvind aangezien de meeste kant-en-klare converter kabels ~15 euro kosten incl verzenden en een eigen PCBtje 20 e ;)
Heeft dat moederbord ook geen LPT poort via zo'n "break-out" kabeltje ??

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 17:48
The Realone schreef op maandag 02 juni 2008 @ 09:37:
[...]


Niet alle PCI-E 16x sloten slikken per definitie kaartjes anders dan videoplanken.
En andersom slikken de meeste sloten in servers geen videokaarten, of maar op 1x. ook een kutstreek imho.

[ Voor 58% gewijzigd door P5ycho op 02-06-2008 14:46 ]

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

Verwijderd

nero355 schreef op maandag 02 juni 2008 @ 13:37:
[...]

Heeft dat moederbord ook geen LPT poort via zo'n "break-out" kabeltje ??
Nee, wel serieel en daar had ik ook toevallig al zo'n bracket met een poort erop, maar parallel helaas niet. wéér een andere oplossing zou zijn een PCI kaartje met een parallele poort erop maar om daar nou een heel PCI slot aan op te offeren vind ik ook zonde. Ik heb trouwens de benaming gevonden van de aansluiting die ik bedoel: DB25
P5ycho schreef op maandag 02 juni 2008 @ 14:45:
[...]

En andersom slikken de meeste sloten in servers geen videokaarten, of maar op 1x. ook een kutstreek imho.
De meeste servermoederborden hebben onboard VGA ;) "servers" is trouwens heel breed maar op de meeste servers ga je ook niet gamen :)

[ Voor 25% gewijzigd door Verwijderd op 02-06-2008 15:00 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zondag 01 juni 2008 @ 20:47:
[...]


Ik heb de FreeBSD mailinglists doorgespit en gevonden dat de developer yongari een patch heeft gemaakt voor realtek adapters, deze is echter al een paar dagen uit en waarschijnlijk al gemerged in de -STABLE tak aan de header gezien, hij is dan ook voornameling bedoeld voor 7.0-RELASE dacht ik. Je kunt het natuurlijk altijd proberen maar het zal waarschijnlijk niks uitmaken, daarnaast heb ik ook geen idee wat deze patch precies doet en moet je wel weten hoe je een kernel bakt (al heb ik daar nog een link naar een tutorial voor mocht je interesse hebben)
De patch is in ieder geval hier te vinden ;)
heb eens gekeken in de source en deze patch zit er volges mij al in verwerkt. Deze is ook niet voor de 8111C voor zover ik zie. ( enkel voor B ) Het schijnt dat de 8111C sterk verschilt van alle andere en dat er zonder de nodige documenten geen driver ontwikkeld kan worden.

Bij het laden van if_re krijg ik de volgende fouten
code:
1
2
3
4
5
6
module_register: module re/miibus already exists!
Module re/miibus failed to register: 17
module_register: module cardbus/re already exists!
Module cardbus/re failed to register: 17
module_register: module pci/re already exists!
Module pci/re failed to register: 17


Mij lijkt me er niets anders op te zitten dan een gigabit kaartje kopen dat wel ondersteund is of gewoon te wachten op een driver als die er al ooit komt.

[ Voor 4% gewijzigd door Verwijderd op 02-06-2008 15:26 ]


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Gooi er gelijk zo'n mooie Intel 1000GT/MT kaart in die zou moeten werken in 99% van de gevallen. Geloof in ieder geval dat de Kernel van 6.2 er support voor had.
Spit anders effe zo'n Kernel file door dan kom je het vanzelf tegen :)

/EDIT : Linkje hieronder was ik vergeten 8)7 Hij staat er in ieder geval tussen !!

[ Voor 15% gewijzigd door nero355 op 02-06-2008 16:50 ]

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

Verwijderd

nero355 schreef op maandag 02 juni 2008 @ 16:17:
Gooi er gelijk zo'n mooie Intel 1000GT/MT kaart in die zou moeten werken in 99% van de gevallen. Geloof in ieder geval dat de Kernel van 6.2 er support voor had.
Spit anders effe zo'n Kernel file door dan kom je het vanzelf tegen :)
Waarom moeilijk doen als het makkelijk kan :)

Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
The Realone schreef op maandag 02 juni 2008 @ 09:37:
[...]
Niet alle PCI-E 16x sloten slikken per definitie kaartjes anders dan videoplanken.
Daarom dus, Die scsi schijven heb ik nog dus ik zou ze dan graag ook eens gebruiken ;) Ik heb al 8x250G. Hij gebruikt nu om te booten 3x120G en nog een losse 400G. Vooral het feit dat het mogelijk niet werkt schrikt mij een beetje af. Het zou leuk zijn als ik het eerst eens kan testen.

Acties:
  • 0 Henk 'm!

  • The Realone
  • Registratie: Januari 2005
  • Laatst online: 02:42
Fabrikant mailen helpt vaak. Heb ik eens gedaan naar Intel voor een G33 plankje. Volgens hun geen probleem.

Acties:
  • 0 Henk 'm!

Verwijderd

Zozo, heb me dan snel een Linksys eg1032 kaartje aangeschaft en die werkt perfect met een statisch ip en "media autoselect" in ifconfig.
Dankzij een paar kernel panics tijdens het prutsen moet men array op dit moment eventjes nog alles opnieuw verifyen. Morgen dan maar eens kijken hoe snel het gaat d:)b d:)b

Acties:
  • 0 Henk 'm!

  • ChaserBoZ_
  • Registratie: September 2005
  • Laatst online: 06-09 18:10
Hm, doet me er aan denken dat ik nog een disk in mijn FreeNas bakje bij moet proppen.

'Maar het heeft altijd zo gewerkt . . . . . . '


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op dinsdag 03 juni 2008 @ 00:57:
Zozo, heb me dan snel een Linksys eg1032 kaartje aangeschaft en die werkt perfect met een statisch ip en "media autoselect" in ifconfig.
Dankzij een paar kernel panics tijdens het prutsen moet men array op dit moment eventjes nog alles opnieuw verifyen. Morgen dan maar eens kijken hoe snel het gaat d:)b d:)b
Mag ik vragen waarom je voor de Linksys gegaan bent en niet voor de Intel 1000 GT? Als ik zo in de pricewatch kijk is het verschil namelijk echt 1 a 2 euro... welke chipset heeft dat linksys kaartje?

Acties:
  • 0 Henk 'm!

  • phobosdeimos
  • Registratie: Augustus 2007
  • Laatst online: 17:29
Idd, Intel ethernetkaarten zijn de beste, amen en uit.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op dinsdag 03 juni 2008 @ 11:54:
[...]


Mag ik vragen waarom je voor de Linksys gegaan bent en niet voor de Intel 1000 GT? Als ik zo in de pricewatch kijk is het verschil namelijk echt 1 a 2 euro... welke chipset heeft dat linksys kaartje?
Heb genomen wat er beschikbaar was (omdak ik niet langer kon wachten) en de Intel was er niet. Afaik heeft die linksys ook een realtek chipset maar wel een die deftig ondersteund is met de re driver.

iig zijn er geen problemen met de performance en ben ik tevreden :)

EDIT: jezus nu heb ik weer een ander probleem:
Ik ben bestanden van enkele 100den megabytes aan het overzetten (naar de fileserver) en de snelheid loopt op tot 60MB/s.Plots (na een stuk of 3 bestanden) krijg ik rare problemen. FTP werkt plots niet meer, ssh connecties blijven open maar ik kan er geen reactie uit krijgen en zelfs een toetsenbord aan de server hangen geeft geen reactie. (wel zie ik nog de dmesg output op de terminal verschijnen als ik het usb toetsenbord eraan hang) Vervolgens moet ik dat ding hard resetten, en begint hij weer al men filesystemen te checken, graid5 begint opnieuw aaan het verifyen voor enkele uurtjes en er zitten volgens fsck ook allerlei fouten in het filesysteem. De bestanden die reeds overgezet waren zijn ook volledig verdwenen.

Situatie: 1.3TB UFS filesysteem op een GJournal die van een GRAID5 device gebruik maakt.

Ik heb reeds die kernel memory tweaks in de loader.conf staan en die hebben reeds een bepaald probleem opgelost. Toen ik een filesysteem op het gjournal device aan het zetten was kreeg ik die kmem_map kernel panic.

EDIT: raar maar waar wat ik wel nog kan is van virtuele terminal switchen met de alt toetsen maar inloggen gaat niet, verschijnt geen username als ik die intype

EDIT: dit probleem komt niet voor bij het downloaden van de fileserver

EDIT: opgelost!
geen gebruik meer gemaakt van gjournal, wel soft updates op het UFS filesysteem, en het max geheugen voor graid5 wat verhoogd, maar dat laatste lijkt me overbodig.

[ Voor 61% gewijzigd door Verwijderd op 03-06-2008 19:46 ]


Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 17:48
Verwijderd schreef op maandag 02 juni 2008 @ 14:59:
De meeste servermoederborden hebben onboard VGA ;) "servers" is trouwens heel breed maar op de meeste servers ga je ook niet gamen :)
Ik heb laatste een 1u server gebouwd voor een klant, deze had een dx9 rendertarget nodig. dan zit je wel met een probleem als de boel maar op 1x werkt, en dit niet in de specs/manual van het moederbord staat.
Nog bedankt asus overigens voor het doodzwijgen.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • bum
  • Registratie: Juli 2001
  • Laatst online: 20-04 20:33

bum

Verwijderd schreef op woensdag 21 mei 2008 @ 20:59:
Nog even mailen of de SATA op volledige snelheid draait (dus niet zo'n Silicon Image PCI chipje om het aantal poorten van 4 naar 8 te brengen). Zo ja, dan is het zeker wel een interessant bordje. Wil ik wel gaan meebestellen ja. :)

Thnx voor de tip. _/-\o_
Had je al antwoord van VIA gehad?
In het datasheet staat dat ze een Marvell chip gebruiken:
"8 x SATA (3 Gbps) connectors (for NAS 7800-15LST, with one extra SATA controller Marvell 88SE6145 to have 4 more SATA ports)"
Volgens het block diagram lijkt die met PCIe aan de southbridge vast te zitten.


Maar helaas.... Niet te koop voor us mere mortals (in een blog gevonden):
Re pricing, we’re not giving individual pricing out as this board will not be available retail through the usual distribution through which you see EPIA boards for sale; it’s targeted at system builders in this segment and the pricing offered to them will reflect the technical support they require in order to create the systems they want to build. This is also true for the VIA NAB 7000 board we announced in January.
:(

Het leek me wel een interessant bordje om nu eindelijk een keer een NASje te maken. Niemand hier die zich als system builder voor kan doen...?? :?

HP Zbook G8 | Synology DS1511+


Acties:
  • 0 Henk 'm!

  • Mon
  • Registratie: November 2001
  • Laatst online: 14-08 07:51

Mon

Ik ben ook van plan mijn data via AFP/FTP/SMB beschikbaar te maken dmv. een NAS computer.
Mijn huidige pc (een Amd Athlon XP 2500, Abit NF7-S) zal waarschijnlijk de basis vormen samen met 3 of 4x 320gb aan opslag.

Ik zit echter zoals de meesten met nog wat vragen :)
Is deze cpu "geschikt"? Natuurlijk zal het wel werken maar ik lees veel over modernere CPU's die allerlei geadvanceerde powersave states kennen. Kent een gewone desktop Athlon XP processor ook dergelijke states? Anders wil ik kijken hoeveel ik van die 1800mhz nodig ben en hem misschien wat naar beneden klokken ivm warmte, energiebesparing en geluid.
Wel wil ik een beetje fatsoenlijke gigabit snelheden kunnen halen. Ik verwacht absoluut geen 120 mb/s maar een klein veelvoud van de huidige 11mb/s moet toch kunnen lijkt me. Gaat mijn Intel 1000 (GT/MT) dat makkelijk redden op zichzelf of kost dit ook nog eens bijv. 20% van mijn cpu?
Ik snap dat een mooie core2duo ideaal voor dit alles is, maar daar komt weer een nieuw moederbord etc bij en dat word me dan iets te prijzig.

Verder vraag ik me af hoe het zit met het "downspinnen" van hdd's. Moet de hdd/controller/het OS dit ondersteunen of hoef ik me hier niet druk over te maken en werkt dit altijd wel?

Dan nog mijn crappy nForce moederbord. De Sata controller word geloof ik niet herkend door BSD en afgezien daarvan is het ook geen degelijke chipset maar so be it. Ik moet dus een Sata controller kopen met waarschijnlijk 4 poorten. Nu zie ik in de pricewatch eigenlijk 2 categorieen: gigantische troep zoals een Sweex kaart voor 17 euro en professionele stuff als Areca waar je gelijk honderd euro of meer voor betaald. Ik wil gewoon softraid gaan gebruiken dus zo'n Areca lijkt me overbodig maar ik wil ook absoluut niets van Sweex (of dergelijke merken) in mijn computer hebben eigenlijk. Is er nog een gezond alternatief ertussenin?

En als laatste: ZFS. Ik ben onder de indruk dat dit echt een geniaal FS is en zou dit op zich graag willen gebruiken op mijn NAS. De vraag is echter, hoe volwassen is het inmiddels. Deployed Sun het bijvoorbeeld al bij klanten of is het toch nog meer voor de OpenSolaris/FreeBSD hobbyisten. Gebruikt iemand hier het intensief (veel lezen/schrijven, keertje de stekker eruit) die me kan vertellen hoe het bevalt?

Zo, ik hoop dat het prettig lezen was en graag zie ik jullie reacties :)

Acties:
  • 0 Henk 'm!

  • MuisM4t
  • Registratie: Mei 2007
  • Niet online
Mon schreef op donderdag 05 juni 2008 @ 20:19:
Verder vraag ik me af hoe het zit met het "downspinnen" van hdd's. Moet de hdd/controller/het OS dit ondersteunen of hoef ik me hier niet druk over te maken en werkt dit altijd wel?
Dit moet de controller dacht ik wel ondersteunen
I Nu zie ik in de pricewatch eigenlijk 2 categorieen: gigantische troep zoals een Sweex kaart voor 17 euro en professionele stuff als Areca waar je gelijk honderd euro of meer voor betaald. Is er nog een gezond alternatief ertussenin?
Jazeker: een tweedehands Promise controllertje , non-raid, met 4 poorten is al te krijgen voor 30 tot 50 euro, plaats hier maar eens een gevraagd advertentie of kijk rond op marktplaats.

edit:productinfo en V&A

[ Voor 12% gewijzigd door MuisM4t op 05-06-2008 21:30 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Heb nog een vraagje ivm atacontrol en graid5.
Is het veilig om een atacontrol spindown in te stellen voor de schijven gebruikt in zo'n array? Of kan er een soort van corruptie ontstaan door de combinatie van de 2?

Acties:
  • 0 Henk 'm!

  • DARKLORD
  • Registratie: December 2000
  • Laatst online: 22-01 21:17
Mon schreef op donderdag 05 juni 2008 @ 20:19:
Ik ben ook van plan mijn data via AFP/FTP/SMB beschikbaar te maken dmv. een NAS computer.
Mijn huidige pc (een Amd Athlon XP 2500, Abit NF7-S) zal waarschijnlijk de basis vormen samen met 3 of 4x 320gb aan opslag.

Ik zit echter zoals de meesten met nog wat vragen :)
Is deze cpu "geschikt"? Natuurlijk zal het wel werken maar ik lees veel over modernere CPU's die allerlei geadvanceerde powersave states kennen. Kent een gewone desktop Athlon XP processor ook dergelijke states? Anders wil ik kijken hoeveel ik van die 1800mhz nodig ben en hem misschien wat naar beneden klokken ivm warmte, energiebesparing en geluid.
Wel wil ik een beetje fatsoenlijke gigabit snelheden kunnen halen. Ik verwacht absoluut geen 120 mb/s maar een klein veelvoud van de huidige 11mb/s moet toch kunnen lijkt me. Gaat mijn Intel 1000 (GT/MT) dat makkelijk redden op zichzelf of kost dit ook nog eens bijv. 20% van mijn cpu?
Ik snap dat een mooie core2duo ideaal voor dit alles is, maar daar komt weer een nieuw moederbord etc bij en dat word me dan iets te prijzig.

Verder vraag ik me af hoe het zit met het "downspinnen" van hdd's. Moet de hdd/controller/het OS dit ondersteunen of hoef ik me hier niet druk over te maken en werkt dit altijd wel?

Dan nog mijn crappy nForce moederbord. De Sata controller word geloof ik niet herkend door BSD en afgezien daarvan is het ook geen degelijke chipset maar so be it. Ik moet dus een Sata controller kopen met waarschijnlijk 4 poorten. Nu zie ik in de pricewatch eigenlijk 2 categorieen: gigantische troep zoals een Sweex kaart voor 17 euro en professionele stuff als Areca waar je gelijk honderd euro of meer voor betaald. Ik wil gewoon softraid gaan gebruiken dus zo'n Areca lijkt me overbodig maar ik wil ook absoluut niets van Sweex (of dergelijke merken) in mijn computer hebben eigenlijk. Is er nog een gezond alternatief ertussenin?

En als laatste: ZFS. Ik ben onder de indruk dat dit echt een geniaal FS is en zou dit op zich graag willen gebruiken op mijn NAS. De vraag is echter, hoe volwassen is het inmiddels. Deployed Sun het bijvoorbeeld al bij klanten of is het toch nog meer voor de OpenSolaris/FreeBSD hobbyisten. Gebruikt iemand hier het intensief (veel lezen/schrijven, keertje de stekker eruit) die me kan vertellen hoe het bevalt?

Zo, ik hoop dat het prettig lezen was en graag zie ik jullie reacties :)
ik heb ook een nf7-s gehad. ahtlon xp 2000mhz en dit werkte echt lekker. de enige reden waarom ik ben overgestapt is dat het moederbord geen pci-e aankan. heb er nu een areca kaartje inhangen met 8poorten.

maar die zijn vrij prijzig. anders moet je eens naar highpoint rocketraid kaartjes kijken, die zijn goed betaalbaar en worden ook volledig ondersteund in freebsd. als je de drivers tenminste installeert

aan ZFS durf ik mijn data nu nog niet toe te vertrouwen. het zit pas net in freebsd ingebouwd. voorlopig gebruik ik gewoon UFS. freenas stable zit ook nog maar bij freebsd6.2

Acties:
  • 0 Henk 'm!

  • Demo
  • Registratie: Juni 2000
  • Laatst online: 13:38

Demo

Probleemschietende Tovenaar

Verwijderd schreef op maandag 02 juni 2008 @ 13:32:
[...]


Dit zou ik erg vreemd vinden. Heb je hier een bron van?
Op http://www.highpoint-tech.com/USA/series_2000pcie.htm staat in ieder geval dat de 2320 PCIe x16 compatible is. Het lijkt me niet dat ze dat neerzetten als dit afhangt van de chipset.

Wat ik binnenkort eens een keertje ga proberen is om zelf een LCD in elkaar te knutselen en daar dan allemaal status informatie van m'n NAS te tonen mbv LCDproc onder FreeBSD. Probleempje is alleen dat er geen parallele poort meer zit op m'n MSI P35 Neo2-FR en ben opzoek naar een USB-naar-Parallel converter die zeker ook onder FreeBSD werkt (of zijn dit ze gewoon allemaal?)...

Een ander probleem is ook dat de meeste converters niet de parallele aansluiting heb die ik zoek, ik vind namelijk alleen maar deze:
[afbeelding]
Terwijl ik gewoon eentje wil met 25 ronde gaatjes (geen idee wat de benaming hiervan is)

Wat ik ook nog zit te overwegen is om een PCBtje te laten maken waarop al het geconvert plaatsvind aangezien de meeste kant-en-klare converter kabels ~15 euro kosten incl verzenden en een eigen PCBtje 20 e ;)
Ik denk dat je beter voor een PCI-kaartje met parallelle poort gaat. Van die kabels zijn vaak specifiek voor printers gemaakt (daarom ook die Centronics-stekker) en ondersteunen dan geen andere hardware.
Mocht je het aan de praat krijgen, laat het dan even weten. Ik ben zelf bezig met een mp3-speler op FreeBSD en zit nu ook wat te rotzooien met lcdproc.

Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done


Acties:
  • 0 Henk 'm!

Verwijderd

Ik zit er over te twijfelen om mijn NAS van Linux over te zetten naar FreeBSD.. Probleem is echter dat ik voor mijn Linux raid md device based raid5 heb opgezet. Mijn vraag is nu:

- Kan ik gebruik maken van md onder FreeBSD?
- Is het wellicht mogelijk mijn raid5 te converteren van md naar GEOM?

Kan iemand mij hier in helpen?

Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Ok, ik ben eraan uit! Ik ga een tweedehands twaalf poorts areca in PCI-X kopen en hang daar mijn 8x250G aan, ik ben dan van plan deze zomer nog eens 3x1T te kopen en dan ben ik voorlopig wel even zoet. Helaas zal de kaart voorlopig in een gewoon PCI slot moeten hangen maar het gaat zowieso een prestatie verbetering zijn over dat gepruts met die sil3114 kaartjes. Heeft iemand een idee of die areca een raid 5 kan extenden als ik later een vierde disk bij koop ?

Acties:
  • 0 Henk 'm!

  • P5ycho
  • Registratie: Januari 2000
  • Laatst online: 17:48
us1111: converteren gaat niet willen vrees ik.

Mr. SiS: moet je even de handleiding lezen. Als je je raid5 vergroot moet je natuurlijk ook je partities daarna resizen.

12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV


Acties:
  • 0 Henk 'm!

  • Demo
  • Registratie: Juni 2000
  • Laatst online: 13:38

Demo

Probleemschietende Tovenaar

Mr.SiS schreef op donderdag 19 juni 2008 @ 22:33:
Ok, ik ben eraan uit! Ik ga een tweedehands twaalf poorts areca in PCI-X kopen en hang daar mijn 8x250G aan, ik ben dan van plan deze zomer nog eens 3x1T te kopen en dan ben ik voorlopig wel even zoet. Helaas zal de kaart voorlopig in een gewoon PCI slot moeten hangen maar het gaat zowieso een prestatie verbetering zijn over dat gepruts met die sil3114 kaartjes. Heeft iemand een idee of die areca een raid 5 kan extenden als ik later een vierde disk bij koop ?
Areca's zijn dé controllers op het moment, natuurlijk ondersteunen die vergroting van de array. Sterker nog, je kan de array gewoon gebruiken tijdens het vergroten. (Online Capacity Expansion) Of de Areca ook het hotpluggen van schijven ondersteunt durf ik je niet te zeggen. (hoef je je machine niet eens te rebooten :P)

Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done


Acties:
  • 0 Henk 'm!

Verwijderd

P5ycho schreef op vrijdag 20 juni 2008 @ 09:06:
us1111: converteren gaat niet willen vrees ik.

Mr. SiS: moet je even de handleiding lezen. Als je je raid5 vergroot moet je natuurlijk ook je partities daarna resizen.
Maar kan ik eventueel wel gewoon gebruik maken van mijn MD raid5 disks onder Freebsd?

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 15-09 22:01
Lange post alert...
Bij deze twee samenstellingen die ik niet zozeer wil voordragen om te laten controleren, maar meer om ook aan te geven wat de gedachtegang achter de samenstelling is. Die wil ik wel graag laten 'controleren' en kan ook anderen misschien op ideeën brengen of er juist vanaf brengen.

Goed, ik ben er bijna uit wat de samenstelling van de eerste server/nas.
Server/nas 1
Taken server/nas:
-Backupserver spelen (de server moet daarbij actie ondernemen)
-Mailserver spelen
-Dataserver spelen (data die bewaard moet blijven, maar niet direct nodig is)
Onderdelen:
-AMD Athlon X2 4050e (dualcore, tdp 45watt)
-Asus M3N78-EH (atx, 8200 chip, 2x pci-e x1)
-Arctic Cooling Alpine 64
-Kingston KVR667D2N5/1G (1x 1GB)
-Seasonic S12II-330
-3x 3.5" inch 1TB schijf van Samsung (F1 serie) of van Western Digital (GP serie)
-2x 2.5" inch 80GB (ide)
-Intel Gigabit kaartje op een pci-e poort.
-Antec Performance One 182
Implementatie:
De 2.5" inch schijven zullen in een raid-1 opstelling draaien, met daarop het os: opensolaris of freeBSD
De 3.5" inch schijven zullen in een software raid-5 opstelling draaien (ik neig naar ZFS anders geom_raid5)
Verklaring keuzes:
De 2.5" inch schijven zijn een stuk zuiniger in idle en ik wil dat de raid-5 array 's nachts uitkan (de mail zal op de 2.5" worden opgeslagen).
Dualcore omdat de pc meer dan een 'domme' nas zal zijn. De domme nas zoals ik het zie bestaat eruit dat iedere persoon wel data heeft die in principe niet meer nodig is, maar wel leuk/handig/... is om te bewaren, maar niet 'dichtbij', op de werkstations, staat. De domme nas zal ook de mediabestanden aanbieden voor mediaspelers ed. Daarnaast is er het 'slimme' deel, de server die actief ieder werkstation gaat backuppen en daarnaast een backup zal maken van de 2.5" inch schijven.
Voeding, koeler en kast zijn gekozen omdat de nas/server op een slaapkamer staat en dus zo stil mogelijk moet zijn en toch goed gekoeld moet blijven.
De 3.5" inch schijven ben ik nog niet helemaal over uit. Ik hoor wat verontrustende geluiden over de F1, maar rondom de GP blijft het weer angstvallig stil. In dat licht denk ik dat dan toch voor F1's ga, de kast zal het extra volume opvangen.
Het moederbord is voorzien van een GeForce 8200 chipset, die erg zuinig schijnt te zijn. Hopelijk ook zuiniger dan de 690g (de 780g is minder zuinig dan de 690g). Het moederbord werkt niet met hongerige processoren (125 watt sferen), maar dat is in dit geval geen probleem.

Daarnaast ben ik aan het spelen met de gedachte om een tweede server te plaatsen (niet hetzelfde huis). De nas moet zo goedkoop mogelijk (aanschafkosten en energieverbruik) zijn en tegelijk betrouwbaar. Bijzonder hoge dataoverdracht is niet noodzakelijk. De onderstaande samenstelling kost in totaal zo rond de 370 euro.
Nas 2
Taak:
-Dataserver
-'s Nachts data synchroniseren met nas/server1 over het internet
Onderdelen:
-AMD Sempron 64 LE-1150 (of iets dergelijks...)
-Arctic Cooling Alpine 64
-MSI K9N2GM-FIH (m-atx, 8200 chip, 1x pci-e x1)
-Kingston KVR667D2N5/1G (1x 1GB)
-3x 500GB WD GP
-Antec NSK4480 (incl 80+ voeding)
Implementatie:
Het os zal (opnieuw) freebsd zijn met een software raid opstellen (zfs voorkeur, anders geom_raid5)
Verklaring keuzes:
Drie keer een 500GB een WDGP omdat ik 1TB als opslagruimte wil hebben en toch zekerheid. Een raid-1 opstelling met 1TB schijven is dan duurder (pas na tig jaar zal het zijn terugverdiend). Ik ga er daarbij wel vanuit dat de processor het aankan om zonder noemenswaardige vertraging de files weg te schrijven.
Het moederbord is anders dan van server/nas 1. Ik vermoed dat de MSI iets zuiniger is dan de asus (m-atx vs atx). Qua aanschafkosten scheelt het niet veel. Wel zullen naar mijn idee de hogere aanschafkosten van een 8200 bordje opwegen tegen het lagere verbruik in vergelijking met andere moederborden.

Vragen:
-Is de Antec niet overkill om het systeem echt stil te houden? (voldoet bijvoorbeeld een simpele chieftec zoals die in nas2 ook?)
-Doe ik NAS 2 ernstig tekort met een dergelijke CPU?
-Is ZFS onder opensolaris al wel dermate betrouwbaar dat ik mijn data eraan kan toevertrouwen?
-Is geom_raid5 onder freebsd wel dermate betrouwbaar dat ik mijn data eraan kan toevertrouwen?

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Erik Jan
  • Registratie: Juni 1999
  • Niet online

Erik Jan

Langzaam en zeker

Verwijderd schreef op vrijdag 20 juni 2008 @ 10:00:
Maar kan ik eventueel wel gewoon gebruik maken van mijn MD raid5 disks onder Freebsd?
Nee. Waarom wil je eigenlijk overstappen op FreeBSD? Misschien is wat je wil bereiken ook mogelijk onder Linux namelijk.

edit:
@Dadona:
Qua hardware zit het wel goed. ZFS heeft baat bij een flinke sloot geheugen, dus kies je daarvoor zou ik 2x1 GB erin stoppen. Heb je gelijk dual-channel erbij.

HDD spindown, als het onder OpenSolaris uberhaupt al beschikbaar is, lijkt mij ook niet goed met ZFS samenwerken omdat dat veel achtergrondzaken heeft lopen als jij je schijven niet gebruikt. Een cronjob 's nachts volledig laten unmounten kan wel maar dan is je data 's nachts weer niet "direct beschikbaar".

Als ze ooit verkocht gaan worden, is dit misschien ook wel een goede keus: nieuws: Samsung maakt zuinige 1TB-harddisk

Slapen naast een fileserver zal je denk ik niet lang volhouden, dus afhankelijk van de grootte van de kamer in kwestie zou ik daar nog 'ns over na gaan denken :)

[ Voor 56% gewijzigd door Erik Jan op 20-06-2008 13:41 ]

This can no longer be ignored.


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op dinsdag 03 juni 2008 @ 12:17:
Vervolgens moet ik dat ding hard resetten, en begint hij weer al men filesystemen te checken, graid5 begint opnieuw aaan het verifyen voor enkele uurtjes en er zitten volgens fsck ook allerlei fouten in het filesysteem. De bestanden die reeds overgezet waren zijn ook volledig verdwenen.
Dat laatste is een feature van Soft Updates, die je filesystem metadata en dir/file data scheid en vertraagde updates doorvoert. Je filesystem kan daarmee tot 30 seconden qua updates verliezen in geval van een onverwachte crash/reboot, maar blijft wel consistent als in een transactiemodel. Zolang je fsck automatisch je filesystem fixt is er niets aan de hand, gebruik fsck -p <filesystem> om veilig alles te fixen. Als je journaling gebruikt kun je SoftUpdates trouwens beter uitschakelen. SoftUpdates beschermt je niet tegen out-of-order write-back buffers, zoals geom_raid5.
en het max geheugen voor graid5 wat verhoogd, maar dat laatste lijkt me overbodig.
De kern.geom.raid5.maxmem waarde is niet meer zo van belang, wel de kern.geom.raid5.maxwql (graid5 versie TNG/EFF) en kern.geom.raid5.cs (graid5 versie PP) die de grootte van de RAM buffercache bepalen. Aangezien de grootte hiervan op kan lopen tot honderden megabytes, kun je een kmem panic krijgen omdat je systeem onvoldoende kernel geheugen heeft gereserveerd. Vergeet je ook niet amd64 te draaien met minimaal 500MB kmem_size?
Heb nog een vraagje ivm atacontrol en graid5.
Is het veilig om een atacontrol spindown in te stellen voor de schijven gebruikt in zo'n array? Of kan er een soort van corruptie ontstaan door de combinatie van de 2?
Je kunt prima een spindown instellen. Let echter op het volgende:
- verhoog je ata timeout van 5 naar 10+ seconden (ik zelf gebruik 15), hiervoor moet je je kernel opnieuw compileren. Doe je dit niet dan worden spinned down schijven uit de array gekicked omdat ze niet binnen 5 seconden reageren.
- afhankelijk van de versie van geom_raid5 kunnen alle schijven tegelijk opgespint worden; dat moet je voeding wel aankunnen. Alleen van belang als je opspinnen qua stroomvoorziening alleen red door gebruik van staggered spinup.
Verwijderd schreef op woensdag 18 juni 2008 @ 13:04:
Ik zit er over te twijfelen om mijn NAS van Linux over te zetten naar FreeBSD.. Probleem is echter dat ik voor mijn Linux raid md device based raid5 heb opgezet. Mijn vraag is nu:

- Kan ik gebruik maken van md onder FreeBSD?
- Is het wellicht mogelijk mijn raid5 te converteren van md naar GEOM?

Kan iemand mij hier in helpen?
Ja, je kunt door een nieuwe RAID5 array te maken je huidige array overzetten, mits je de volgende gegevens hebt:
- disk volgorde
- stripesize
- offset

Je kunt vervolgens een RAID5 array maken met:
graid5 label -s 131072 -n myraid5array ad4 ad6 ad8 ad10

Hierin is 131072 de stripesize in bytes en "myrai5array" de naam die je kiest voor je array. De volgende parameters zijn je schijven, beginnende met disk0, disk1, disk2, disk3, etc. De volgorde is absoluut van belang. De -n optie zorgt voor No-Hot mode, waarbij er geen pariteit zal worden geschreven. Je kunt zo testen of de array werkt door alleen te lezen en niet te schrijven; zou je deze optie niet gebruiken dan wordt bij een foute stripesize/disk order/offset er parity geschreven op gebieden waar nu data staat; waarbij je dus je data corrupteert. Het -n commando verhindert dit.

Er is wel een probleem: FreeBSD ondersteunt geen read+write ext3 mounts, wat je waarschijnlijk als filesystem gebruikt. Je zou dus alleen kunnen lezen van je volume. En dat had je denk ik niet in gedachte. Maar qua RAID-gedeelte is wat je wilt dus in principe wel mogelijk alleen loop je dan nog tegen het gebruikte filesystem aan.
Dadona schreef op vrijdag 20 juni 2008 @ 11:10:
-Is ZFS onder opensolaris al wel dermate betrouwbaar dat ik mijn data eraan kan toevertrouwen?
-Is geom_raid5 onder freebsd wel dermate betrouwbaar dat ik mijn data eraan kan toevertrouwen?
ZFS blijft experimental, maar bij recente snapshots ben ik nog niet tegen problemen aangelopen. Ik gebruik nog voornamelijk geom_raid5 in combinatie met UFS+gjournal, wat de hoogste mate van veiligheid zou moeten bieden. Journaling kost je wel write performance, maar gelukkig is geom_raid5 lekker snel.

Oh en die twee 2,5" disks zijn niet echt nodig; kun je prima op je 3,5" disks doen. Als je software RAID gebruikt kun je ook prima RAID op partities doen, b.v.:

Disk1 [ Mirror 8GB ] [RAID5]
Disk2 [ Mirror 8GB ] [RAID5]
Disk3 [ Mirror 8GB ] [RAID5]

Zo kun je van alle drie de disks booten en wordt je bootpartitie dus dubbel gemirrored. RAID5 heb je dan op de 2e 'datapartitie'. Op die RAID5 device kun je weer journaling gooien met geom_journal, of ZFS, of alleen UFS+Softupdates.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zaterdag 21 juni 2008 @ 07:47:
[...]
Je kunt prima een spindown instellen. Let echter op het volgende:
- verhoog je ata timeout van 5 naar 10+ seconden (ik zelf gebruik 15), hiervoor moet je je kernel opnieuw compileren. Doe je dit niet dan worden spinned down schijven uit de array gekicked omdat ze niet binnen 5 seconden reageren.
- afhankelijk van de versie van geom_raid5 kunnen alle schijven tegelijk opgespint worden; dat moet je voeding wel aankunnen. Alleen van belang als je opspinnen qua stroomvoorziening alleen red door gebruik van staggered spinup.
[...]
ach perfect dankjewel, ik zat inderdaad met het probleem dat mijn schijven uit de array werden gekicked.

EDIT: waar vind ik trouwens de homepage van geom_raid5 en een overzicht van alle versies ? :|

[ Voor 6% gewijzigd door Verwijderd op 21-06-2008 23:15 ]


Acties:
  • 0 Henk 'm!

  • Tomba
  • Registratie: Mei 2000
  • Laatst online: 10:49

Tomba

Quis custodiet ipsos custodes?

Hmmz heb een 'leuke' ?
code:
1
2
3
olympos Tomba /dev/raid5 # df /raid5/
Filesystem              1K-blocks        Used     Avail Capacity  Mounted on
/dev/raid5/OlymposRAID5 1419136316 1318881312 -13275900   101%    /raid5

fsck -y verhelpt dit niet, kan iemand mij helpen ?

tomba.tweakblogs.net || Mijn V&A


Acties:
  • 0 Henk 'm!

Verwijderd

Tomba schreef op zondag 22 juni 2008 @ 12:16:
Hmmz heb een 'leuke' ?
code:
1
2
3
olympos Tomba /dev/raid5 # df /raid5/
Filesystem              1K-blocks        Used     Avail Capacity  Mounted on
/dev/raid5/OlymposRAID5 1419136316 1318881312 -13275900   101%    /raid5

fsck -y verhelpt dit niet, kan iemand mij helpen ?
Je file systeem staat gewoon voller dan toegelaten is, met tunefs kan je voor UFS filesystemen instellen hoeveel er minimum in % over moet zijn van het filesysteem maar je kan er over gaan als root.

Acties:
  • 0 Henk 'm!

  • Tomba
  • Registratie: Mei 2000
  • Laatst online: 10:49

Tomba

Quis custodiet ipsos custodes?

Verwijderd schreef op zondag 22 juni 2008 @ 12:40:
[...]


Je file systeem staat gewoon voller dan toegelaten is, met tunefs kan je voor UFS filesystemen instellen hoeveel er minimum in % over moet zijn van het filesysteem maar je kan er over gaan als root.
Sorry ik snap het nog niet helemaal, er kan toch niet meer opstaan dan 100% ?

tomba.tweakblogs.net || Mijn V&A


Acties:
  • 0 Henk 'm!

Verwijderd

Tomba schreef op zondag 22 juni 2008 @ 12:47:
[...]

Sorry ik snap het nog niet helemaal, er kan toch niet meer opstaan dan 100% ?
Het UFS filesysteem houdt een bepaald percentage over zodat het nog goed kan functioneren indien het filesysteem zo goed als vol is. Stel je zet dit op 5% (volgens mij is 10% de standaard) en je filesysteem staat volgens df "vol", dan is er in werkelijkheid nog 5% over. Dit percentage kan je dus instellen met tunefs en heeft enkel effect voor gewone gebruikers die willen schrijven op het filesysteem, maar stel dat je als root werkt en er files opzet terwijl de limiet bereikt is, dan ga je gewoon over die limiet en krijg je die rare cijfers waar jij mee te maken hebt.

[ Voor 6% gewijzigd door Verwijderd op 22-06-2008 12:52 ]


Acties:
  • 0 Henk 'm!

  • Tomba
  • Registratie: Mei 2000
  • Laatst online: 10:49

Tomba

Quis custodiet ipsos custodes?

Verwijderd schreef op zondag 22 juni 2008 @ 12:49:
[...]


Het UFS filesysteem houdt een bepaald percentage over zodat het nog goed kan functioneren indien het filesysteem zo goed als vol is. Stel je zet dit op 5% (volgens mij is 10% de standaard) en je filesysteem staat volgens df "vol", dan is er in werkelijkheid nog 5% over. Dit percentage kan je dus instellen met tunefs en heeft enkel effect voor gewone gebruikers die willen schrijven op het filesysteem, maar stel dat je als root werkt en er files opzet terwijl de limiet bereikt is, dan ga je gewoon over die limiet en krijg je die rare cijfers waar jij mee te maken hebt.
* Tomba gooit wat zooi weg...
code:
1
2
3
4
olympos Tomba /raid5/Download # df /raid5/
Filesystem              1K-blocks        Used   Avail Capacity  Mounted on
/dev/raid5/OlymposRAID5 1419136316 1302279920 3325492   100%    /raid5
olympos Tomba /raid5/Download #

Verdomd, nu klopt het wel weer ! Bedankt :)

[ Voor 13% gewijzigd door Tomba op 22-06-2008 12:57 ]

tomba.tweakblogs.net || Mijn V&A


Acties:
  • 0 Henk 'm!

  • Itsacon
  • Registratie: Maart 2006
  • Laatst online: 23-08 11:14
Verwijderd schreef op zaterdag 21 juni 2008 @ 07:47:
Je kunt prima een spindown instellen. Let echter op het volgende:
- verhoog je ata timeout van 5 naar 10+ seconden (ik zelf gebruik 15), hiervoor moet je je kernel opnieuw compileren. Doe je dit niet dan worden spinned down schijven uit de array gekicked omdat ze niet binnen 5 seconden reageren.
Hmmm, met welke instelling bepaal je dit? Kan het in de manpage van ata(4) niet vinden.

Probleem laatst ook gehad op een ZFS array, en toen opgelost door ataidle maar even in te stellen op `always on', maar da's niet de ideale optie...

My system is in 64 bits. But superglue keeps it together just fine...


Acties:
  • 0 Henk 'm!

Verwijderd

Itsacon schreef op maandag 23 juni 2008 @ 11:53:
[...]


Hmmm, met welke instelling bepaal je dit? Kan het in de manpage van ata(4) niet vinden.

Probleem laatst ook gehad op een ZFS array, en toen opgelost door ataidle maar even in te stellen op `always on', maar da's niet de ideale optie...
Aan de hand van de patch in dit bericht op de freebsd lists kom je te weten dat er 2 bestanden zijn die je in je kernel source moet aanpassen namelijk ata-disk.c en ata-queue.c. In beide bestanden moet je op één bepaalde plek request->timeout verhogen. Als je hiermee klaar bent recompile je gewoon je kernel, install je hem en reboot je het systeem.

Acties:
  • 0 Henk 'm!

  • Itsacon
  • Registratie: Maart 2006
  • Laatst online: 23-08 11:14
ah. Was op zoek naar een OPTIONS directive, vandaar dat ik het niet kon vinden. Dank.

My system is in 64 bits. But superglue keeps it together just fine...


Acties:
  • 0 Henk 'm!

Verwijderd

Itsacon schreef op maandag 23 juni 2008 @ 12:52:
ah. Was op zoek naar een OPTIONS directive, vandaar dat ik het niet kon vinden. Dank.
Ik heb dit gisteren toegepast op mijn kernel, maar nu pas getest, helaas blijkt het nog niet te werken.
Wanneer ik 1 van de harde schijven in sleep mode zet en een minuutje later een bestand open op het filesysteem dan krijg ik nogaltij timeout fouten:

code:
1
2
3
4
5
ad4: WARNING - unknown CMD (0xe1) taskqueue timeout - completing request directly
ad4: WARNING - SETFEATURES SET TRANSFER MODE taskqueue timeout - completing request directly
ad4: WARNING - SETFEATURES SET TRANSFER MODE taskqueue timeout - completing request directly
ad4: WARNING - SETFEATURES ENABLE RCACHE taskqueue timeout - completing request directly
ad4: WARNING - SETFEATURES ENABLE WCACHE taskqueue timeout - completing request directly

Acties:
  • 0 Henk 'm!

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 13-09 23:02
Ik ben vandaag ook net begonnen met freenas. Eerst geprobeerd op een memorystick, maar mijn m2a-vm bordje weigerde ervan te booten. Dan maar een 6Gb ata schijfje genomen om daarop te installen.

config:
Athlon 64 X2 4000+
Asus M2A-VM
1Gb DDR2 ram
320GB Western Digital SATA2
160Gb Samsung SATA2
6Gb Western Digital ATA
En dit alles in een stacker behuizing :p.

Ik heb nu enkel een error bij het mounten van mijn 320Gb schijf die nu nog NTFS is. En de log geeft mij bijster wenig informatie :(
code:
1
root: Error: Failed to mount /dev/ad4s3 using NTFS

De schijf bestaat nogtans maar uit 1 primaire partitie met enkel data.

Voor de rest heb ik zeker niet te klagen van freenas. Het gaat zeer vlot om met geregeld afsluiten en opstarten, iets wat met een gewone fileserver niet altijd even evident is.

Acties:
  • 0 Henk 'm!

  • MrBarBarian
  • Registratie: Oktober 2003
  • Laatst online: 07-03-2023
Maybe someone here can confirm my thoughts;

System:
- AMD Sempron 2600+
- Asus K8N-E moederbord
- 3 GB Ram
- Promise ATA-controller (snoept dus van de CPU)
- 100 mbit Realtec NIC
- 1Gbs onboard NIC

Raidsets:
- Raid 5 over hdb, hdc, hdg en hdh (data zut)
- Raid 1 over hde en hda (OS, CentOS 5.1)
(de goede lezer onder ons begrijpt dat hdg, hde en hdh op de controller zitten)

Op de achtergrond:
- Wat Xen domeinen die ongetwijfeld wat io produceren.

Nu heb ik een DRBD-disk gemaakt die sync'ed met een andere (veel snellere) server. Het DRBD-device zit op de RAID5 set. Syncen gaat via de 1gbs interface (andere kant is ook 1gbs btw)..

Alleen de syncspeed valt wat tegen; +/- 9 M/sec. Waarschijnlijk zit er in het mobo slechts 1 pci-backplane.. dus loop ik tegen de max aan hier I guess. Waarom? Alle disken zitten op pci, net als (waarschijnlijk) de 1gbs NIC. Correct?

Load van het system tijdens een sync is nog geen 1.00 en dus geen probleem.

Heb ik opties om e.a. sneller te krijgen? (m.a.w als de pci-bus het probleem is, kan ik er omheen?)

iRacing Profiel


Acties:
  • 0 Henk 'm!

Verwijderd

Zo, ik heb even mijn NAS geupgrade :) 3x 750 GB erbij in RAID 5 met geom_raid5, wilde eerst via de ICH9R controller doen maar toen ging m'n Promise ATA RAID controller raar doen (LBA timeout errors op de 2x 160 GB schijven).

Afbeeldingslocatie: http://farm4.static.flickr.com/3061/2607465770_d14ab7a9fc.jpg
Afbeeldingslocatie: http://farm4.static.flickr.com/3224/2607465900_1bded7ebe3.jpg

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 13:32

Q

Au Contraire Mon Capitan!

Verwijderd schreef op dinsdag 24 juni 2008 @ 20:29:
Zo, ik heb even mijn NAS geupgrade :) 3x 750 GB erbij in RAID 5 met geom_raid5, wilde eerst via de ICH9R controller doen maar toen ging m'n Promise ATA RAID controller raar doen (LBA timeout errors op de 2x 160 GB schijven).

[afbeelding]
[afbeelding]
Die zit nu vol ;) Ziet er uit als een chieftech kast. Nadeel van die kast is dat je alleen met 90 graden sata stekkers de wand dicht krijgt en dat aanstampen soms wel nodig is.

Acties:
  • 0 Henk 'm!

Verwijderd

Q schreef op zaterdag 28 juni 2008 @ 22:01:
[...]


Die zit nu vol ;) Ziet er uit als een chieftech kast. Nadeel van die kast is dat je alleen met 90 graden sata stekkers de wand dicht krijgt en dat aanstampen soms wel nodig is.
Klopt is een chieftec ;) met die 90 graden sata stekkers klopt trouwens niet helemaal. De meeste "rechte" SATA kabels passen nog net, zoals je misschien ook een beetje kunt zien heb ik ook alleen de nieuwe 3 samsung schijven via 90 graden stekkers aangesloten maar hij is idd flink vol nu ;) volgende upgrade wordt waarschijnlijk een 4-in-3 drive bay + Highpoint 8 poorts SATA controller (Of een 45nm Core 2 Duo aangezien hij nu flink wat stroom vreet met de Pentium 4 530)
Bij de upgrade hoorde trouwens ook vervanging van de boxed cooler (van een Xeon 3220 die ik over had) naar een scythe mugen infinity

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 13:32

Q

Au Contraire Mon Capitan!

Verwijderd schreef op zondag 29 juni 2008 @ 17:15:
[...]


Klopt is een chieftec ;) met die 90 graden sata stekkers klopt trouwens niet helemaal. De meeste "rechte" SATA kabels passen nog net, zoals je misschien ook een beetje kunt zien heb ik ook alleen de nieuwe 3 samsung schijven via 90 graden stekkers aangesloten maar hij is idd flink vol nu ;) volgende upgrade wordt waarschijnlijk een 4-in-3 drive bay + Highpoint 8 poorts SATA controller (Of een 45nm Core 2 Duo aangezien hij nu flink wat stroom vreet met de Pentium 4 530)
Bij de upgrade hoorde trouwens ook vervanging van de boxed cooler (van een Xeon 3220 die ik over had) naar een scythe mugen infinity
Geweldig. Ik heb zelf een 4-in-3 module gekocht voor een coolermaster stacker gekocht, puur voor inbouw, dus zonder hot-swap etc. Koste 15 euro ongeveer. Past prima, moet je alleen die kleine geleide lipjes voor cd-rom etc weghalen (zo gedaan). Daar zitten nu 4x 500GB disks in, software raid 5 linux.

Ik kijk naar een 8 poorts controller, een rocketraid, die gewoon als 8 poorts sata controller zal werken zonder raid. Raid gaat via software raid en Linux. In de toekomst kunnen er dan nog wat extra disks bij. Totaal kunnen er dan 10 disks in deze kast. 11 als je een 5 in 3 module zou gebruiken.

Zuinig moederbord en cpu is wel een aanrader, de disks nemen al genoeg stroom. Zelf kies ik er voor om het ding uit te zetten als ik hem niet gebruik en met WOL in te schakelen zodra ik hem nodig heb.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 13:32

Q

Au Contraire Mon Capitan!

Heb nu rocketraid 2320 (8 poorten) toegevoegd. Werkt na wat gerommel prima met driver onder debian etch.

Aangesloten zijn 4x 1TB in raid 6. Effectief dus 2 TB. Dat is 50% verlies, maar in de toekomst kunnen er dus nog wat diskjes bij te hangen en dan valt het wel mee. Beschikbaarheid is belangrijker voor mij.

Raid6 via linux software raid. Schrijven gaat ongeveer 80 MB/s en lezen 200Mb/s. Met mijn gigabit netwerkje haal ik de schrijfsnelheid al niet eens dus ik vind het wel best.

Rocketraid vereist wel dat je disks initialiseert en in een array stopt. Pas dan ziet het os iedere array als een sd device, die je dan in een software raid kan gooien.

De keuze voor linux software raid is simpel: meer flexibiliteit.

[ Voor 40% gewijzigd door Q op 05-07-2008 17:08 ]


Acties:
  • 0 Henk 'm!

  • Volture
  • Registratie: November 2001
  • Laatst online: 13:05
Kan iemand me aangeven wat de beste keuze voor een NAS is op basis van de volgende specs:

Eisen:
- Windows 2000/2003 Server
- RAID5 (minimaal 60MB/s write)
- Usenet client
- energie zuinig

Ik zat zelf aan de volgende specificaties te denken:
AM2 4050 CPU
690/780 moederbord
en een 4 tal 500 GB schijven.

De vragen:
- Gaat dit systeem met gebruik van Windows en software RAID de gevraagde performance leveren?

Alternatief:
Zelfde systeem specs, maar dan met gebruik van een 3Ware Escalade 9650SE-4LPML SATA RAID controller (hardware XOR?).
De vragen:
- Gaat die kaart in een PCI-e slot van bijvoorbeeld een Gigabyte GA-MA69VM-S2 werken?
- Gaat dit systeem met gebruik van Windows en de 3Ware RAID controler de gevraagde performance leveren?

En is er een site waarop RAID oplossingen gebenched worden met diverse hardware en software configuraties?

Hopelijk kan ik hier wat antwoorden op me vragen krijgen.

Acties:
  • 0 Henk 'm!

  • Dirk
  • Registratie: November 2004
  • Laatst online: 12:57

Dirk

Coördinator frontpagemoderatie

All statements are true in some sense, false in some sense, meaningless in some sense, true and false in some sense, true and meaningless in some sense, false and meaningless in some sense, and true and false and meaningless in some sense.


Acties:
  • 0 Henk 'm!

  • Itsacon
  • Registratie: Maart 2006
  • Laatst online: 23-08 11:14
En nu kun je nog meer rotzooi op je NAS zetten!

My system is in 64 bits. But superglue keeps it together just fine...


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 13:32

Q

Au Contraire Mon Capitan!

Mijn NAS heeft nu een RAID 6 array bestaande uit 4x 1 TB disks en 4x 500 GB disks van Samsung. De 8 disks zijn aangesloten op een Highpoint RocketRAID 2320 (8x).

Dit alles draait op Linux met software raid.

De 4x 500 GB disks zijn per paar in een RAID 0 device gestopt (md2 en md3). Deze twee raid devices zijn dus 'virtuele' 1 TB disks. En die heb ik dus aan mijn RAID 6 toegevoegd.

Dit alles creëert een 4 TB Raid 6 array.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
server:/storage6# mdadm --detail /dev/md1
/dev/md1:
        Version : 00.91.03
  Creation Time : Thu Jul 10 22:44:24 2008
     Raid Level : raid6
     Array Size : 2929701312 (2793.98 GiB 3000.01 GB)
  Used Dev Size : 976567104 (931.33 GiB 1000.00 GB)
   Raid Devices : 6
  Total Devices : 6
Preferred Minor : 1
    Persistence : Superblock is persistent

    Update Time : Sun Jul 13 13:10:40 2008
          State : clean, recovering
 Active Devices : 6
Working Devices : 6
 Failed Devices : 0
  Spare Devices : 0

     Chunk Size : 32K

 Reshape Status : 5% complete
  Delta Devices : 1, (5->6)

           UUID : ab9206ea:df9e428a:2ce552e4:6d63ea58
         Events : 0.683764

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1
       2       8       33        2      active sync   /dev/sdc1
       3       8       49        3      active sync   /dev/sdd1
       4       9        3        4      active sync   /dev/md3
       5       9        2        5      active sync   /dev/md2


De RAID 6 array bestond oorspronkelijk uit 4x 1 TB. Stuk voor stuk zijn de "virtuele" 1 TB schijven bestaande uit de 500 GB drives toegevoegd. Bij het toevoegen van de eerste virtuele drive ging alles goed. Het resultaat is zoals hierboven is te zien: 3 TB beschikbaar.

Reshapen van de array gaat met mdadm --grow. In het geval van RAID 6 moet je een kernel hebben nieuwer dan 2.6.21. Ik moest daarom naar Debian Lenny upgraden.

Crash

Terwijl ik wat aan het surfen was hoorde ik ergens opeens raar gepiep. Na enkele seconden herkende ik dat gepiep: de Rocketraid 2320 controller...

De RAID 6 array reageerde niet meer. Van de 8 disks waren nog maar 2 /dev/sdx devices te zien.

Mijn conclusie is dat de Rocketraid 2320 oververhit is geraakt (headsink verbrand vingers). Van notabene een RAID controller zou je verwachten dat zo'n ding robust is. Ik heb er nu maar een ventilator op gemonteerd, maar ik zou nu een negatief koop advies willen geven. Het het is helaas een van de weinige betaalbare 8x SATA kaarten. Disclaimer: ik weet natuurlijk niet 100% zeker wat de oorzaak is geweest, maar RAID controllers horen niet opeens 6 disks te verliezen.

Na een reboot bleek het slachtveld compleet: RAID 6 foetsie. Tot mijn geruststelling kon met een geforceerde assembly de array hersteld worden, zonder dataverlies.

De reshape naar 4 TB was echter gestopt en wilde niet meer starten. Dat is gefixed met:

mdadm -S /dev/md1
mdadm -w /dev/md1 (schakel read/write in)
mdadm -A /dev/md1

Al met al erg veel geluk gehad en mijn conclusie is dat je voor een goedkope RAID controller misschien toch niet bij Highpoint moet zijn.

Om te voorkomen dat het systeem weer klapt heb ik zoals een 'echte beunhazende tweaker' een ventilatortje gemonteerd om de controller te koelen. Wat mij betreft een absolute must voor deze controller.

[ Voor 5% gewijzigd door Q op 14-07-2008 01:10 ]

Pagina: 1 ... 3 ... 11 Laatste

Dit topic is gesloten.