All statements are true in some sense, false in some sense, meaningless in some sense, true and false in some sense, true and meaningless in some sense, false and meaningless in some sense, and true and false and meaningless in some sense.
nee, geen kapotte array, ik had die raid5 (4x500) al verwijderd. en ik kon dus met geen mogelijkheid de "nieuwe" schijven formatteren of toevoegen aan geom. ze worden netjes toegevoegd aan het Disk Management scherm, maar verder nergens.Verwijderd schreef op dinsdag 06 mei 2008 @ 18:02:
Ik denk dat je schijf nu vrolijk in een (kapotte) array draait namelijk.
maar ik heb al een oplossing gevonden:
ik heb eerst proberen te downgraden.. maar dat hielp niet, ook 0.686.2 en 0.686.1 geven dezelfde bug.
maar na een "factory reset" werkte het opeens wel weer.
denk dat het een vaag soort config bugje is. vooral omdat ik freenas upgrade en de config terugzet sinds ik freenas gebruik (vorig jaar juni ongeveer)
iig, freenas is nu vrolijk mijn nieuwe array (6x 500GB) aan het bouwen en zodra dat klaar is kan ik eindelijk verder. dus dan heb ik nog maar 8 schijven in mijn kast ipv 14. scheelt wéér een dot stroom
Ik heb nog een vraag trouwens...
weet iemand een PCI-e SATA kaart met 2 of 4 sata poorten die door FreeNAS ondersteund wordt?
[ Voor 7% gewijzigd door zyberteq op 16-05-2008 09:33 . Reden: vraag ]
[ Vocal Trance Radio @di.fm ] [ Building ] [ Driving ] [ Relaxing ]
[ Voor 11% gewijzigd door Steephh op 20-05-2008 13:58 ]
_@/'
Maar weten jullie of er ook fanless boardjes uitkomen?
Ampera-e (60kWh) -> (66kWh)
Wat zijn jullie verdere afwegingen geweest om toch een DYI te maken en wat is het uiteindelijke stroomverbruik (gemeten!) van jullie creatie? Ik verwacht namelijk dat de uiteindelijke kosten van een kant-en-klare NAS vele malen goedkoper zijn.
Ik zou zeggen lees het topic eens door, dan lees je meer dan genoeg ervaringen en argumenten om toch voor een DIY RAID NAS te gaan.tinus73 schreef op woensdag 21 mei 2008 @ 10:45:
Mooi topic.Ik zit er ook aan te denken om iets zelf te bouwen. Ik heb ook gekeken naar soho NASsen met Raid O, 1 en 5. Deze komen op de zelfde prijs (ongeveer) of goedkoper. Nu ben je met een DIY-NAS natuurlijk flexibeler.
Wat zijn jullie verdere afwegingen geweest om toch een DYI te maken en wat is het uiteindelijke stroomverbruik (gemeten!) van jullie creatie? Ik verwacht namelijk dat de uiteindelijke kosten van een kant-en-klare NAS vele malen goedkoper zijn.
_@/'

Maar ben toch wel benieuwd wat nu het 'normale' verbuik is. Hebben jullie ook een systeem met 10W idle en ca 30W normaal?
Maar nu ga ik diezelfde USB harde schijf op een fanless mini-itx boardje aansluiten (VIA eden, 533 mhz), moet iets meer verbruiken maar dan heb ik wel een x86 architectuur en iets meer power(mhz), dus kan ik gewoon een volwaardige linuxserver draaien, alles installeren wat ik wil.
Ampera-e (60kWh) -> (66kWh)
Verwijderd
De GP-schijf verbruikt slechts de helft in idle. Als je ze laat downspinnen heeft het weinig nut GP schijven te nemen, maar spindown op een actief gebruikte array (b.v. waar je 24/7 torrents naartoe gaan) heeft weinig zin. Als de schijven 24/7 draaien zou ik zeker GP schijven overwegen. De 25% lagere STR maak je goed door ze in RAID0 te schakelen. 4 van die dingen is toch alweer 300MB/s en dat is allang over gigabit heen. Qua latency kunnen de schijven nog wel trager zijn, omdat ze op 5400rpm draaien. Maar dat is meestal niet zo'n punt omdat een thuis NAS vooral data opslaat en niet 20.000 files van een of andere game die in een random-achtig patroon worden ingelezen. Bij dat laatste is je gigabit latency wellicht ook nog een issue.Steephh schreef op dinsdag 13 mei 2008 @ 08:21:
Raad je puur deze schijven aan vanwege de spin-down? De Samsung F1 1TB is toch een stuk sneller, dus ik zou die dan liever nemen aangezien deze ook nog eens goedkoper is? Of scheelt het in stroomverbruik met de WD Caviar GP 1TB dan zoveel dat het de moeite waard is iets tragere HD's te nemen tegenover het stroomverbruik?
In het verleden gebruikte ik een JBOD/concat array van 8 disks in combinatie met spindown. Het idee achter de JBOD was dat als ik een mp3tje luister of wat anders doe, dat maar van één schijf af komt en de rest dus downspinned kan blijven. In de praktijk zet mijn filesystem (UFS) bestanden niet contiguous (aaneensluitend) op de array en wordt bij het lezen van metainformatie ook meerdere schijven geraadpleegd, met het gevolg dus elke keer upspinnen van disks die een paar requests krijgen en dan weer niks staan te doen. Ik ben er vanaf gestapt, en nu komt die 8*8W = 64W 24/7 wel hard aan; dat moet beter kunnen dacht ik bij mezelf.
4W om 1000GB weg te stoppen en paraat te houden is prima te doen IMO. Maak er een leuke RAID0 van met 2 of meer disks, zorg voor een backup zoals een andere netwerk PC en je hebt een prima storage setup denk ik. Eventueel zou je RAID5 kunnen gebruiken, bij 4 of meer disks wordt dat wel interessant. De write performance is dan ongeveer 70% van de maximale geaggregeerde throughput, uitgerekend: (75 * (4-1)) * 0.70 = 157MB/s, prima te doen voor gigabit zou ik zeggen.
Met journaling erbij mag je het minimaal door de helft doen (* 0.40 als factor) dus zit je wel onder gigabit speed. Encryptie is afhankelijk van je CPU, een goede AMD dualcore gaat over de 100MB/s.
Heb je een URL? 3W is nog minder dan de 4W die ik heb gelezen; ben benieuwd naar de details.Dadona schreef op dinsdag 13 mei 2008 @ 12:49:
A) WD GP 500 GB WD5000AACS = 62 euro -> 3.01 watt idle, 6.53 watt actief
Sorry, ik had duidelijker moeten zijn.Ik vind de keuze van enlightenment opvallend, want ze geeft juist aan dat ze aan spindown doet.
Ik wil alleen spindown gebruiken op mijn 'oude' schijven (200GB/250GB/320GB/500GB) die elk 8W per stuk verbruiken in idle. Deze schijven gebruik ik als backup of als 'offline-array'; opslag die niet vaak verandert. Bijvoorbeeld mijn lange-termijn backups die moeten gewoon bewaard blijven en heb ik misschien pas over een jaar nodig. Wil ik toegang, moet ik dan 10 seconde wachten voor het opspinnen.
Voor mijn 'actieve' array gebruik ik dan wel 1TB GP schijven, een stuk of 4 tot 6 zou voldoende moeten zijn. Zet ik ze in RAID0 voor een leuke snelheid, de data wordt toch gebackupped. Geen spindown, dus voor mn 'actieve' data heb ik geen wachttijd. Deze mount ik dan als X: en de offline array bestaande uit oudere schijven als Z: die dan een wachttijd kent.
Verwijderd
ZFS is een filesystem met RAID-functionaliteit ingebouwd, geom_raid5 alleen een RAID5 driver&utility. geom_raid5 is sneller sequentiëel, betrouwbaarheid is minder makkelijk te meten.Steephh schreef op dinsdag 20 mei 2008 @ 13:57:
Ik was net even met iemand in gesprek over Software RAID 5, maar wat zijn nu eigenlijk de daadwerkelijke verschillen tussen bijvoorbeeld geom_raid5 en zfs? Vooral qua snelheid en betrouwbaarheid.
Zowel ZFS als geom_raid5 hebben niet de ultieme test doorstaan om door een mission-critical server op een zwaarbelastte positie maandenlang te draaien. Pas na heel veel testen weet je zeker of iets goed werkt. Maar met huidige crashproblemen van ZFS onder bepaalde omstandigheden is duidelijk dat dit filesystem nog niet af is en er nog flink aan gesleuteld wordt. Ondertussen is het prima bruikbaar, maar garanties zijn er niet. De freebsd-current mailinglijst komen regelmatig ZFS bugs voorbij, in het veleden ook corruptiebugs. Maar dat betekent niet per definitie dat jij daar ook last van gaat krijgen. De betreffende bugs zijn inmiddels ook al gefixed. Maar het blijft experimentele software!
Mijn advies: vertrouw niet op één onderdeel afgezien of dat hardware of software is. Gebruik een mix, bijvoorbeeld ZFS en een losse backup met een ander filesystem of RAID-engine. Merk hierbij op dat als ZFS zelf corruptie zou vertonen, dit ook je backup zal verpesten wanneer je weer opnieuw synct. De backup kan niet weten of een file corrupt is, hooguit dat het verandert is. De backup zou wel een vorm van snapshots kunnen gebruiken zodat altijd nog naar een eerdere backup gegrepen kan worden. Zowel UFS als ZFS bieden deze functionaliteit. Ook kun je voor het maken van een backup je ZFS array kunnen scrubben: zoeken naar foute checksums en/of corruptie. Als deze feature probleemloos werkt zou je zo een corrupte backup kunnen voorkomen. De vraag is misschien: hoe ver wil je gaan om data nóg betrouwbaarder te maken? 100% veilig bestaat niet, en hoe dichter daartegen hoe duurder het prijskaartje.
Die Atom met 20W Intel-chipset ernaast ja en een heel mooi maar traag PCI slotje en 10/100 ethernet onboard. Sorry maar dat platform kan me nog niet warm maken... zo snel is die Atom ook niet en we vergeten dat alleen het idle verbruik belangrijk is voor een 24/7 NAS. 1W is leuk maar een CPU met 25W TDP met een idle verbruik van 2W doe ik het ook voor. Zeker als die me meer performance geeft en/of goedkoper is.GreenSky schreef op dinsdag 20 mei 2008 @ 20:33:
Straks komen er dus boardjes uit met die Atom cpu, helemaal geweldig.
Maar weten jullie of er ook fanless boardjes uitkomen?
Daarnaast is niet de CPU meer het probleem, maar het moederbord. De VRM en de chipset verbruiken in relatie met een low-power CPU gewoon teveel. Zeker Intel en nVidia chipsets zijn stroomvretertjes. SiS, ULi en AMD/ATi daarintegen juist zuinig(er). VIA weet ik niet goed, maar sinds dat die zich focussen op SBC en Mini-ITX zal de nadruk wel op energieverbruik liggen. Zelf zie ik bijvoorbeeld dit bordje wel als NAS gebruikt worden:


Heeft 4x SATA poorten, 1x PATA, Dual LAN: één PCI-express gigabit NIC en de ander een 10/100 PCI NIC. Daarnaast heb je één PCI-express x16 slot dus je kunt er een 16-poorts SATA RAID controller in kwijt zoals de betaalbare Highpoint RocketRAID 2340. Hiermee heb je al een aardige NAS denk ik voor weinig power. En helemaal passief gekoeld dus 100% stil.
[ Voor 5% gewijzigd door Verwijderd op 21-05-2008 19:02 ]
In hoeverre heeft zo'n bordje genoeg power om bijvoorbeeld een NAS te maken met ZFS? Meestal wordt er, zachtjesVerwijderd schreef op woensdag 21 mei 2008 @ 18:52:
Zelf zie ik bijvoorbeeld dit bordje wel als NAS gebruikt worden:
[afbeelding]
[afbeelding]
Heeft 4x SATA poorten, 1x PATA, Dual LAN: één PCI-express gigabit NIC en de ander een 10/100 PCI NIC. Daarnaast heb je één PCI-express x16 slot dus je kunt er een 16-poorts SATA RAID controller in kwijt zoals de betaalbare Highpoint RocketRAID 2340. Hiermee heb je al een aardige NAS denk ik voor weinig power. En helemaal passief gekoeld dus 100% stil.
Heb inderdaad ook al tot mijn schande bijna dataverlies mogen ondervinden door een synchronisatie, gelukkig geeft het syncprogramma steeds een overzicht van wat er gaat gebeuren en toevallig zag ik daar wel heel vreemde directories en files opduiken wat er uiteindelijk op wees dat ik met een corrupt FS zat aan één kant en dat bijna gesynct had naar de andere kant (was een oneway sync).Verwijderd schreef op woensdag 21 mei 2008 @ 18:52:
Merk hierbij op dat als ZFS zelf corruptie zou vertonen, dit ook je backup zal verpesten wanneer je weer opnieuw synct. De backup kan niet weten of een file corrupt is, hooguit dat het verandert is. De backup zou wel een vorm van snapshots kunnen gebruiken zodat altijd nog naar een eerdere backup gegrepen kan worden. Zowel UFS als ZFS bieden deze functionaliteit. Ook kun je voor het maken van een backup je ZFS array kunnen scrubben: zoeken naar foute checksums en/of corruptie. Als deze feature probleemloos werkt zou je zo een corrupte backup kunnen voorkomen. De vraag is misschien: hoe ver wil je gaan om data nóg betrouwbaarder te maken? 100% veilig bestaat niet, en hoe dichter daartegen hoe duurder het prijskaartje.
In hoeverre beïnvloed zo'n scrub de levensduur van de disks? Als dit verwaarloosbaar zou zijn zou je een scheduled wekelijkse scrub kunnen doen om dan bij eventuele errors een mailtje te laten sturen oid.
Verwijderd
Weet ik niet.Bylie schreef op woensdag 21 mei 2008 @ 20:14:
In hoeverre heeft zo'n bordje genoeg power om bijvoorbeeld een NAS te maken met ZFS?
I'm keen to find out, though. Ik wil binnenkort diverse moederborden gaan kopen waaronder een paar ITX bordjes en het energieverbruik gaan vergelijken, met als doel een geschikte 24/7 low-power NAS te bouwen.
Zolang je geen gekke dingen doet maar gewoon simpel RAID0/1 zou je geen problemen moeten ondervinden. Ga je ook compressie en andere dingen doen dan kan die 1GHz VIA cpu wel eens ernstig tekort komen. ook qua gigabit gaat hij het zwaar krijgen. Encryptie zou kunnen via VIA Padlock engine, hardware accelerated. Support daarvoor zou in FreeBSD moeten zitten, ik heb het nog niet getest omdat ik nog geen VIA hardware heb gebruikt.
Maar zo'n bordje als hierboven, als het goed werkt dan zie ik dat voor een simpele NAS wel komen. Probleem is dat het bordje nu nog aardig prijzig is, minimaal 2x dat van een 780G bordje. Dat gezegd zit er natuurlijk al wel een CPU op.
De scrub-feature in ZFS gaat gewoon alle files lezen, checksum uitrekenen en vergelijken met de checksum zoals ZFS geregistreerd heeft staan, en zodoende corruptie kunnen ontdekken. Dat zou niet de levensduur van je schijven mogen aantasten, alleen geeft wel een heftige CPU belasting zeker op die low-performance chips van VIA, en het duurt erg lang. Maar als je zoiets 's nachts doet met een scriptje zie ik geen probleem.
[ Voor 25% gewijzigd door Verwijderd op 21-05-2008 20:32 ]

The VIA NAS 7800 is powered by a low heat, energy-efficient 1.5GHz VIA C7® processor with the option of a fanless VIA Eden™ SKU, the VIA NAS 7800 boasts support for up to eight S-ATA II drives, two Gigabit ports. Security is assured with both a TPM module for key generation and storage while data encryption and decryption is performed through hardware using the integrated VIA PadLock Security Engine. An MFX module for comprehensive wake-up scheduling is included, allowing IT managers to further reduce energy costs.
Verwijderd
Even opgezocht:
1 x VIA VT6130 PCIe Gigabit Ethernet Controller
1 x VIA VT6122 PCI Gigabit Ethernet Controller (for NAS 7800-15LST)
Dus wel degelijk PCI-express.
Verwijderd
Thnx voor de tip.
[ Voor 5% gewijzigd door Verwijderd op 21-05-2008 20:59 ]
Is dit bordje wel beschikbaar voor de gewone consument aangezien ik ergens gelezen had dat het enkel voor "system builders" of met andere woorden appliance makers zou zijn. Volgend filmpje vermeld ook al dat het niet beschikbaar zal zijn voor de gewone consument : http://www.youtube.com/watch?v=g5xyJ9An4E8Verwijderd schreef op woensdag 21 mei 2008 @ 20:59:
Nog even mailen of de SATA op volledige snelheid draait (dus niet zo'n Silicon Image PCI chipje om het aantal poorten van 4 naar 8 te brengen). Zo ja, dan is het zeker wel een interessant bordje. Wil ik wel gaan meebestellen ja.
Thnx voor de tip.
Ik zou wachten tot de Isaiah beschikbaar is mocht je voor een Epia platform gaan icm ZFS. De Isaiah is een flinke evolutie tov. de C7 met onder andere OoOE en x86-64 extensies. ZFS draait lekkerder op een 64bit platform.Bylie schreef op woensdag 21 mei 2008 @ 20:14:
[...]
In hoeverre heeft zo'n bordje genoeg power om bijvoorbeeld een NAS te maken met ZFS? Meestal wordt er, zachtjes, 64-bit CPU's aangeraden om hiermee aan de slag te gaan (wat de Isaiah volgens mij wel ging ondersteunen btw) plus liefst nog een goeie sloot geheugen.
Ook moet je even begrijpen dat ZFS een combinatie van volume manager en bestandssysteem is (zoals je onder linux bijvoorbeeld softRaid5 + LVM zou kunnen gebruiken). Ik kon niet goed uit je post halen of je het verschil snapt.
De Raid5-achtige implementatie binnen ZFS heet RaidZ. (Raid6 == RaidZ2)
Deze verschillen echter wezenlijk qua performance.
Ik zou als richtlijn min. 1GB voor ZFS aanhouden. Liever teveel dan te weinig en geheugen is cheap.
12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV
Verwijderd
RAID-Z is leuk maar niet expandable, en zelf vond ik de performance nogal tegenvallen. ZFS op geom_raid5 doet het sneller. Voordeel van RAID-Z is dat ZFS over redundantie beschikt en daarmee automatisch corruptie kan corrigeren: het heeft namelijk net als een mirror de beschikking over een alternatief voor de betreffende data. De kans op corruptie is echter niet groot, vooral bugs eigenlijk.
Verwijderd
Doelstelling:
Een zo goedkoop mogelijk NAS bouwen met RAID5 die zo weinig mogelijk stroom verbruikt.
Voor hardware had ik het volgende in gedachten:
Intel Pentium Dual-Core E2140 (Boxed, FC-LGA4)
MSI 945P Neo5-F (Gb-LAN, Sound, ATX)
Kingston ValueRAM 512 MB DDR2-667 (KVR667D2N5/5122)
Cooler Master Centurion 5 (nog niet zeker)
4 x Western Digital Caviar SE16 (Bulk, WD5000AAKS)
Vraagjes:
- hou zou dit ding performen met geom_raid5
- ik heb nog een zalman 400w voeding liggen, maar is dat niet wat overkill voor dit systeem, het moet een zo zuinig mogelijk systeem worden dus koop ik beter een nieuwe en efficientere voeding en zoja met hoeveel watt kom ik dan doe?
Verwijderd
Zelf zie ik meer heil in de goedkope AMD Athlon X2 4850e chips met 45W TDP; die verbruiken zo'n 5W idle. Combineer met een energiezuinige chipset (geen Intel en geen nVidia) en je zou een zuinig systeempje moeten hebben. ECS heeft bijvoorbeeld een AMD 740G bordje voor rond de 40 euro, met solid capacitors op de VRM, PCI-express, Gigabit en 6x SATA onboard. Lijkt me best geschikt als NAS bordje.
Waarvoor ga je je NAS gebruiken, voor grote bestanden? Is het dan niet verstandiger WD GP schijven te nemen ipv AAKS? Scheelt je weer 4*4 = 16W continu idle verbruik. Qua voeding: 4 schijven betekend 4 * 33W = 133W piekvermogen + je systeem dus 200W voeding zou afdoende moeten zijn. Kies een voeding met 80-plus certificaat die ook onder 15% load een hoge efficientie heeft. 80% efficienctie @ 80% load is leuk, maar als die maar 50% efficient is bij 50W verbruik dan heb je alsnog een onzuinige voeding die veel warmte opbouwt en energie verspilt.
Performance wil je > 100MB/s hebben, non-sequential performance is veelal geen issue omdat een NAS vooral grote bestanden opslaat (databestanden iig, geen applicatieschijf). Met 2 schijven in RAID0 haal je dat dus al. 4 schijven in RAID5 zou ook boven de 100MB/s liggen, tenzij je journaling wilt gebruiken. Dan ligt de write wel onder de 100MB/s.
[ Voor 14% gewijzigd door Verwijderd op 22-05-2008 17:29 ]
Verwijderd
Qua schijven moeten ze niet specifiek op grote of kleine bestanden zijn gericht, voor mij voornamelijk films & series maar voor men pa is het bijvoorbeeld voor hopen kleine bestanden, maar die kan ik gezamelijk in grotere rar files steken. Maar als die GP schijven wat besparen zal ik die eens bekijken.
Qua performance is rond de 100MB/s meer dan genoeg. Ik moet maar 1 keer al men huidige bestanden overzetten en daarna gaat het om relatief kleine overdrachten.
[ Voor 12% gewijzigd door Verwijderd op 22-05-2008 17:42 ]
Verwijderd
Verwijderd
Op dit moment heb ik 3 servers die ik wil verenigen;
Server 1:
CPU: AMD Sempron, 1800 MHz (9 x 200) 3000+ Socket 940
Motherboard: AOpen AK86-L (5 PCI, 1 AGP, 3 DDR DIMM, Audio, Gigabit LAN)
Motherboard Chipset: VIA VT8383 Apollo K8T800, AMD Hammer
System Memory: 1536 MB (PC3200 DDR SDRAM) 1 GB + 2x 256 MB (3.0-3-3-8 @ 200 MHz)
Boot Drive: WDC WD800JB-00JJC0 (74 GB, IDE)
SCSI/RAID Controller: Windows Promise FastTrak TX4310 - 4 Disk RAID5 SCSI Disk Device (894 GB)
Network Adapter Intel(R) PRO/1000 GT Desktop Adapter
Case: Chieftec UNC-410F-B
Server 2:
CPU Type 2x Intel Pentium III-S, 1266 MHz (9.5 x 133)
Motherboard: Tyan S2518 Thunder LE-T (2 PCI64, 4 DIMM, Video, LAN)
Motherboard Chipset: ServerWorks NB6635 Champion LE
System Memory 1536 MB
Boot Drive: WDC WD800JB-00JJC0 (74 GB, IDE)
SCSI/RAID Controller: Windows Promise FastTrak TX4310 - 4 Disk RAID5 SCSI Disk Device (894 GB)
Network Adapter Intel(R) PRO/1000 GT Desktop Adapter
Case: Coolermaster Mystique 631
Server 3:
CPU Type: Intel Pentium 4 630 @ 3000 Ghz 775 LGA
Motherboard: Intel GrantsDale CRB Board
Motherboard Chipset: Intel i915GV
System Memory 4096 MB waar van 3072 beschikbaar is voor het systeem
Boot Drive: raid 1 (2x)320 western Digital
Case: Tyan GS14
Ik zou dus graag een 16 of meer hdd server neerzetten. 8 hdd in raid 5 of 5ee voor de data en hierna uitbreiden naar 16 //en minimaal 2 schijven in raid 1 voor Windows 2003 server. Mij lijkt de Adaptec RAID 31605 een mooie kaart om de 16 schijven aan te koppelen. En ik heb een kast gevonden die 16 schijven kan huizen en 1 cd/dvd slim drive en floppy/hdd maar deze kast is maar 3u hoog. En naar mijn weten zijn er geen stille voedingen van 3 u die een performers hebben van 600+ (16x 33wat piek)+(2x33 wat piek)+mobo en pross.
Graag hoor ik van jullie of een passende oplossing weten, of met de huidige hardware met een aanvulling mijn wens te verwekelijken is. Alvast bedankt!!!
Of raden jullie een ander OS aan?
Die flash diskjes zijn wel leuk trouwens, gewoon van Transcend, flash IDE modules. Kosten niet veel (met linux heb je ook niet zoveel nodig) en je kan netjes data (hdd's) van OS (flash disk) scheiden zoals kleine NAS apparaatjes dat ook doen. En op IDE kan je alles installeren zonder gezeik.
Waarschuwing, die flash modules nemen wel je hele IDE socket in beslag, dus er kan dan geen IDE drive meer naast (tenzij je uiteraard een 2e IDE socket op het mobo hebt)
Ampera-e (60kWh) -> (66kWh)
Je kunt beter voor 15 euro een 1 gb flash disk kopen dan om die reden van os te switchen. Met 512 mb red je het prima met Debian, mits je geen gekke software er allemaal bij wil.GreenSky schreef op donderdag 22 mei 2008 @ 23:10:
Ik kom ook nog even tussendoor met een vraagje. Ik heb nu Debian geinstalleerd op een flash disk van 512 mb, mbv het base/netinstall cdtje. En dan verder geen extra dingen geinstalleerd. Ik dacht dat het dan maar iets in de trant van 60 mb zou innemen. Maar het heeft al 220 mb ingenomen. Is geen ramp, ik kom er wel.
Of raden jullie een ander OS aan?
Mijn storage doos draait debian op een 2gb cf via zo'n ide converter en dat werkt inderdaad prima.Die flash diskjes zijn wel leuk trouwens, gewoon van Transcend, flash IDE modules. Kosten niet veel (met linux heb je ook niet zoveel nodig) en je kan netjes data (hdd's) van OS (flash disk) scheiden zoals kleine NAS apparaatjes dat ook doen. En op IDE kan je alles installeren zonder gezeik.
Waarschuwing, die flash modules nemen wel je hele IDE socket in beslag, dus er kan dan geen IDE drive meer naast (tenzij je uiteraard een 2e IDE socket op het mobo hebt)
Verwijderd
Of je nou Linux of FreeBSD fijner vindt werken dat is persoonlijk, probeer ze beide eens uit of verdiep je er enigszins in om de keus te maken welke voor jou het meeste geschikt is. Als je al (command-line) Linux ervaring hebt dan is dat natuurlijk mooi meegenomen, maar veelal is die kennis ook toepasbaar op BSD en andere UNIX-achtige operating systems. Dus je kennis is niet opeens waardeloos als je van OS switcht.
@ImpactMaster: je hebt veel geluk gehad met het opnieuw maken van de array; bij enige andere variabele (stripe-size of disk-order) had je al je data gecorrupteert; zeer riskant! In de toekomst kun je een broken array beter recoveren met FreeBSD, ik heb van diverse mensen waaronder op GoT data weten te recoveren via FreeBSD, terwijl ze zelf hardware of onboard RAID gebruikten.
Over je plan:
1) je hebt niet zo'n sterke voeding nodig als je een controller kiest met Staggered Spinup, zoals de Highpoint RocketRAID 2340 (hardware-assisted) met 16 poorten; best leuke controller voor een goede prijs. Je kunt er zelf voor kiezen hardware RAID of software RAID te draaien; ik raad het laatste aan.
2) je wilt uiteindelijk naar 16 disks in RAID5 gaan, dat is niet echt veilig meer te noemen, vooral als je geen backup hebt. Ik raad een backup sowieso aan. Zelf vind ik een RAID0 setup en een backup daarnaast in RAID5 de beste setup maar ieders wensen en situatie verschilt.
3) eventueel kun je je arrays splitsen, zodat je b.v. 4TB als actieve dataset hebt en een ander gedeelte als 'passief' beschouwt en daar spin-down op inschakelt.
4) gebruik PCI-express voor alles; geen PCI. Zeker als je in een nieuwe setup investeert!
[ Voor 6% gewijzigd door Verwijderd op 23-05-2008 07:03 ]
Ja ik weet niet of dat een goed idee is, maar het zal in de praktijk wel meevallen. Voordeel van zo'n converter met CF kaartjes is dat de kaartjes nog goedkoper zijn dan het spul waar ik mee werk. Ik doelde op deze dingen:Q schreef op donderdag 22 mei 2008 @ 23:54:
Mijn storage doos draait debian op een 2gb cf via zo'n ide converter en dat werkt inderdaad prima.
http://shop.transcend.nl/...ory.asp?Cid=24&indexnum=4
Al hebben ze ook andere interessante flash dingen, kijk maar onderin het menu.
Ampera-e (60kWh) -> (66kWh)
Verwijderd
welk filesystem zou ik het best gebruiken ? ext3 dacht ik maar support UFS of ZFS geen journalling?Verwijderd schreef op donderdag 22 mei 2008 @ 18:26:
Oke, overweeg dan het gebruik van journaling. Dat biedt de beste zekerheid tegen gegevensverlies door unclean shutdowns, reboots, crashes en stroomproblemen. Wilde je trouwens FreeNAS of FreeBSD(7) gebruiken?
zou ext3 minder performen?
De 500gb GP versie van WDVerwijderd schreef op woensdag 21 mei 2008 @ 18:24:
[...]
Heb je een URL? 3W is nog minder dan de 4W die ik heb gelezen; ben benieuwd naar de details.
hmm had net zo goed de edit kunnen pakken...

[ Voor 6% gewijzigd door Dadona op 24-05-2008 00:46 ]
Verwijderd
Ext3 is er niet voor FreeBSD en heeft maar 'lichte' journaling. UFS heeft van zichzelf geen journaling maar Soft-Updates; een coole techniek die op kale non-write-back mechanismen prima werkt. Op RAID5 arrays is het minder effectief en kun je nog steeds corruptie krijgen bij ongewone situaties. FreeBSD7 heeft ondersteuning voor sterke journaling - geom_journal - iets wat Linux niet heeft. Met sterke journaling heb je een ijzersterk filesystem dat heftige write-back mechanismen kan beveiligen en dus een prima keuze is voor optimale zekerheid.Verwijderd schreef op vrijdag 23 mei 2008 @ 18:26:
welk filesystem zou ik het best gebruiken ? ext3 dacht ik maar support UFS of ZFS geen journalling?
zou ext3 minder performen?
De nadelen: werkt alleen met FreeBSD7 en hoger, impliceert de keuze voor het UFS filesystem en het haalt je sequentiële schrijfsnelheid met minimaal de helft naar beneden omdat alle bytes dubbel naar disk worden geschreven. Eerst naar de journal, en daarna naar de uiteindelijke locatie. geom_journal kan voor kleine updates echter wel snelheidswinst opleveren; alleen het schrijven van grote bestanden is duidelijk langzamer. Maar afhankelijk van jouw situatie kan dat meer dan genoeg zijn.
Omdat PCI een hogere latency en hogere CPU belasting kent. 30% op een dualcore vind ik te gek worden, PCI is erg heftig qua interrupts. Misschien dat polling minder CPU belasting kost maar dat ondersteunt afaik niet elke kaart.Dadona schreef op vrijdag 23 mei 2008 @ 21:36:
Enlightenment, je geef iedere keer aan dat je voor pci-e moet gaan en niet voor pci, maar waarom zou je niet een gigabit lan kaartje in een pci slot steken?
Qua snelheid lever je gewoon veel in, ook al heb je maar één PCI slot in gebruik zoals ik. Ik heb getest met 2 disks op PCI en 2 disks op PCIe en in gstat kun je zien dat de latency van PCI gewoon stukken hoger ligt. De exacte cijfers kan ik even niet vinden, misschien dat ik dit nog een keer goed uittests en op mn site zet ofzo.
Het probleem van PCI is dat er al best wat PCI apparaten in gebruik zijn ook al zijn al je PCI slots leeg, alle super I/O, audio, soms onboard ethernet, PS/2, USB en nog veel meer spul loopt op één PCI bus. Als één apparaat de PCI bus wilt, ben je hem gelijk voor 32 of 64 kloktikken kwijt. Dat kan de latency ernstig doen fluctueren. Iedereen praat over MB/s maar latency wordt niet genoemd, omdat het vaak niet wordt begrepen. Maar uiteindelijk kun je alle performance uitdrukken in wachttijd dus latency is voor alle I/O superbelangrijk. Mijn tests toonden aan dat PCI trager was ook al was de throughput met 14.4MB/s duidelijk onder de grens van PCI - 133MiB/s. Staar je dus niet blind op de bandbreedte - het is de latency die PCI zo onaantrekkelijk maakt. En daarnaast de CPU belasting.
Waarom zou je wél PCI willen? PCI-express is beter in alle opzichten, gewoon doen dus.
Oke, maar dit is de 500GB versie, de 1TB versie verbruikt wel 4W. Gek genoeg stelt hardware.info dat de RE2 versie van de GP 1TB schijf een iets lager verbruik heeft, terwijl andere bronnen op internet juist de RE2 GP versie op iets over de 4W stellen. Misschien dat nog uitmaakt precies welk model je hebt dat daar nog aan getuned is oid.
Zelf heb ik liever 1TB voor 4W dan 2x500GB voor 2x3=6W; uiteindelijk gaat het mij om zo'n laag mogelijk verbruik en hoe minder schijven hoe beter. Bedenk ook dat minder schijven minder ruimte inneemt en minder van je voeding vraagt tijdens het opspinnen. Daar tegenover staat dat meer schijven je meer snelheid opleveren in striping RAID configuraties. Maar je haalt al snel genoeg voor gigabit dus dit is wellicht niet zo'n punt voor een NAS.
Verwijderd schreef op vrijdag 23 mei 2008 @ 07:01:
CompactFlash zonder wear-leveling zoals die losse kaartjes gaat snel kapot. Vooral als je logs ook op die disk komen, of je moet aan delayed writes doen zoals SoftUpdates op FreeBSD. Daarmee spaar je de writes op tot standaard 30 seconden, zodat je niet per seconde bijv. 30 keer naar dezelfde sector schrijft. Want dat gaat je flash kaartje niet fijn vinden.
Onder linux kun je deze tips ter harte nemen om de levensduur van je CF te verlengen:GreenSky schreef op vrijdag 23 mei 2008 @ 10:39:
[...]
Ja ik weet niet of dat een goed idee is, maar het zal in de praktijk wel meevallen. Voordeel van zo'n converter met CF kaartjes is dat de kaartjes nog goedkoper zijn dan het spul waar ik mee werk. Ik doelde op deze dingen:
http://shop.transcend.nl/...ory.asp?Cid=24&indexnum=4
Al hebben ze ook andere interessante flash dingen, kijk maar onderin het menu.
http://www.cyrius.com/debian/nslu2/linux-on-flash.html
Ik maak zelf af en toe een dd van de CF als ik dan nodig vind. Heb backup CF liggen mocht het mis gaan.
Ik wist niet dat er zelfs kant-en-klare ide-flashdisks bestaan. Veel kosten ze niet.
[ Voor 28% gewijzigd door Q op 25-05-2008 00:08 ]
Verwijderd
Nu dus over op een MSI P35 Neo2-FR met 5x intern en 2x externe SATA poorten en ook die IDE RAID (Promise FastTrak 100) en SATA RAID (Sil3112) erin.
Heb nu wel FreeBSD 7.0-STABLE erop gezet aangezien ik ook wel eens script in PHP enzo en ik ook al een colobak heb met FreeBSD 6.2-STABLE erop en toch wel wat meer vrijheid wilde qua applicaties. Daarnaast is ook de hardware support een stuk beter omdat ik de onboard SATA poorten van de ICH9R chipset niet goed werkend kreeg bij 686.3 (die gebaseerd is op 6.2-RELEASE-p11, hij liep vast bij het mounten) en bij FreeBSD 7.0-STABLE wel.
Enige nadeel is wel dat DHCP niet goed werkt met de onboard Realtek controller (RTL1111b geloof ik zo snel uit mijn hoofd), maar dat gebruik ik toch niet
Heb nu 2x 160 GB nog in RAID1 staan via die Promise en die 2x 200 GB in een ZFS pool want dat wilde ik ook eens uitproberen en het bevalt erg goed! Lekker makkelijk ook dat alles met maar 2 commands gaat

Nou maar eens doorsparen voor een wat snellere CPU want die Pentium 4 530 is toch niet zo heel snel

Ook maar ff wat pics erbij doen
Voorkant nieuwe kast:

Ruimte in nieuwe kast


Schijven (nog niet allemaal aangesloten)

1
2
3
| olympos Tomba /usr/home/Tomba # uname -a FreeBSD olympos.bt.local 7.0-RC1 FreeBSD 7.0-RC1 #0: Mon Dec 24 10:10:07 UTC 2007 root@driscoll.cse.buffalo.edu:/usr/obj/usr/src/sys/GENERIC amd64 |
Ik zie echter dat inmiddels (al een tijdje zelfs
http://www.freebsd.org/do...andbook/cutting-edge.htmlTomba schreef op woensdag 28 mei 2008 @ 12:38:
* Tomba draait momenteel FreeBSD 7.0 RC1
code:
1 2 3 olympos Tomba /usr/home/Tomba # uname -a FreeBSD olympos.bt.local 7.0-RC1 FreeBSD 7.0-RC1 #0: Mon Dec 24 10:10:07 UTC 2007 root@driscoll.cse.buffalo.edu:/usr/obj/usr/src/sys/GENERIC amd64
Ik zie echter dat inmiddels (al een tijdje zelfs) 7.0 Release uit is ! Kan ik deze gewoon upgraden mbv de 1e installatieCD ?
Veel lees plezier gewenst
Je kan het ook eventueel hiermee doen als je in een luie bui bent af en toe : http://www.freebsd.org/cg...ports/sysutils/sysupdate/
Discalimer : Als optie #2 je systeem verpest of niet goed update ben ik niet schuldig. Sowieso is het handig om te weten hoe je het zelf moet doen sinds dit je dan kan redden over het algemeen !!
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Verwijderd
Kan je doen, maar als je toch bezig bent met upgraden, zou ik het gewoon meteen naar 7.0-STABLE upgraden. Is iets moeilijker maar met deze tutorial kom je er ongetwijfeld uit. Is wel voor i386 maar veel meer dan de mapnaam verschilt het (tot zover de tutorial) nietTomba schreef op woensdag 28 mei 2008 @ 12:38:
* Tomba draait momenteel FreeBSD 7.0 RC1
code:
1 2 3 olympos Tomba /usr/home/Tomba # uname -a FreeBSD olympos.bt.local 7.0-RC1 FreeBSD 7.0-RC1 #0: Mon Dec 24 10:10:07 UTC 2007 root@driscoll.cse.buffalo.edu:/usr/obj/usr/src/sys/GENERIC amd64
Ik zie echter dat inmiddels (al een tijdje zelfs) 7.0 Release uit is ! Kan ik deze gewoon upgraden mbv de 1e installatieCD ?
Zit trouwens te kijken of ik mijn NAS niet wat stiller kan krijgen want die Intel Boxed Cooler die ik er nu op heb zitten maakt echt veel lawaai (50 dB(A) ), dit zou dan waarschijnlijk een Scythe Ninja gaan worden. Naast de CPU koeler ben ik ook van plan om m'n voeding een upgrade te geven want dat is een inmiddels iets van 4 jaar oude AOpen van 350W en zij staan niet echt bekend om hun goede en efficente voedingen
Waarom? OCZ is een naar mijn idee wat bekender merk wat me gevoelsmatig al een stuk meer vertrouwen geeft en de 600W versie heeft ook flink wat awards weten te ontvangen. Ik wilde dan zelf voor de 500W versie gaan omdat die toch een kleine 20 e goedkoper is en waarschijnlijk toch niet meer nodig heb. Er zitten nu in totaal 5 HD's bij en daar wil ik over niet al te lange tijd nog 2 a 3 schijven bijplaatsen.
Corsair is voor mij een vertrouwd merk en straalt ook professionaliteit uit. De 450W is helaas niet modulair maar ze geven wel 5 jaar garantie op hun spullen wat mij ook wel een teken geeft van dat het goed spul is
Dan bedoel ik dus een case waar al een hot-swap SATA bay in steekt, voor een stuk of 5 schijfjes bijvoorbeeld...
Dat je gewoon langs voor je schijfjes kan inpluggen.
Coolermaster Itower:phobosdeimos schreef op zaterdag 31 mei 2008 @ 11:33:
Is er een ATX case op de markt, die speciaal gericht is op dit soort projecten?
Dan bedoel ik dus een case waar al een hot-swap SATA bay in steekt, voor een stuk of 5 schijfjes bijvoorbeeld...
Dat je gewoon langs voor je schijfjes kan inpluggen.
http://www.trustedreviews...oolerMaster-iTower-930/p1
Verwijderd
Heb uiteindelijk voor de volgende onderdelen gekozen:
GigaByte MA78GM-S2
AMD Athlon? 64 X2 4850E
3 x WD5000AACS
1 x WD5000AAKS (had ik nog liggen)
Kingston ValueRam 512MB DDR2
Heb nu enkele problemen waar ik niet om heen geraak:
- Het moederbord heeft een RTL8111C NIC en daar bestaat geen driver voor FreeBSD7 voor
nu heb ik dan tijdelijk een 100mbit oud realtek prul dat wel perfect werkt erin gestoken
- FreeBSD kan onmogelijk booten als de schijven in RAID of AHCI mode staan, ik krijg dan een BTX halted fout, daarom draai ik ze nu als native IDE wat geen probleem zou zijn ware het niet dat freebsd geen dma mode hoger dan UDMA33 wilt instellen!
ik doe "atacontrol mode ad4 UDMA133" en ik krijg terug "current mode = UDMA33"
labelen alleen al duurt dus enorm lang (zon 400 minuten) terwijl de processor nauwelijks iets doet
iemand die me kan helpen met deze problemen?
Dmesg:
1
2
3
4
5
| atapci1: <ATI IXP700 UDMA133 controller> port 0x1f0-0x1f7,0x3f6,0x170-0x177,0x376,0xfa00-0xfa0f at device 20.1 on pci0 ad4: 476938MB <WDC WD5000AACS-00ZUB0 01.01B01> at ata2-master UDMA33 ad5: 476940MB <WDC WD5000AACS-00ZUB0 01.01B01> at ata2-slave UDMA33 ad6: 476940MB <WDC WD5000AACS-00ZUB0 01.01B01> at ata3-master UDMA33 ad7: 476940MB <WDC WD5000AAKS-00TMA0 12.01C01> at ata3-slave UDMA33 |
[ Voor 22% gewijzigd door Verwijderd op 01-06-2008 12:37 ]
Verwijderd
De Realtek 8111C doet het als het goed is wel, alleen DHCP niet, de oplossing hiervoor is zelf een vast IP adres instellen.Verwijderd schreef op zondag 01 juni 2008 @ 12:19:
Ik heb sinds vrijdag alle onderdelen van men fileserver aangekregen, ben nu al sinds vrijdag bezig het volledig inorde te krijgen.
Heb uiteindelijk voor de volgende onderdelen gekozen:
GigaByte MA78GM-S2
AMD Athlon? 64 X2 4850E
3 x WD5000AACS
1 x WD5000AAKS (had ik nog liggen)
Kingston ValueRam 512MB DDR2
Heb nu enkele problemen waar ik niet om heen geraak:
- Het moederbord heeft een RTL8111C NIC en daar bestaat geen driver voor FreeBSD7 voor
nu heb ik dan tijdelijk een 100mbit oud realtek prul dat wel perfect werkt erin gestoken
- FreeBSD kan onmogelijk booten als de schijven in RAID of AHCI mode staan, ik krijg dan een BTX halted fout, daarom draai ik ze nu als native IDE wat geen probleem zou zijn ware het niet dat freebsd geen dma mode hoger dan UDMA33 wilt instellen!
ik doe "atacontrol mode ad4 UDMA133" en ik krijg terug "current mode = UDMA33"
labelen alleen al duurt dus enorm lang (zon 400 minuten) terwijl de processor nauwelijks iets doet
iemand die me kan helpen met deze problemen?
Dmesg:
code:
1 2 3 4 5 atapci1: <ATI IXP700 UDMA133 controller> port 0x1f0-0x1f7,0x3f6,0x170-0x177,0x376,0xfa00-0xfa0f at device 20.1 on pci0 ad4: 476938MB <WDC WD5000AACS-00ZUB0 01.01B01> at ata2-master UDMA33 ad5: 476940MB <WDC WD5000AACS-00ZUB0 01.01B01> at ata2-slave UDMA33 ad6: 476940MB <WDC WD5000AACS-00ZUB0 01.01B01> at ata3-master UDMA33 ad7: 476940MB <WDC WD5000AAKS-00TMA0 12.01C01> at ata3-slave UDMA33
Wat betreft je SATA-controller, wat je zou kunnen proberen is:
1. eerst kijken of hij staat in de Hardware Compatibility list van FreeBSD 7.0
2. Kijken of er een BIOS update is
3. Upgraden naar FreeBSD 7.0-STABLE (mbv de tutorial die in mijn vorige post staat)
Had er zelf ook problemen mee maar heb ze door deze stappen uit te voeren opgelost
Verwijderd
Enkel nog geen succes met de onboard NIC, maar daar ben ik atm niet mee bezig.
Verwijderd
Ik heb de FreeBSD mailinglists doorgespit en gevonden dat de developer yongari een patch heeft gemaakt voor realtek adapters, deze is echter al een paar dagen uit en waarschijnlijk al gemerged in de -STABLE tak aan de header gezien, hij is dan ook voornameling bedoeld voor 7.0-RELASE dacht ik. Je kunt het natuurlijk altijd proberen maar het zal waarschijnlijk niks uitmaken, daarnaast heb ik ook geen idee wat deze patch precies doet en moet je wel weten hoe je een kernel bakt (al heb ik daar nog een link naar een tutorial voor mocht je interesse hebben)Verwijderd schreef op zondag 01 juni 2008 @ 19:37:
Thanks! die manual om te updaten heeft goed geholpen, schijven draaien nu op SATA300 mode.
Enkel nog geen succes met de onboard NIC, maar daar ben ik atm niet mee bezig.
De patch is in ieder geval hier te vinden
Het alternatief is wat nieuwe hardware kopen zoals : Asus P5K WS en daarvan de onboard poorten allemaal gebruiken (twee e-sata poorten doorlussen naar binnen) en vervolgens doorgaan met de mdadm setup. Ik zou er dan twee keer 1G DDR 2 bijdoen en bv. een Intel Core 2 Duo E2180.
Voordeel van de eerste setup is dat ik weinig nieuws moet kopen en dat ie zuiniger is maar mogelijke problemen met de highpoint in de pci-e 16x slot. Met de tweede oplossing kan ik mijn compaq scsi kaartje met 3x18GB op 10k erin steken om van te booten echter geef ik meer geld uit en nog steeds met mdadm werk.
[ Voor 7% gewijzigd door analog_ op 01-06-2008 23:32 ]
Verwijderd
Waarom zou de Highpoint die zelf PCI-express x4 is, niet werken in een x16 slot? Hardware RAID via de Highpoint controller levert je, naast een paar vrije PCI poorten (neem aan dat je nu 3x een Sil3114 kaartje hebt), onafhankelijkheid van mdadm op en daarmee onafhankelijkheid van OS. Ook levert het (ten eerste omdat je gebruik maakt van een PCI-e bus) snelheid op en ontlast het (afhankelijk van de chip op de controller) je CPU.Mr.SiS schreef op zondag 01 juni 2008 @ 23:30:
Ik heb nu een Athlon 64 Mobile 3000+ op een MSI K8N Neo 3 moederbord. Hieraan hangen nu een drietal sil 3114 chipjes met daaraan 8 WD 250G schijven in software raid dmv. mdadm. Ik wil graag meer performance, is het dan intressanter op bv. een Highpoint 2320 erin te steken en hopen dat dat werkt.
Het alternatief is wat nieuwe hardware kopen zoals : Asus P5K WS en daarvan de onboard poorten allemaal gebruiken (twee e-sata poorten doorlussen naar binnen) en vervolgens doorgaan met de mdadm setup. Ik zou er dan twee keer 1G DDR 2 bijdoen en bv. een Intel Core 2 Duo E2180.
Voordeel van de eerste setup is dat ik weinig nieuws moet kopen en dat ie zuiniger is maar mogelijke problemen met de highpoint in de pci-e 16x slot. Met de tweede oplossing kan ik mijn compaq scsi kaartje met 3x18GB op 10k erin steken om van te booten echter geef ik meer geld uit en nog steeds met mdadm werk.
3x 18 GB in SCSI is "leuk" maar voor hetzelfde geld wat je voor al die nieuwe spullen betaald kun je net zo goed 2x 500 GB in SATA gebruiken of WD raptors aanschaffen wil je per se de snelheid van die 10k schijven. Welke bus gebruikt de SCSI adapter? anders kun je deze ook in de vrijgekomen PCI sloten van je moederbord steken.
(edit)
OP reviews: Areca ARC-1280 preview en mini SATA RAID-vergelijking kan je een review vinden waaruit blijkt dat de Highpoint 2320 nog wel gebruik maakt van de CPU voor de berekeningen maar dit merk je alleen bij RAID 5 maar verder haast niet onder doet voor de Areca ARC 1280 en zelfs in de conclusie aangeraden wordt voor de thuisserver
[ Voor 8% gewijzigd door Verwijderd op 02-06-2008 00:23 ]
Niet alle PCI-E 16x sloten slikken per definitie kaartjes anders dan videoplanken.Verwijderd schreef op maandag 02 juni 2008 @ 00:20:
[...]
Waarom zou de Highpoint die zelf PCI-express x4 is, niet werken in een x16 slot?
Verwijderd
Dit zou ik erg vreemd vinden. Heb je hier een bron van?The Realone schreef op maandag 02 juni 2008 @ 09:37:
[...]
Niet alle PCI-E 16x sloten slikken per definitie kaartjes anders dan videoplanken.
Op http://www.highpoint-tech.com/USA/series_2000pcie.htm staat in ieder geval dat de 2320 PCIe x16 compatible is. Het lijkt me niet dat ze dat neerzetten als dit afhangt van de chipset.
Wat ik binnenkort eens een keertje ga proberen is om zelf een LCD in elkaar te knutselen en daar dan allemaal status informatie van m'n NAS te tonen mbv LCDproc onder FreeBSD. Probleempje is alleen dat er geen parallele poort meer zit op m'n MSI P35 Neo2-FR en ben opzoek naar een USB-naar-Parallel converter die zeker ook onder FreeBSD werkt (of zijn dit ze gewoon allemaal?)...
Een ander probleem is ook dat de meeste converters niet de parallele aansluiting heb die ik zoek, ik vind namelijk alleen maar deze:

Terwijl ik gewoon eentje wil met 25 ronde gaatjes (geen idee wat de benaming hiervan is)
Wat ik ook nog zit te overwegen is om een PCBtje te laten maken waarop al het geconvert plaatsvind aangezien de meeste kant-en-klare converter kabels ~15 euro kosten incl verzenden en een eigen PCBtje 20 e
Sommige PCIe sloten zijn in feite PCIe-G sloten ofzoiets in ieder geval alleen voor "Graphics" .Verwijderd schreef op maandag 02 juni 2008 @ 13:32:Dit zou ik erg vreemd vinden. Heb je hier een bron van?
Op http://www.highpoint-tech.com/USA/series_2000pcie.htm staat in ieder geval dat de 2320 PCIe x16 compatible is. Het lijkt me niet dat ze dat neerzetten als dit afhangt van de chipset.
Heeft dat moederbord ook geen LPT poort via zo'n "break-out" kabeltje ??Wat ik binnenkort eens een keertje ga proberen is om zelf een LCD in elkaar te knutselen en daar dan allemaal status informatie van m'n NAS te tonen mbv LCDproc onder FreeBSD. Probleempje is alleen dat er geen parallele poort meer zit op m'n MSI P35 Neo2-FR en ben opzoek naar een USB-naar-Parallel converter die zeker ook onder FreeBSD werkt (of zijn dit ze gewoon allemaal?)...
Een ander probleem is ook dat de meeste converters niet de parallele aansluiting heb die ik zoek, ik vind namelijk alleen maar deze:
[afbeelding]
Terwijl ik gewoon eentje wil met 25 ronde gaatjes (geen idee wat de benaming hiervan is)
Wat ik ook nog zit te overwegen is om een PCBtje te laten maken waarop al het geconvert plaatsvind aangezien de meeste kant-en-klare converter kabels ~15 euro kosten incl verzenden en een eigen PCBtje 20 e
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
En andersom slikken de meeste sloten in servers geen videokaarten, of maar op 1x. ook een kutstreek imho.The Realone schreef op maandag 02 juni 2008 @ 09:37:
[...]
Niet alle PCI-E 16x sloten slikken per definitie kaartjes anders dan videoplanken.
[ Voor 58% gewijzigd door P5ycho op 02-06-2008 14:46 ]
12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV
Verwijderd
Nee, wel serieel en daar had ik ook toevallig al zo'n bracket met een poort erop, maar parallel helaas niet. wéér een andere oplossing zou zijn een PCI kaartje met een parallele poort erop maar om daar nou een heel PCI slot aan op te offeren vind ik ook zonde. Ik heb trouwens de benaming gevonden van de aansluiting die ik bedoel: DB25nero355 schreef op maandag 02 juni 2008 @ 13:37:
[...]
Heeft dat moederbord ook geen LPT poort via zo'n "break-out" kabeltje ??
De meeste servermoederborden hebben onboard VGAP5ycho schreef op maandag 02 juni 2008 @ 14:45:
[...]
En andersom slikken de meeste sloten in servers geen videokaarten, of maar op 1x. ook een kutstreek imho.
[ Voor 25% gewijzigd door Verwijderd op 02-06-2008 15:00 ]
Verwijderd
heb eens gekeken in de source en deze patch zit er volges mij al in verwerkt. Deze is ook niet voor de 8111C voor zover ik zie. ( enkel voor B ) Het schijnt dat de 8111C sterk verschilt van alle andere en dat er zonder de nodige documenten geen driver ontwikkeld kan worden.Verwijderd schreef op zondag 01 juni 2008 @ 20:47:
[...]
Ik heb de FreeBSD mailinglists doorgespit en gevonden dat de developer yongari een patch heeft gemaakt voor realtek adapters, deze is echter al een paar dagen uit en waarschijnlijk al gemerged in de -STABLE tak aan de header gezien, hij is dan ook voornameling bedoeld voor 7.0-RELASE dacht ik. Je kunt het natuurlijk altijd proberen maar het zal waarschijnlijk niks uitmaken, daarnaast heb ik ook geen idee wat deze patch precies doet en moet je wel weten hoe je een kernel bakt (al heb ik daar nog een link naar een tutorial voor mocht je interesse hebben)
De patch is in ieder geval hier te vinden
Bij het laden van if_re krijg ik de volgende fouten
1
2
3
4
5
6
| module_register: module re/miibus already exists! Module re/miibus failed to register: 17 module_register: module cardbus/re already exists! Module cardbus/re failed to register: 17 module_register: module pci/re already exists! Module pci/re failed to register: 17 |
Mij lijkt me er niets anders op te zitten dan een gigabit kaartje kopen dat wel ondersteund is of gewoon te wachten op een driver als die er al ooit komt.
[ Voor 4% gewijzigd door Verwijderd op 02-06-2008 15:26 ]
Spit anders effe zo'n Kernel file door dan kom je het vanzelf tegen
/EDIT : Linkje hieronder was ik vergeten

[ Voor 15% gewijzigd door nero355 op 02-06-2008 16:50 ]
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Verwijderd
Waarom moeilijk doen als het makkelijk kannero355 schreef op maandag 02 juni 2008 @ 16:17:
Gooi er gelijk zo'n mooie Intel 1000GT/MT kaart in die zou moeten werken in 99% van de gevallen. Geloof in ieder geval dat de Kernel van 6.2 er support voor had.
Spit anders effe zo'n Kernel file door dan kom je het vanzelf tegen
Daarom dus, Die scsi schijven heb ik nog dus ik zou ze dan graag ook eens gebruikenThe Realone schreef op maandag 02 juni 2008 @ 09:37:
[...]
Niet alle PCI-E 16x sloten slikken per definitie kaartjes anders dan videoplanken.
Verwijderd
Dankzij een paar kernel panics tijdens het prutsen moet men array op dit moment eventjes nog alles opnieuw verifyen. Morgen dan maar eens kijken hoe snel het gaat
'Maar het heeft altijd zo gewerkt . . . . . . '
Verwijderd
Mag ik vragen waarom je voor de Linksys gegaan bent en niet voor de Intel 1000 GT? Als ik zo in de pricewatch kijk is het verschil namelijk echt 1 a 2 euro... welke chipset heeft dat linksys kaartje?Verwijderd schreef op dinsdag 03 juni 2008 @ 00:57:
Zozo, heb me dan snel een Linksys eg1032 kaartje aangeschaft en die werkt perfect met een statisch ip en "media autoselect" in ifconfig.
Dankzij een paar kernel panics tijdens het prutsen moet men array op dit moment eventjes nog alles opnieuw verifyen. Morgen dan maar eens kijken hoe snel het gaat![]()
Verwijderd
Heb genomen wat er beschikbaar was (omdak ik niet langer kon wachten) en de Intel was er niet. Afaik heeft die linksys ook een realtek chipset maar wel een die deftig ondersteund is met de re driver.Verwijderd schreef op dinsdag 03 juni 2008 @ 11:54:
[...]
Mag ik vragen waarom je voor de Linksys gegaan bent en niet voor de Intel 1000 GT? Als ik zo in de pricewatch kijk is het verschil namelijk echt 1 a 2 euro... welke chipset heeft dat linksys kaartje?
iig zijn er geen problemen met de performance en ben ik tevreden
EDIT: jezus nu heb ik weer een ander probleem:
Ik ben bestanden van enkele 100den megabytes aan het overzetten (naar de fileserver) en de snelheid loopt op tot 60MB/s.Plots (na een stuk of 3 bestanden) krijg ik rare problemen. FTP werkt plots niet meer, ssh connecties blijven open maar ik kan er geen reactie uit krijgen en zelfs een toetsenbord aan de server hangen geeft geen reactie. (wel zie ik nog de dmesg output op de terminal verschijnen als ik het usb toetsenbord eraan hang) Vervolgens moet ik dat ding hard resetten, en begint hij weer al men filesystemen te checken, graid5 begint opnieuw aaan het verifyen voor enkele uurtjes en er zitten volgens fsck ook allerlei fouten in het filesysteem. De bestanden die reeds overgezet waren zijn ook volledig verdwenen.
Situatie: 1.3TB UFS filesysteem op een GJournal die van een GRAID5 device gebruik maakt.
Ik heb reeds die kernel memory tweaks in de loader.conf staan en die hebben reeds een bepaald probleem opgelost. Toen ik een filesysteem op het gjournal device aan het zetten was kreeg ik die kmem_map kernel panic.
EDIT: raar maar waar wat ik wel nog kan is van virtuele terminal switchen met de alt toetsen maar inloggen gaat niet, verschijnt geen username als ik die intype
EDIT: dit probleem komt niet voor bij het downloaden van de fileserver
EDIT: opgelost!
geen gebruik meer gemaakt van gjournal, wel soft updates op het UFS filesysteem, en het max geheugen voor graid5 wat verhoogd, maar dat laatste lijkt me overbodig.
[ Voor 61% gewijzigd door Verwijderd op 03-06-2008 19:46 ]
Ik heb laatste een 1u server gebouwd voor een klant, deze had een dx9 rendertarget nodig. dan zit je wel met een probleem als de boel maar op 1x werkt, en dit niet in de specs/manual van het moederbord staat.Verwijderd schreef op maandag 02 juni 2008 @ 14:59:
De meeste servermoederborden hebben onboard VGA"servers" is trouwens heel breed maar op de meeste servers ga je ook niet gamen
Nog bedankt asus overigens voor het doodzwijgen.
12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV
Had je al antwoord van VIA gehad?Verwijderd schreef op woensdag 21 mei 2008 @ 20:59:
Nog even mailen of de SATA op volledige snelheid draait (dus niet zo'n Silicon Image PCI chipje om het aantal poorten van 4 naar 8 te brengen). Zo ja, dan is het zeker wel een interessant bordje. Wil ik wel gaan meebestellen ja.
Thnx voor de tip.
In het datasheet staat dat ze een Marvell chip gebruiken:
"8 x SATA (3 Gbps) connectors (for NAS 7800-15LST, with one extra SATA controller Marvell 88SE6145 to have 4 more SATA ports)"
Volgens het block diagram lijkt die met PCIe aan de southbridge vast te zitten.
Maar helaas.... Niet te koop voor us mere mortals (in een blog gevonden):
Re pricing, we’re not giving individual pricing out as this board will not be available retail through the usual distribution through which you see EPIA boards for sale; it’s targeted at system builders in this segment and the pricing offered to them will reflect the technical support they require in order to create the systems they want to build. This is also true for the VIA NAB 7000 board we announced in January.
Het leek me wel een interessant bordje om nu eindelijk een keer een NASje te maken. Niemand hier die zich als system builder voor kan doen...??
HP Zbook G8 | Synology DS1511+
Mijn huidige pc (een Amd Athlon XP 2500, Abit NF7-S) zal waarschijnlijk de basis vormen samen met 3 of 4x 320gb aan opslag.
Ik zit echter zoals de meesten met nog wat vragen
Is deze cpu "geschikt"? Natuurlijk zal het wel werken maar ik lees veel over modernere CPU's die allerlei geadvanceerde powersave states kennen. Kent een gewone desktop Athlon XP processor ook dergelijke states? Anders wil ik kijken hoeveel ik van die 1800mhz nodig ben en hem misschien wat naar beneden klokken ivm warmte, energiebesparing en geluid.
Wel wil ik een beetje fatsoenlijke gigabit snelheden kunnen halen. Ik verwacht absoluut geen 120 mb/s maar een klein veelvoud van de huidige 11mb/s moet toch kunnen lijkt me. Gaat mijn Intel 1000 (GT/MT) dat makkelijk redden op zichzelf of kost dit ook nog eens bijv. 20% van mijn cpu?
Ik snap dat een mooie core2duo ideaal voor dit alles is, maar daar komt weer een nieuw moederbord etc bij en dat word me dan iets te prijzig.
Verder vraag ik me af hoe het zit met het "downspinnen" van hdd's. Moet de hdd/controller/het OS dit ondersteunen of hoef ik me hier niet druk over te maken en werkt dit altijd wel?
Dan nog mijn crappy nForce moederbord. De Sata controller word geloof ik niet herkend door BSD en afgezien daarvan is het ook geen degelijke chipset maar so be it. Ik moet dus een Sata controller kopen met waarschijnlijk 4 poorten. Nu zie ik in de pricewatch eigenlijk 2 categorieen: gigantische troep zoals een Sweex kaart voor 17 euro en professionele stuff als Areca waar je gelijk honderd euro of meer voor betaald. Ik wil gewoon softraid gaan gebruiken dus zo'n Areca lijkt me overbodig maar ik wil ook absoluut niets van Sweex (of dergelijke merken) in mijn computer hebben eigenlijk. Is er nog een gezond alternatief ertussenin?
En als laatste: ZFS. Ik ben onder de indruk dat dit echt een geniaal FS is en zou dit op zich graag willen gebruiken op mijn NAS. De vraag is echter, hoe volwassen is het inmiddels. Deployed Sun het bijvoorbeeld al bij klanten of is het toch nog meer voor de OpenSolaris/FreeBSD hobbyisten. Gebruikt iemand hier het intensief (veel lezen/schrijven, keertje de stekker eruit) die me kan vertellen hoe het bevalt?
Zo, ik hoop dat het prettig lezen was en graag zie ik jullie reacties
Dit moet de controller dacht ik wel ondersteunenMon schreef op donderdag 05 juni 2008 @ 20:19:
Verder vraag ik me af hoe het zit met het "downspinnen" van hdd's. Moet de hdd/controller/het OS dit ondersteunen of hoef ik me hier niet druk over te maken en werkt dit altijd wel?
Jazeker: een tweedehands Promise controllertje , non-raid, met 4 poorten is al te krijgen voor 30 tot 50 euro, plaats hier maar eens een gevraagd advertentie of kijk rond op marktplaats.I Nu zie ik in de pricewatch eigenlijk 2 categorieen: gigantische troep zoals een Sweex kaart voor 17 euro en professionele stuff als Areca waar je gelijk honderd euro of meer voor betaald. Is er nog een gezond alternatief ertussenin?
edit:productinfo en V&A
[ Voor 12% gewijzigd door MuisM4t op 05-06-2008 21:30 ]
Verwijderd
Is het veilig om een atacontrol spindown in te stellen voor de schijven gebruikt in zo'n array? Of kan er een soort van corruptie ontstaan door de combinatie van de 2?
ik heb ook een nf7-s gehad. ahtlon xp 2000mhz en dit werkte echt lekker. de enige reden waarom ik ben overgestapt is dat het moederbord geen pci-e aankan. heb er nu een areca kaartje inhangen met 8poorten.Mon schreef op donderdag 05 juni 2008 @ 20:19:
Ik ben ook van plan mijn data via AFP/FTP/SMB beschikbaar te maken dmv. een NAS computer.
Mijn huidige pc (een Amd Athlon XP 2500, Abit NF7-S) zal waarschijnlijk de basis vormen samen met 3 of 4x 320gb aan opslag.
Ik zit echter zoals de meesten met nog wat vragen
Is deze cpu "geschikt"? Natuurlijk zal het wel werken maar ik lees veel over modernere CPU's die allerlei geadvanceerde powersave states kennen. Kent een gewone desktop Athlon XP processor ook dergelijke states? Anders wil ik kijken hoeveel ik van die 1800mhz nodig ben en hem misschien wat naar beneden klokken ivm warmte, energiebesparing en geluid.
Wel wil ik een beetje fatsoenlijke gigabit snelheden kunnen halen. Ik verwacht absoluut geen 120 mb/s maar een klein veelvoud van de huidige 11mb/s moet toch kunnen lijkt me. Gaat mijn Intel 1000 (GT/MT) dat makkelijk redden op zichzelf of kost dit ook nog eens bijv. 20% van mijn cpu?
Ik snap dat een mooie core2duo ideaal voor dit alles is, maar daar komt weer een nieuw moederbord etc bij en dat word me dan iets te prijzig.
Verder vraag ik me af hoe het zit met het "downspinnen" van hdd's. Moet de hdd/controller/het OS dit ondersteunen of hoef ik me hier niet druk over te maken en werkt dit altijd wel?
Dan nog mijn crappy nForce moederbord. De Sata controller word geloof ik niet herkend door BSD en afgezien daarvan is het ook geen degelijke chipset maar so be it. Ik moet dus een Sata controller kopen met waarschijnlijk 4 poorten. Nu zie ik in de pricewatch eigenlijk 2 categorieen: gigantische troep zoals een Sweex kaart voor 17 euro en professionele stuff als Areca waar je gelijk honderd euro of meer voor betaald. Ik wil gewoon softraid gaan gebruiken dus zo'n Areca lijkt me overbodig maar ik wil ook absoluut niets van Sweex (of dergelijke merken) in mijn computer hebben eigenlijk. Is er nog een gezond alternatief ertussenin?
En als laatste: ZFS. Ik ben onder de indruk dat dit echt een geniaal FS is en zou dit op zich graag willen gebruiken op mijn NAS. De vraag is echter, hoe volwassen is het inmiddels. Deployed Sun het bijvoorbeeld al bij klanten of is het toch nog meer voor de OpenSolaris/FreeBSD hobbyisten. Gebruikt iemand hier het intensief (veel lezen/schrijven, keertje de stekker eruit) die me kan vertellen hoe het bevalt?
Zo, ik hoop dat het prettig lezen was en graag zie ik jullie reacties
maar die zijn vrij prijzig. anders moet je eens naar highpoint rocketraid kaartjes kijken, die zijn goed betaalbaar en worden ook volledig ondersteund in freebsd. als je de drivers tenminste installeert
aan ZFS durf ik mijn data nu nog niet toe te vertrouwen. het zit pas net in freebsd ingebouwd. voorlopig gebruik ik gewoon UFS. freenas stable zit ook nog maar bij freebsd6.2
Ik denk dat je beter voor een PCI-kaartje met parallelle poort gaat. Van die kabels zijn vaak specifiek voor printers gemaakt (daarom ook die Centronics-stekker) en ondersteunen dan geen andere hardware.Verwijderd schreef op maandag 02 juni 2008 @ 13:32:
[...]
Dit zou ik erg vreemd vinden. Heb je hier een bron van?
Op http://www.highpoint-tech.com/USA/series_2000pcie.htm staat in ieder geval dat de 2320 PCIe x16 compatible is. Het lijkt me niet dat ze dat neerzetten als dit afhangt van de chipset.
Wat ik binnenkort eens een keertje ga proberen is om zelf een LCD in elkaar te knutselen en daar dan allemaal status informatie van m'n NAS te tonen mbv LCDproc onder FreeBSD. Probleempje is alleen dat er geen parallele poort meer zit op m'n MSI P35 Neo2-FR en ben opzoek naar een USB-naar-Parallel converter die zeker ook onder FreeBSD werkt (of zijn dit ze gewoon allemaal?)...
Een ander probleem is ook dat de meeste converters niet de parallele aansluiting heb die ik zoek, ik vind namelijk alleen maar deze:
[afbeelding]
Terwijl ik gewoon eentje wil met 25 ronde gaatjes (geen idee wat de benaming hiervan is)
Wat ik ook nog zit te overwegen is om een PCBtje te laten maken waarop al het geconvert plaatsvind aangezien de meeste kant-en-klare converter kabels ~15 euro kosten incl verzenden en een eigen PCBtje 20 e
Mocht je het aan de praat krijgen, laat het dan even weten. Ik ben zelf bezig met een mp3-speler op FreeBSD en zit nu ook wat te rotzooien met lcdproc.
Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done
Verwijderd
- Kan ik gebruik maken van md onder FreeBSD?
- Is het wellicht mogelijk mijn raid5 te converteren van md naar GEOM?
Kan iemand mij hier in helpen?
Mr. SiS: moet je even de handleiding lezen. Als je je raid5 vergroot moet je natuurlijk ook je partities daarna resizen.
12x 280Wp ZW, 12x 280Wp ZO, Zubadan SHW80YAA 8kW, Zehnder Q450 ERV
Areca's zijn dé controllers op het moment, natuurlijk ondersteunen die vergroting van de array. Sterker nog, je kan de array gewoon gebruiken tijdens het vergroten. (Online Capacity Expansion) Of de Areca ook het hotpluggen van schijven ondersteunt durf ik je niet te zeggen. (hoef je je machine niet eens te rebootenMr.SiS schreef op donderdag 19 juni 2008 @ 22:33:
Ok, ik ben eraan uit! Ik ga een tweedehands twaalf poorts areca in PCI-X kopen en hang daar mijn 8x250G aan, ik ben dan van plan deze zomer nog eens 3x1T te kopen en dan ben ik voorlopig wel even zoet. Helaas zal de kaart voorlopig in een gewoon PCI slot moeten hangen maar het gaat zowieso een prestatie verbetering zijn over dat gepruts met die sil3114 kaartjes. Heeft iemand een idee of die areca een raid 5 kan extenden als ik later een vierde disk bij koop ?
Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done
Verwijderd
Maar kan ik eventueel wel gewoon gebruik maken van mijn MD raid5 disks onder Freebsd?P5ycho schreef op vrijdag 20 juni 2008 @ 09:06:
us1111: converteren gaat niet willen vrees ik.
Mr. SiS: moet je even de handleiding lezen. Als je je raid5 vergroot moet je natuurlijk ook je partities daarna resizen.
Bij deze twee samenstellingen die ik niet zozeer wil voordragen om te laten controleren, maar meer om ook aan te geven wat de gedachtegang achter de samenstelling is. Die wil ik wel graag laten 'controleren' en kan ook anderen misschien op ideeën brengen of er juist vanaf brengen.
Goed, ik ben er bijna uit wat de samenstelling van de eerste server/nas.
Server/nas 1
Taken server/nas:
-Backupserver spelen (de server moet daarbij actie ondernemen)
-Mailserver spelen
-Dataserver spelen (data die bewaard moet blijven, maar niet direct nodig is)
Onderdelen:
-AMD Athlon X2 4050e (dualcore, tdp 45watt)
-Asus M3N78-EH (atx, 8200 chip, 2x pci-e x1)
-Arctic Cooling Alpine 64
-Kingston KVR667D2N5/1G (1x 1GB)
-Seasonic S12II-330
-3x 3.5" inch 1TB schijf van Samsung (F1 serie) of van Western Digital (GP serie)
-2x 2.5" inch 80GB (ide)
-Intel Gigabit kaartje op een pci-e poort.
-Antec Performance One 182
Implementatie:
De 2.5" inch schijven zullen in een raid-1 opstelling draaien, met daarop het os: opensolaris of freeBSD
De 3.5" inch schijven zullen in een software raid-5 opstelling draaien (ik neig naar ZFS anders geom_raid5)
Verklaring keuzes:
De 2.5" inch schijven zijn een stuk zuiniger in idle en ik wil dat de raid-5 array 's nachts uitkan (de mail zal op de 2.5" worden opgeslagen).
Dualcore omdat de pc meer dan een 'domme' nas zal zijn. De domme nas zoals ik het zie bestaat eruit dat iedere persoon wel data heeft die in principe niet meer nodig is, maar wel leuk/handig/... is om te bewaren, maar niet 'dichtbij', op de werkstations, staat. De domme nas zal ook de mediabestanden aanbieden voor mediaspelers ed. Daarnaast is er het 'slimme' deel, de server die actief ieder werkstation gaat backuppen en daarnaast een backup zal maken van de 2.5" inch schijven.
Voeding, koeler en kast zijn gekozen omdat de nas/server op een slaapkamer staat en dus zo stil mogelijk moet zijn en toch goed gekoeld moet blijven.
De 3.5" inch schijven ben ik nog niet helemaal over uit. Ik hoor wat verontrustende geluiden over de F1, maar rondom de GP blijft het weer angstvallig stil. In dat licht denk ik dat dan toch voor F1's ga, de kast zal het extra volume opvangen.
Het moederbord is voorzien van een GeForce 8200 chipset, die erg zuinig schijnt te zijn. Hopelijk ook zuiniger dan de 690g (de 780g is minder zuinig dan de 690g). Het moederbord werkt niet met hongerige processoren (125 watt sferen), maar dat is in dit geval geen probleem.
Daarnaast ben ik aan het spelen met de gedachte om een tweede server te plaatsen (niet hetzelfde huis). De nas moet zo goedkoop mogelijk (aanschafkosten en energieverbruik) zijn en tegelijk betrouwbaar. Bijzonder hoge dataoverdracht is niet noodzakelijk. De onderstaande samenstelling kost in totaal zo rond de 370 euro.
Nas 2
Taak:
-Dataserver
-'s Nachts data synchroniseren met nas/server1 over het internet
Onderdelen:
-AMD Sempron 64 LE-1150 (of iets dergelijks...)
-Arctic Cooling Alpine 64
-MSI K9N2GM-FIH (m-atx, 8200 chip, 1x pci-e x1)
-Kingston KVR667D2N5/1G (1x 1GB)
-3x 500GB WD GP
-Antec NSK4480 (incl 80+ voeding)
Implementatie:
Het os zal (opnieuw) freebsd zijn met een software raid opstellen (zfs voorkeur, anders geom_raid5)
Verklaring keuzes:
Drie keer een 500GB een WDGP omdat ik 1TB als opslagruimte wil hebben en toch zekerheid. Een raid-1 opstelling met 1TB schijven is dan duurder (pas na tig jaar zal het zijn terugverdiend). Ik ga er daarbij wel vanuit dat de processor het aankan om zonder noemenswaardige vertraging de files weg te schrijven.
Het moederbord is anders dan van server/nas 1. Ik vermoed dat de MSI iets zuiniger is dan de asus (m-atx vs atx). Qua aanschafkosten scheelt het niet veel. Wel zullen naar mijn idee de hogere aanschafkosten van een 8200 bordje opwegen tegen het lagere verbruik in vergelijking met andere moederborden.
Vragen:
-Is de Antec niet overkill om het systeem echt stil te houden? (voldoet bijvoorbeeld een simpele chieftec zoals die in nas2 ook?)
-Doe ik NAS 2 ernstig tekort met een dergelijke CPU?
-Is ZFS onder opensolaris al wel dermate betrouwbaar dat ik mijn data eraan kan toevertrouwen?
-Is geom_raid5 onder freebsd wel dermate betrouwbaar dat ik mijn data eraan kan toevertrouwen?
Nee. Waarom wil je eigenlijk overstappen op FreeBSD? Misschien is wat je wil bereiken ook mogelijk onder Linux namelijk.Verwijderd schreef op vrijdag 20 juni 2008 @ 10:00:
Maar kan ik eventueel wel gewoon gebruik maken van mijn MD raid5 disks onder Freebsd?
edit:
@Dadona:
Qua hardware zit het wel goed. ZFS heeft baat bij een flinke sloot geheugen, dus kies je daarvoor zou ik 2x1 GB erin stoppen. Heb je gelijk dual-channel erbij.
HDD spindown, als het onder OpenSolaris uberhaupt al beschikbaar is, lijkt mij ook niet goed met ZFS samenwerken omdat dat veel achtergrondzaken heeft lopen als jij je schijven niet gebruikt. Een cronjob 's nachts volledig laten unmounten kan wel maar dan is je data 's nachts weer niet "direct beschikbaar".
Als ze ooit verkocht gaan worden, is dit misschien ook wel een goede keus: nieuws: Samsung maakt zuinige 1TB-harddisk
Slapen naast een fileserver zal je denk ik niet lang volhouden, dus afhankelijk van de grootte van de kamer in kwestie zou ik daar nog 'ns over na gaan denken
[ Voor 56% gewijzigd door Erik Jan op 20-06-2008 13:41 ]
This can no longer be ignored.
Verwijderd
Dat laatste is een feature van Soft Updates, die je filesystem metadata en dir/file data scheid en vertraagde updates doorvoert. Je filesystem kan daarmee tot 30 seconden qua updates verliezen in geval van een onverwachte crash/reboot, maar blijft wel consistent als in een transactiemodel. Zolang je fsck automatisch je filesystem fixt is er niets aan de hand, gebruik fsck -p <filesystem> om veilig alles te fixen. Als je journaling gebruikt kun je SoftUpdates trouwens beter uitschakelen. SoftUpdates beschermt je niet tegen out-of-order write-back buffers, zoals geom_raid5.Verwijderd schreef op dinsdag 03 juni 2008 @ 12:17:
Vervolgens moet ik dat ding hard resetten, en begint hij weer al men filesystemen te checken, graid5 begint opnieuw aaan het verifyen voor enkele uurtjes en er zitten volgens fsck ook allerlei fouten in het filesysteem. De bestanden die reeds overgezet waren zijn ook volledig verdwenen.
De kern.geom.raid5.maxmem waarde is niet meer zo van belang, wel de kern.geom.raid5.maxwql (graid5 versie TNG/EFF) en kern.geom.raid5.cs (graid5 versie PP) die de grootte van de RAM buffercache bepalen. Aangezien de grootte hiervan op kan lopen tot honderden megabytes, kun je een kmem panic krijgen omdat je systeem onvoldoende kernel geheugen heeft gereserveerd. Vergeet je ook niet amd64 te draaien met minimaal 500MB kmem_size?en het max geheugen voor graid5 wat verhoogd, maar dat laatste lijkt me overbodig.
Je kunt prima een spindown instellen. Let echter op het volgende:Heb nog een vraagje ivm atacontrol en graid5.
Is het veilig om een atacontrol spindown in te stellen voor de schijven gebruikt in zo'n array? Of kan er een soort van corruptie ontstaan door de combinatie van de 2?
- verhoog je ata timeout van 5 naar 10+ seconden (ik zelf gebruik 15), hiervoor moet je je kernel opnieuw compileren. Doe je dit niet dan worden spinned down schijven uit de array gekicked omdat ze niet binnen 5 seconden reageren.
- afhankelijk van de versie van geom_raid5 kunnen alle schijven tegelijk opgespint worden; dat moet je voeding wel aankunnen. Alleen van belang als je opspinnen qua stroomvoorziening alleen red door gebruik van staggered spinup.
Ja, je kunt door een nieuwe RAID5 array te maken je huidige array overzetten, mits je de volgende gegevens hebt:Verwijderd schreef op woensdag 18 juni 2008 @ 13:04:
Ik zit er over te twijfelen om mijn NAS van Linux over te zetten naar FreeBSD.. Probleem is echter dat ik voor mijn Linux raid md device based raid5 heb opgezet. Mijn vraag is nu:
- Kan ik gebruik maken van md onder FreeBSD?
- Is het wellicht mogelijk mijn raid5 te converteren van md naar GEOM?
Kan iemand mij hier in helpen?
- disk volgorde
- stripesize
- offset
Je kunt vervolgens een RAID5 array maken met:
graid5 label -s 131072 -n myraid5array ad4 ad6 ad8 ad10
Hierin is 131072 de stripesize in bytes en "myrai5array" de naam die je kiest voor je array. De volgende parameters zijn je schijven, beginnende met disk0, disk1, disk2, disk3, etc. De volgorde is absoluut van belang. De -n optie zorgt voor No-Hot mode, waarbij er geen pariteit zal worden geschreven. Je kunt zo testen of de array werkt door alleen te lezen en niet te schrijven; zou je deze optie niet gebruiken dan wordt bij een foute stripesize/disk order/offset er parity geschreven op gebieden waar nu data staat; waarbij je dus je data corrupteert. Het -n commando verhindert dit.
Er is wel een probleem: FreeBSD ondersteunt geen read+write ext3 mounts, wat je waarschijnlijk als filesystem gebruikt. Je zou dus alleen kunnen lezen van je volume. En dat had je denk ik niet in gedachte. Maar qua RAID-gedeelte is wat je wilt dus in principe wel mogelijk alleen loop je dan nog tegen het gebruikte filesystem aan.
ZFS blijft experimental, maar bij recente snapshots ben ik nog niet tegen problemen aangelopen. Ik gebruik nog voornamelijk geom_raid5 in combinatie met UFS+gjournal, wat de hoogste mate van veiligheid zou moeten bieden. Journaling kost je wel write performance, maar gelukkig is geom_raid5 lekker snel.Dadona schreef op vrijdag 20 juni 2008 @ 11:10:
-Is ZFS onder opensolaris al wel dermate betrouwbaar dat ik mijn data eraan kan toevertrouwen?
-Is geom_raid5 onder freebsd wel dermate betrouwbaar dat ik mijn data eraan kan toevertrouwen?
Oh en die twee 2,5" disks zijn niet echt nodig; kun je prima op je 3,5" disks doen. Als je software RAID gebruikt kun je ook prima RAID op partities doen, b.v.:
Disk1 [ Mirror 8GB ] [RAID5]
Disk2 [ Mirror 8GB ] [RAID5]
Disk3 [ Mirror 8GB ] [RAID5]
Zo kun je van alle drie de disks booten en wordt je bootpartitie dus dubbel gemirrored. RAID5 heb je dan op de 2e 'datapartitie'. Op die RAID5 device kun je weer journaling gooien met geom_journal, of ZFS, of alleen UFS+Softupdates.
Verwijderd
ach perfect dankjewel, ik zat inderdaad met het probleem dat mijn schijven uit de array werden gekicked.Verwijderd schreef op zaterdag 21 juni 2008 @ 07:47:
[...]
Je kunt prima een spindown instellen. Let echter op het volgende:
- verhoog je ata timeout van 5 naar 10+ seconden (ik zelf gebruik 15), hiervoor moet je je kernel opnieuw compileren. Doe je dit niet dan worden spinned down schijven uit de array gekicked omdat ze niet binnen 5 seconden reageren.
- afhankelijk van de versie van geom_raid5 kunnen alle schijven tegelijk opgespint worden; dat moet je voeding wel aankunnen. Alleen van belang als je opspinnen qua stroomvoorziening alleen red door gebruik van staggered spinup.
[...]
EDIT: waar vind ik trouwens de homepage van geom_raid5 en een overzicht van alle versies ?
[ Voor 6% gewijzigd door Verwijderd op 21-06-2008 23:15 ]
1
2
3
| olympos Tomba /dev/raid5 # df /raid5/ Filesystem 1K-blocks Used Avail Capacity Mounted on /dev/raid5/OlymposRAID5 1419136316 1318881312 -13275900 101% /raid5 |
fsck -y verhelpt dit niet, kan iemand mij helpen ?
Verwijderd
Je file systeem staat gewoon voller dan toegelaten is, met tunefs kan je voor UFS filesystemen instellen hoeveel er minimum in % over moet zijn van het filesysteem maar je kan er over gaan als root.Tomba schreef op zondag 22 juni 2008 @ 12:16:
Hmmz heb een 'leuke' ?
code:
1 2 3 olympos Tomba /dev/raid5 # df /raid5/ Filesystem 1K-blocks Used Avail Capacity Mounted on /dev/raid5/OlymposRAID5 1419136316 1318881312 -13275900 101% /raid5
fsck -y verhelpt dit niet, kan iemand mij helpen ?
Sorry ik snap het nog niet helemaal, er kan toch niet meer opstaan dan 100% ?Verwijderd schreef op zondag 22 juni 2008 @ 12:40:
[...]
Je file systeem staat gewoon voller dan toegelaten is, met tunefs kan je voor UFS filesystemen instellen hoeveel er minimum in % over moet zijn van het filesysteem maar je kan er over gaan als root.
Verwijderd
Het UFS filesysteem houdt een bepaald percentage over zodat het nog goed kan functioneren indien het filesysteem zo goed als vol is. Stel je zet dit op 5% (volgens mij is 10% de standaard) en je filesysteem staat volgens df "vol", dan is er in werkelijkheid nog 5% over. Dit percentage kan je dus instellen met tunefs en heeft enkel effect voor gewone gebruikers die willen schrijven op het filesysteem, maar stel dat je als root werkt en er files opzet terwijl de limiet bereikt is, dan ga je gewoon over die limiet en krijg je die rare cijfers waar jij mee te maken hebt.Tomba schreef op zondag 22 juni 2008 @ 12:47:
[...]
Sorry ik snap het nog niet helemaal, er kan toch niet meer opstaan dan 100% ?
[ Voor 6% gewijzigd door Verwijderd op 22-06-2008 12:52 ]
* Tomba gooit wat zooi weg...Verwijderd schreef op zondag 22 juni 2008 @ 12:49:
[...]
Het UFS filesysteem houdt een bepaald percentage over zodat het nog goed kan functioneren indien het filesysteem zo goed als vol is. Stel je zet dit op 5% (volgens mij is 10% de standaard) en je filesysteem staat volgens df "vol", dan is er in werkelijkheid nog 5% over. Dit percentage kan je dus instellen met tunefs en heeft enkel effect voor gewone gebruikers die willen schrijven op het filesysteem, maar stel dat je als root werkt en er files opzet terwijl de limiet bereikt is, dan ga je gewoon over die limiet en krijg je die rare cijfers waar jij mee te maken hebt.
1
2
3
4
| olympos Tomba /raid5/Download # df /raid5/ Filesystem 1K-blocks Used Avail Capacity Mounted on /dev/raid5/OlymposRAID5 1419136316 1302279920 3325492 100% /raid5 olympos Tomba /raid5/Download # |
Verdomd, nu klopt het wel weer ! Bedankt
[ Voor 13% gewijzigd door Tomba op 22-06-2008 12:57 ]
Hmmm, met welke instelling bepaal je dit? Kan het in de manpage van ata(4) niet vinden.Verwijderd schreef op zaterdag 21 juni 2008 @ 07:47:
Je kunt prima een spindown instellen. Let echter op het volgende:
- verhoog je ata timeout van 5 naar 10+ seconden (ik zelf gebruik 15), hiervoor moet je je kernel opnieuw compileren. Doe je dit niet dan worden spinned down schijven uit de array gekicked omdat ze niet binnen 5 seconden reageren.
Probleem laatst ook gehad op een ZFS array, en toen opgelost door ataidle maar even in te stellen op `always on', maar da's niet de ideale optie...
My system is in 64 bits. But superglue keeps it together just fine...
Verwijderd
Aan de hand van de patch in dit bericht op de freebsd lists kom je te weten dat er 2 bestanden zijn die je in je kernel source moet aanpassen namelijk ata-disk.c en ata-queue.c. In beide bestanden moet je op één bepaalde plek request->timeout verhogen. Als je hiermee klaar bent recompile je gewoon je kernel, install je hem en reboot je het systeem.Itsacon schreef op maandag 23 juni 2008 @ 11:53:
[...]
Hmmm, met welke instelling bepaal je dit? Kan het in de manpage van ata(4) niet vinden.
Probleem laatst ook gehad op een ZFS array, en toen opgelost door ataidle maar even in te stellen op `always on', maar da's niet de ideale optie...
My system is in 64 bits. But superglue keeps it together just fine...
Verwijderd
Ik heb dit gisteren toegepast op mijn kernel, maar nu pas getest, helaas blijkt het nog niet te werken.Itsacon schreef op maandag 23 juni 2008 @ 12:52:
ah. Was op zoek naar een OPTIONS directive, vandaar dat ik het niet kon vinden. Dank.
Wanneer ik 1 van de harde schijven in sleep mode zet en een minuutje later een bestand open op het filesysteem dan krijg ik nogaltij timeout fouten:
1
2
3
4
5
| ad4: WARNING - unknown CMD (0xe1) taskqueue timeout - completing request directly ad4: WARNING - SETFEATURES SET TRANSFER MODE taskqueue timeout - completing request directly ad4: WARNING - SETFEATURES SET TRANSFER MODE taskqueue timeout - completing request directly ad4: WARNING - SETFEATURES ENABLE RCACHE taskqueue timeout - completing request directly ad4: WARNING - SETFEATURES ENABLE WCACHE taskqueue timeout - completing request directly |
config:
Athlon 64 X2 4000+
Asus M2A-VM
1Gb DDR2 ram
320GB Western Digital SATA2
160Gb Samsung SATA2
6Gb Western Digital ATA
En dit alles in een stacker behuizing
Ik heb nu enkel een error bij het mounten van mijn 320Gb schijf die nu nog NTFS is. En de log geeft mij bijster wenig informatie
1
| root: Error: Failed to mount /dev/ad4s3 using NTFS |
De schijf bestaat nogtans maar uit 1 primaire partitie met enkel data.
Voor de rest heb ik zeker niet te klagen van freenas. Het gaat zeer vlot om met geregeld afsluiten en opstarten, iets wat met een gewone fileserver niet altijd even evident is.
System:
- AMD Sempron 2600+
- Asus K8N-E moederbord
- 3 GB Ram
- Promise ATA-controller (snoept dus van de CPU)
- 100 mbit Realtec NIC
- 1Gbs onboard NIC
Raidsets:
- Raid 5 over hdb, hdc, hdg en hdh (data zut)
- Raid 1 over hde en hda (OS, CentOS 5.1)
(de goede lezer onder ons begrijpt dat hdg, hde en hdh op de controller zitten)
Op de achtergrond:
- Wat Xen domeinen die ongetwijfeld wat io produceren.
Nu heb ik een DRBD-disk gemaakt die sync'ed met een andere (veel snellere) server. Het DRBD-device zit op de RAID5 set. Syncen gaat via de 1gbs interface (andere kant is ook 1gbs btw)..
Alleen de syncspeed valt wat tegen; +/- 9 M/sec. Waarschijnlijk zit er in het mobo slechts 1 pci-backplane.. dus loop ik tegen de max aan hier I guess. Waarom? Alle disken zitten op pci, net als (waarschijnlijk) de 1gbs NIC. Correct?
Load van het system tijdens een sync is nog geen 1.00 en dus geen probleem.
Heb ik opties om e.a. sneller te krijgen? (m.a.w als de pci-bus het probleem is, kan ik er omheen?)
Verwijderd


Die zit nu volVerwijderd schreef op dinsdag 24 juni 2008 @ 20:29:
Zo, ik heb even mijn NAS geupgrade3x 750 GB erbij in RAID 5 met geom_raid5, wilde eerst via de ICH9R controller doen maar toen ging m'n Promise ATA RAID controller raar doen (LBA timeout errors op de 2x 160 GB schijven).
[afbeelding]
[afbeelding]
Verwijderd
Klopt is een chieftecQ schreef op zaterdag 28 juni 2008 @ 22:01:
[...]
Die zit nu volZiet er uit als een chieftech kast. Nadeel van die kast is dat je alleen met 90 graden sata stekkers de wand dicht krijgt en dat aanstampen soms wel nodig is.
Bij de upgrade hoorde trouwens ook vervanging van de boxed cooler (van een Xeon 3220 die ik over had) naar een scythe mugen infinity
Geweldig. Ik heb zelf een 4-in-3 module gekocht voor een coolermaster stacker gekocht, puur voor inbouw, dus zonder hot-swap etc. Koste 15 euro ongeveer. Past prima, moet je alleen die kleine geleide lipjes voor cd-rom etc weghalen (zo gedaan). Daar zitten nu 4x 500GB disks in, software raid 5 linux.Verwijderd schreef op zondag 29 juni 2008 @ 17:15:
[...]
Klopt is een chieftecmet die 90 graden sata stekkers klopt trouwens niet helemaal. De meeste "rechte" SATA kabels passen nog net, zoals je misschien ook een beetje kunt zien heb ik ook alleen de nieuwe 3 samsung schijven via 90 graden stekkers aangesloten maar hij is idd flink vol nu
volgende upgrade wordt waarschijnlijk een 4-in-3 drive bay + Highpoint 8 poorts SATA controller (Of een 45nm Core 2 Duo aangezien hij nu flink wat stroom vreet met de Pentium 4 530)
Bij de upgrade hoorde trouwens ook vervanging van de boxed cooler (van een Xeon 3220 die ik over had) naar een scythe mugen infinity
Ik kijk naar een 8 poorts controller, een rocketraid, die gewoon als 8 poorts sata controller zal werken zonder raid. Raid gaat via software raid en Linux. In de toekomst kunnen er dan nog wat extra disks bij. Totaal kunnen er dan 10 disks in deze kast. 11 als je een 5 in 3 module zou gebruiken.
Zuinig moederbord en cpu is wel een aanrader, de disks nemen al genoeg stroom. Zelf kies ik er voor om het ding uit te zetten als ik hem niet gebruik en met WOL in te schakelen zodra ik hem nodig heb.
Aangesloten zijn 4x 1TB in raid 6. Effectief dus 2 TB. Dat is 50% verlies, maar in de toekomst kunnen er dus nog wat diskjes bij te hangen en dan valt het wel mee. Beschikbaarheid is belangrijker voor mij.
Raid6 via linux software raid. Schrijven gaat ongeveer 80 MB/s en lezen 200Mb/s. Met mijn gigabit netwerkje haal ik de schrijfsnelheid al niet eens dus ik vind het wel best.
Rocketraid vereist wel dat je disks initialiseert en in een array stopt. Pas dan ziet het os iedere array als een sd device, die je dan in een software raid kan gooien.
De keuze voor linux software raid is simpel: meer flexibiliteit.
[ Voor 40% gewijzigd door Q op 05-07-2008 17:08 ]
Eisen:
- Windows 2000/2003 Server
- RAID5 (minimaal 60MB/s write)
- Usenet client
- energie zuinig
Ik zat zelf aan de volgende specificaties te denken:
AM2 4050 CPU
690/780 moederbord
en een 4 tal 500 GB schijven.
De vragen:
- Gaat dit systeem met gebruik van Windows en software RAID de gevraagde performance leveren?
Alternatief:
Zelfde systeem specs, maar dan met gebruik van een 3Ware Escalade 9650SE-4LPML SATA RAID controller (hardware XOR?).
De vragen:
- Gaat die kaart in een PCI-e slot van bijvoorbeeld een Gigabyte GA-MA69VM-S2 werken?
- Gaat dit systeem met gebruik van Windows en de 3Ware RAID controler de gevraagde performance leveren?
En is er een site waarop RAID oplossingen gebenched worden met diverse hardware en software configuraties?
Hopelijk kan ik hier wat antwoorden op me vragen krijgen.
All statements are true in some sense, false in some sense, meaningless in some sense, true and false in some sense, true and meaningless in some sense, false and meaningless in some sense, and true and false and meaningless in some sense.
My system is in 64 bits. But superglue keeps it together just fine...
Dit alles draait op Linux met software raid.
De 4x 500 GB disks zijn per paar in een RAID 0 device gestopt (md2 en md3). Deze twee raid devices zijn dus 'virtuele' 1 TB disks. En die heb ik dus aan mijn RAID 6 toegevoegd.
Dit alles creëert een 4 TB Raid 6 array.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
| server:/storage6# mdadm --detail /dev/md1 /dev/md1: Version : 00.91.03 Creation Time : Thu Jul 10 22:44:24 2008 Raid Level : raid6 Array Size : 2929701312 (2793.98 GiB 3000.01 GB) Used Dev Size : 976567104 (931.33 GiB 1000.00 GB) Raid Devices : 6 Total Devices : 6 Preferred Minor : 1 Persistence : Superblock is persistent Update Time : Sun Jul 13 13:10:40 2008 State : clean, recovering Active Devices : 6 Working Devices : 6 Failed Devices : 0 Spare Devices : 0 Chunk Size : 32K Reshape Status : 5% complete Delta Devices : 1, (5->6) UUID : ab9206ea:df9e428a:2ce552e4:6d63ea58 Events : 0.683764 Number Major Minor RaidDevice State 0 8 1 0 active sync /dev/sda1 1 8 17 1 active sync /dev/sdb1 2 8 33 2 active sync /dev/sdc1 3 8 49 3 active sync /dev/sdd1 4 9 3 4 active sync /dev/md3 5 9 2 5 active sync /dev/md2 |
De RAID 6 array bestond oorspronkelijk uit 4x 1 TB. Stuk voor stuk zijn de "virtuele" 1 TB schijven bestaande uit de 500 GB drives toegevoegd. Bij het toevoegen van de eerste virtuele drive ging alles goed. Het resultaat is zoals hierboven is te zien: 3 TB beschikbaar.
Reshapen van de array gaat met mdadm --grow. In het geval van RAID 6 moet je een kernel hebben nieuwer dan 2.6.21. Ik moest daarom naar Debian Lenny upgraden.
Crash
Terwijl ik wat aan het surfen was hoorde ik ergens opeens raar gepiep. Na enkele seconden herkende ik dat gepiep: de Rocketraid 2320 controller...
De RAID 6 array reageerde niet meer. Van de 8 disks waren nog maar 2 /dev/sdx devices te zien.
Mijn conclusie is dat de Rocketraid 2320 oververhit is geraakt (headsink verbrand vingers). Van notabene een RAID controller zou je verwachten dat zo'n ding robust is. Ik heb er nu maar een ventilator op gemonteerd, maar ik zou nu een negatief koop advies willen geven. Het het is helaas een van de weinige betaalbare 8x SATA kaarten. Disclaimer: ik weet natuurlijk niet 100% zeker wat de oorzaak is geweest, maar RAID controllers horen niet opeens 6 disks te verliezen.
Na een reboot bleek het slachtveld compleet: RAID 6 foetsie. Tot mijn geruststelling kon met een geforceerde assembly de array hersteld worden, zonder dataverlies.
De reshape naar 4 TB was echter gestopt en wilde niet meer starten. Dat is gefixed met:
mdadm -S /dev/md1
mdadm -w /dev/md1 (schakel read/write in)
mdadm -A /dev/md1
Al met al erg veel geluk gehad en mijn conclusie is dat je voor een goedkope RAID controller misschien toch niet bij Highpoint moet zijn.
Om te voorkomen dat het systeem weer klapt heb ik zoals een 'echte beunhazende tweaker' een ventilatortje gemonteerd om de controller te koelen. Wat mij betreft een absolute must voor deze controller.
[ Voor 5% gewijzigd door Q op 14-07-2008 01:10 ]
Dit topic is gesloten.