Het lijkt me dat je voor deze twee usecases de performance niet superkritiek is. Ik zou zeggen, als je toch al een machine hebt draaien en je thuis bent in 2008 server, dat dat de eenvoudigste oplossing is.Woodsy schreef op zaterdag 13 juni 2009 @ 15:44:
Ik ben voor thuis opzoek naar een oplossing voor mijn HDD probleem. Ik heb een MediaCenter met circa 3TB aan data, welke momenteel niet redudant draait.
Daarnaast heb ik nu ondertussen 2 jaar aan schooldata, die cruciaal is, en eigenlijk alleen extra op USB sticks staat (mijn laptop ondersteund geen raid namelijk).
Als ik het goed zeg, heeft die hotswap-bay voor iedere disk zowel activity als fail leds. Ik heb zelf een vergelijkbare setup met hardware raid (areca arc-1220 8xsata), waar je met een extra kabeltje die leds op kunt aansluiten. Als er een disk stuk is, gaat de bijbehorende led rood branden en weet je precies welke stuk is; ook het rebuilden kun je op deze manier zien.Zware Unit schreef op woensdag 10 juni 2009 @ 18:00:
De foto's:
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
Momenteel gebruik ik slechts 3 van de 5 disken, maar dit zal snel veranderen.
Heb jij die leds ook aangesloten en worden die ook daadwerkelijk aangestuurd vanuit de software raid oplossing?
Zo niet, weet iemand anders wellicht of je met software raid ook fail leds kunt aansturen (en hoe)?
Mobo wat ik over heb is niet echt meer in leven, dus maar kijken voor een ander.
Ik heb gevonden:
pricewatch: MSI K9N2GM-FIH 62 euro
pricewatch: Gigabyte GA-MA74GM-S2H 48 euro
pricewatch: Asus M3N72-D 75 euro
Deze hebben allemaal 6 SATA aansluitingen, waarmee ik dus redelijk vooruit kan. Nu dus kijken voor een proc erbij, maar dan kom ik bij de volgende vraag: Is het verstandig om een NAS te combineren met een HTPC-achtig iets? Of zijn hier bezwaren tegen?
Ik kan met een HTPC een X2 5050 erop gooien (als dat al genoeg is), of voor een NAS een Sempron van 3 tientjes.
Ik heb gevonden:
pricewatch: MSI K9N2GM-FIH 62 euro
pricewatch: Gigabyte GA-MA74GM-S2H 48 euro
pricewatch: Asus M3N72-D 75 euro
Deze hebben allemaal 6 SATA aansluitingen, waarmee ik dus redelijk vooruit kan. Nu dus kijken voor een proc erbij, maar dan kom ik bij de volgende vraag: Is het verstandig om een NAS te combineren met een HTPC-achtig iets? Of zijn hier bezwaren tegen?
Ik kan met een HTPC een X2 5050 erop gooien (als dat al genoeg is), of voor een NAS een Sempron van 3 tientjes.
A real man fears not mortality for it's death, he fears mortality for it's lack of life!
RatPack #814
Een NAS heeft eigenlijk maar weinig processorkracht nodig en kan je daarom ook heel zuinig maken. Een AMD LE-serie of een 4850e zijn de gangbare opties. Een zootje schijven erbij en verder zo min mogelijk hardware, schijven zoveel mogelijk in standby, en je NAS is klaar.
Een HTPC heeft vaak meer CPU-kracht nodig, heeft een tuner (of twee), een vaak straffere grafische kaart, meer RAM, etc. Dit is dus niet per definitie een zuinige machine. Verder wil je dat je HTPC niet nu aan de top van z'n kunnen zit, al zit de groei in resolutie van films nu wel even op een plateau.
Kortom: het kan wel, je kan zeker een goede combinatie maken van NAS en HTPC, maar je zal altijd inleveren op óf snelheid/functionaliteit óf op zuinigheid.
Aan de andere kant, een tweede computer kopen met alle onderdelen en alles is natuurlijk net zo slecht voor het milieu en voor je portemonnee. Voordat je dat eruit hebt, ben je jaren verder.
Een HTPC heeft vaak meer CPU-kracht nodig, heeft een tuner (of twee), een vaak straffere grafische kaart, meer RAM, etc. Dit is dus niet per definitie een zuinige machine. Verder wil je dat je HTPC niet nu aan de top van z'n kunnen zit, al zit de groei in resolutie van films nu wel even op een plateau.
Kortom: het kan wel, je kan zeker een goede combinatie maken van NAS en HTPC, maar je zal altijd inleveren op óf snelheid/functionaliteit óf op zuinigheid.
Aan de andere kant, een tweede computer kopen met alle onderdelen en alles is natuurlijk net zo slecht voor het milieu en voor je portemonnee. Voordat je dat eruit hebt, ben je jaren verder.
Een htpc staat vaak ook in de woonkamer. PCs (met veel hdds) probeer ik dan ook uit de woonkamer te houden....
Door de ontwikkelingen op het gebied van (onboard) GPU's kunnen HTPC's heel erg zuinig zijn. Kijk maar eens naar een Nvidia Ion platform. Daarmee blijf je onder de 30 Watt terwijl je naar een 1080p film kijkt. Ook losse grafische kaarten bewegen zich steeds meer in twee verschillende richtingen (maximum performance+hoog verbruik & enough performance+laag verbruik). Zo zijn de 4650 en 4670 van ATI relatief zuinig en kunnen ze met gemak full hd film decoden. Een simpele CPU volstaat dan gewoon.remmelt schreef op maandag 15 juni 2009 @ 10:15:Een HTPC heeft vaak meer CPU-kracht nodig, heeft een tuner (of twee), een vaak straffere grafische kaart, meer RAM, etc. Dit is dus niet per definitie een zuinige machine.
Hmm geluid is dan idd een issue, qua zuinigheid had ik me ook al voorgesteld dat 1 machine vs 2 machines zuiniger is.
Ik ga er even verder over bomen, maar meer tips zijn welkom
Ik ga er even verder over bomen, maar meer tips zijn welkom
A real man fears not mortality for it's death, he fears mortality for it's lack of life!
RatPack #814
Ik ben al een poos op zoek naar een leuke kast voor om een mATX systeem, liefst met ruimte voor 3 à 5 3.5" schijven. De bekende Chenbro is natuurlijk heel mooi maar wel duur en ITX, die valt dus af.
Ik weet dat er zat en genoeg ATX kasten te vinden zijn waar ook mATX in past, maar ik wil juist een leuk klein kastje voor in de meterkast (weinig ruimte). Natuurlijk heb ik de pricewatch al ter hand genomen. Ik kwam uiteindelijk op deze kast uit: pricewatch: Gigabyte GZ-M1BPD-700 Zwart.
180 x 368 x 398 mm is niet heel klein maar kan er mee door, 4x3.5" en 2x5.25" is ruim voldoende.
Iemand een betere suggestie voordat ik deze in bestelling doe?
Ik weet dat er zat en genoeg ATX kasten te vinden zijn waar ook mATX in past, maar ik wil juist een leuk klein kastje voor in de meterkast (weinig ruimte). Natuurlijk heb ik de pricewatch al ter hand genomen. Ik kwam uiteindelijk op deze kast uit: pricewatch: Gigabyte GZ-M1BPD-700 Zwart.
180 x 368 x 398 mm is niet heel klein maar kan er mee door, 4x3.5" en 2x5.25" is ruim voldoende.
Iemand een betere suggestie voordat ik deze in bestelling doe?
Die kast ziet er best netjes uit. mATX, dus uit mijn lijstje van mobo's ook een mATX gekozen en hierop verder geborduurt:
Nu zegt de mobo fabrikant het volgende over de onboard vid:
Sorry als dit offtopic is.
# | Product | Prijs | Subtotaal |
1 | AMD Athlon II X2 250 | € 76,69 | € 76,69 |
1 | Gigabyte GA-MA74GM-S2H | € 47,83 | € 47,83 |
1 | Gigabyte GZ-M1BPD-700 Zwart | € 24,93 | € 24,93 |
1 | Kingston ValueRAM KVR800D2N5K2/4G | € 45,- | € 45,- |
2 | Samsung Spinpoint F1 HD103UJ, 1TB | € 71,85 | € 143,70 |
Importeren | Totaal | € 338,15 |
Nu zegt de mobo fabrikant het volgende over de onboard vid:
enAMD 740G Chipset
The brand new AMD 740G chipset features ATI Radeon™ HD 2100-based graphics architecture. This unique combination of Integrated Graphics Processor (IGP) creates a single motherboard featuring a world-class DX9, Pixel Shader 2.0, ATI Avivo Technology, ATI SurroundView™ Technology for faster and smoother game-play, a high quality video processing engine for advance quality of video and DVD playback.
Zou dit afdoende zijn voor een starters HTPC? Zou een mooie NAS/HTPC combo zijn imo.HDMI Interface
HDMI is latest High-Definition Multimedia Interface, which is able to provide up to 5Gb/s video transmitting bandwidth and also 8-channel high quality audio. Via transmitting uncompressed digital data, HDMI is able to reduce signal interference as transferring between digital and analog signal, seen and heard, direct from the source. In addition, HDMI is compatible with HDCP (High-bandwidth Digital Content Protection), which allowing playback of Blu-ray/ HD DVD and other protected contents.
Sorry als dit offtopic is.
A real man fears not mortality for it's death, he fears mortality for it's lack of life!
RatPack #814
Deze week binnengekomen uit Amerika.

Heeft ruimte voor 20 disks. Voorlopig wel voldoende ruimte dus. Wat voor hardware er in gestopt gaat worden weet ik nog niet.

Heeft ruimte voor 20 disks. Voorlopig wel voldoende ruimte dus. Wat voor hardware er in gestopt gaat worden weet ik nog niet.
[ Voor 16% gewijzigd door Q op 15-06-2009 15:48 ]
Denk je dat daar een mATX bordje in past?
(Of: wat voor een meterkast heb jij dan?)
(Of: wat voor een meterkast heb jij dan?)
En zo hoort hetQ schreef op maandag 15 juni 2009 @ 15:46:
Deze week binnengekomen uit Amerika.
[afbeelding]
Heeft ruimte voor 20 disks. Voorlopig wel voldoende ruimte dus. Wat voor hardware er in gestopt gaat worden weet ik nog niet.
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
NICE, quanto $ / €?Q schreef op maandag 15 juni 2009 @ 15:46:
Deze week binnengekomen uit Amerika.
[afbeelding]
Heeft ruimte voor 20 disks. Voorlopig wel voldoende ruimte dus. Wat voor hardware er in gestopt gaat worden weet ik nog niet.
Verwijderd
En de rest van de info? Merk, model, welk bedrijf zo gek gekregen om hem naar Europa te versturen?Q schreef op maandag 15 juni 2009 @ 15:46:
Deze week binnengekomen uit Amerika.
[afbeelding]
Heeft ruimte voor 20 disks. Voorlopig wel voldoende ruimte dus. Wat voor hardware er in gestopt gaat worden weet ik nog niet.
Ik vermoed stiekem een Norco, maar hoor het graag van je
Ik denk dat hij flauw is gevallen na het bekijken van dat watt metertje dat daar achteraan aan hangt
.
Geile kast. Daar kan je wel een paar terra in kwijt.
Geile kast. Daar kan je wel een paar terra in kwijt.
Dat Gigabyte bordje is qua prijs erg aantrekkelijk (idem vanwege de solid caps). Alleen jammer dat de gebruikte Gbit NIC chip (realtek 8111c) zo'n beroerde reputatie heeft mbt linux (geloof dat t bij bsd min of meer is opgelost). Niet te min kun je voor rondom €500 een flinke NAS neerzettenRoeligan schreef op maandag 15 juni 2009 @ 09:31:
Mobo wat ik over heb is niet echt meer in leven, dus maar kijken voor een ander.
Ik heb gevonden:
pricewatch: MSI K9N2GM-FIH 62 euro
pricewatch: Gigabyte GA-MA74GM-S2H 48 euro
pricewatch: Asus M3N72-D 75 euro
Deze hebben allemaal 6 SATA aansluitingen, waarmee ik dus redelijk vooruit kan. Nu dus kijken voor een proc erbij, maar dan kom ik bij de volgende vraag: Is het verstandig om een NAS te combineren met een HTPC-achtig iets? Of zijn hier bezwaren tegen?
Ik kan met een HTPC een X2 5050 erop gooien (als dat al genoeg is), of voor een NAS een Sempron van 3 tientjes.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
zozo dat is het eerste dat ik ervan hoor Panta. Ik heb zelf ook zo'n Realtek 8111 chip en haal hier via samba rond de 30Mb/s.
trouwens voor zij die inzitten met het verbruik van homemade nassen (you should)
AMD Athlon X2 4000+ AM2 @ 1Ghz
Asus M2A-VM
4Gb DDR2
320Gb WD sata
750Gb Samsung sata
NEC dvd writer
Coolermaster Realpower 450W voeding (75% effic)
2x 120mm fans
Dat alles draait hier idle 56Watt, met een tiental watt erbij bij transfers. bij het booten haalt ie een max van 85W. Niet al te slecht lijkt me.
trouwens voor zij die inzitten met het verbruik van homemade nassen (you should)
AMD Athlon X2 4000+ AM2 @ 1Ghz
Asus M2A-VM
4Gb DDR2
320Gb WD sata
750Gb Samsung sata
NEC dvd writer
Coolermaster Realpower 450W voeding (75% effic)
2x 120mm fans
Dat alles draait hier idle 56Watt, met een tiental watt erbij bij transfers. bij het booten haalt ie een max van 85W. Niet al te slecht lijkt me.
Ah verdorie, wat een geile bak. Daar móest ik meteen naar googlen, het blijkt de norco 4020 te zijn.. Als ik zo op ebay rond kijk, valt de prijs van die kast nog relatief mee, met €350, ongeveer?Q schreef op maandag 15 juni 2009 @ 15:46:
Deze week binnengekomen uit Amerika.
[afbeelding]
Heeft ruimte voor 20 disks. Voorlopig wel voldoende ruimte dus. Wat voor hardware er in gestopt gaat worden weet ik nog niet.
Een mooi ding is het sowieso.
Welke distro??, samba doet t ook onder bsd, *nix, UX, AIX, Solaris, Irix, etcJormungandr schreef op maandag 15 juni 2009 @ 22:19:
zozo dat is het eerste dat ik ervan hoor Panta. Ik heb zelf ook zo'n Realtek 8111 chip en haal hier via samba rond de 30Mb/s.
trouwens voor zij die inzitten met het verbruik van homemade nassen (you should)
AMD Athlon X2 4000+ AM2 @ 1Ghz
Asus M2A-VM
4Gb DDR2
320Gb WD sata
750Gb Samsung sata
NEC dvd writer
Coolermaster Realpower 450W voeding (75% effic)
2x 120mm fans
Dat alles draait hier idle 56Watt, met een tiental watt erbij bij transfers. bij het booten haalt ie een max van 85W. Niet al te slecht lijkt me.
Nu moet ik bekennen dat ik sinds ik een Intel NIC in t Intel Atom bordje (Intel D945GCLF2) niet meer de moeite heb genomen om verder te zoeken (ook omdat de transfer snelheid van de NIC onder XP bedroevend slechter waren dan t intel PCI insteekkaartje). OpenSuse had destijds moeite met een IP verkrijgen dan wel de RealTek NIC tot leven wekken en FreeBSD support was broken/experimental, ongewenst naar mijn idee. Maar we zijn inmiddels wat maandjes verder en dat kan best betekenen dat de support voor de 8111c op orde is (destijds wel met early release drivers van Realtek zelf gerommeld, maar die waren erg brak mbt *bsd)
Inmiddels is de Atom op de D945GCLF2 toch te zwak gebleken voor in de 'huis-, tuin- en keuken server' en aangezien ik er een koper voor heb, is t tijd voor wat anders.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Het is inderdaad de Norco RPC-4020.Rian schreef op maandag 15 juni 2009 @ 23:09:
[...]
Ah verdorie, wat een geile bak. Daar móest ik meteen naar googlen, het blijkt de norco 4020 te zijn.. Als ik zo op ebay rond kijk, valt de prijs van die kast nog relatief mee, met €350, ongeveer?
Een mooi ding is het sowieso.
De kast moest helaas uit Amerika geimporteerd worden dus op de prijs van 300 dollar kwam nog 150 dollar verzendkosten, een totaal van rond de 325 euro's. Daar komt helaas dan nog de douane even overheen met 75 euro, dus totaal ben ik 400 euro lichter.
400 euro voor een kast is erg veel geld in absolute zin maar relatief gezien is het heel weinig als je bedenkt dat een doorsnee kast van dit kaliber 1000 euro kost (ik denk aak Supermicro).
Ik heb met Norco gemaild hoe ik 'm kon bestellen, gaat via hun zelf, heb gebruik gemaakt van pay pal.
Dit ding gaat zeker niet 24/7 aan staan. Met mijn huidige 10 disk 6 TB RAID 6 doe ik dat ook niet want om nu 170 watt continue aan te laten vind ik zonde. Met WOL (wake-on-lan) gaat hij aan en met een 'halt' gaat hij uit. Die 170 watt komt van de watt meter in de foto die verbonden is met de huidige storage server.
De kast is een server kast en niet bepaald stil. Zomaar andere stille ventilatoren er in stoppen is misschien niet slim omdat je wel even worst-case 20 disks moet koelen. Hij gaat toch op zolder ergens ofzo.
Het plan is om op basis van Debian MDADM software raid te gaan draaien. Maar qua hardware weet ik nog niet wat ik ga doen. Met name een goedkope 16 poort of 2x8 poort sata controller is nog wel een issue.
[ Voor 15% gewijzigd door Q op 16-06-2009 01:37 ]
Ik ben het met je eens dat het erg veel geld in absolute zin is. Maar inderdaad, wanneer je een dergelijke hoeveelheid hotswap trays in een kast wilt hebben, ben je met een viertal losse 5-in-3 modules veel duurder uit, laat staan dat er kasten bestaan waar plek is voor zoveel modules. Dus wat dat betreft denk ik dat je een mooie aankoop heb gedaan.
Is het trouwens een idee om een tweetal 8-poorts kaartjes te kopen van raidcore? Daarvan zijn de kosten nog wel te overzien, en volgens mij moet dat met mdadm geen problemen opleveren. We hebben het dan wel over de variant die geen hardware matige raid-5 of raid-6 support heeft, maar dat maakt dan toch niet uit. Ik vraag me meer af of de raidcore kaartjes standaard werken onder linux.
Ik vraag me wel af of het verstandig is om de dwarsbalk waar de vijf 80mm fans op gemonteerd is, aan te passen zodat hier 3x120mm fans in passen, zoals hier gedaan is. Op deze manier kun je stillere 1500rpm fans in de kast monteren, dat zou toch voor genoeg airflow moeten zorgen? Je zei dat je de kast weg zou stoppen op zolder, maar ik ben wel nieuwschierig of het mogelijk is om de kast stil(ler) te krijgen.
Ik ben ontzettend benieuwd hoe je de kast gaat indelen. Ik kwam op internet deze thread tegen, daar staat veel handige info in. Misschien meteen wat inspiratie voor de hardware die je erin gaat doen
[ Voor 4% gewijzigd door Rian op 16-06-2009 10:30 ]
@ Panta: Ubuntu linux 9.04
. Was er maar later achter gekomen dat ik inderdaad de distro vergeten was.
In eerste instantie keek ik naar die 5-in-3 modules, eventueel met een kast die heel veel ruimte heeft maar al snel kwam ik tot dezelfde conclusie: dat is veel te duur. Voor 20 disks heb je er 4 nodig en ze zijn vaak bijna 150 euro per stuk. Dan heb je nog niet eens een kast.Rian schreef op dinsdag 16 juni 2009 @ 09:57:
[...]
Ik ben het met je eens dat het erg veel geld in absolute zin is. Maar inderdaad, wanneer je een dergelijke hoeveelheid hotswap trays in een kast wilt hebben, ben je met een viertal losse 5-in-3 modules veel duurder uit, laat staan dat er kasten bestaan waar plek is voor zoveel modules. Dus wat dat betreft denk ik dat je een mooie aankoop heb gedaan.
Die kaartjes heb ik gezien bij webconnexxion oid en daar denk ik over na. Met google en e-mail moet ik daar wel wijzer uit worden. Twee controllers is wel 2x zoveel kans op uitval van een controller dus 1 grote controller lijkt wenselijker (of de helft of alles stuk gaat maakt niet uit). Maar 16x sata en goedkoop bestaat niet. Dus ik neem het zeker mee.Is het trouwens een idee om een tweetal 8-poorts kaartjes te kopen van raidcore? Daarvan zijn de kosten nog wel te overzien, en volgens mij moet dat met mdadm geen problemen opleveren. We hebben het dan wel over de variant die geen hardware matige raid-5 of raid-6 support heeft, maar dat maakt dan toch niet uit. Ik vraag me meer af of de raidcore kaartjes standaard werken onder linux.
Ik heb ook veel gelezen over de kast en een van de adviezen is 3x 120mm installeren om het geluid naar beneden te krijgen. Afhankelijk hoeveel last ik heb van het geluid ga ik er wel wat mee doen denk ik. Maar welke oplossing weet ik nog niet. 12cm fans is wel het mooiste. Maar dan moet er ook wat aan de uitvoer gedaan worden, zoals op je links is te zien.Ik vraag me wel af of het verstandig is om de dwarsbalk waar de vijf 80mm fans op gemonteerd is, aan te passen zodat hier 3x120mm fans in passen, zoals hier gedaan is. Op deze manier kun je stillere 1500rpm fans in de kast monteren, dat zou toch voor genoeg airflow moeten zorgen? Je zei dat je de kast weg zou stoppen op zolder, maar ik ben wel nieuwschierig of het mogelijk is om de kast stil(ler) te krijgen.
Ja, die heb ik uitgelezen. Ik zie wel dat veel mensen toch ook een smak neertellen voor hardware RAID maar voor thuis is dat echt flauwekul en ik wil het niet (al) te duur maken. Gratis gaat dit niet worden, maar een ander staat weer ieder weekend in de kroeg, zo denk ik dan.Ik ben ontzettend benieuwd hoe je de kast gaat indelen. Ik kwam op internet deze thread tegen, daar staat veel handige info in. Misschien meteen wat inspiratie voor de hardware die je erin gaat doen
heb nu net freenas geinstalleerd alleen werkt de netwerk kaart van mijn mobo (GA-MA78GM-S2H) niet realtek 8111C. Heb wel gelezen dat er drivers voor zijn heb de drivers van realtek zelf gedownload maar nu zag ik ook dat er drivers voor waren met freebsd 7.1 alleen kan ze nergens vinden om te downloaden. of werkt die realtek wel met de nightly builds van freenas?
of kan ik beter een losse nic kopen van intel ofzo? zoja wat zou dan beter zijn PCI of PCIe 1x, 1gbps kan nog wel over PCI maar ik weet niet of die dan zijn max haalt of dat die dan blijft steken op 50 mb\s.
of kan ik beter een losse nic kopen van intel ofzo? zoja wat zou dan beter zijn PCI of PCIe 1x, 1gbps kan nog wel over PCI maar ik weet niet of die dan zijn max haalt of dat die dan blijft steken op 50 mb\s.
Ik zie dat Azerty aangeeft dat hun leverancier hem op voorraad heeft voor €206,12.Jorn schreef op woensdag 27 mei 2009 @ 13:20:
Ik kreeg net een mailtje van Centralpoint dat de ES34069 niet meer leverbaar is.
Op Ebay is hij nog wel te bestellen, maar dan voor 220euro in Duitsland.
Weet iemand misschien of hij nog wel ergens gewoon te koop is of is hij echt end off life?
De driver voor de Realtek 8111C zit gewoon is gewoon opgenomen in de FreeBSD 7 install. En die kun je dus daar gewoon uit halen.aegis schreef op dinsdag 16 juni 2009 @ 23:01:
heb nu net freenas geinstalleerd alleen werkt de netwerk kaart van mijn mobo (GA-MA78GM-S2H) niet realtek 8111C.
Core i5-3570K/ASRock Z75 Pro3/Gigabyte Radeon HD7850/Corsair XMS3 2x4GB/OCZ Vertex2 64GB/3x640GB WD Black/24" B2403WS Iiyama x2/Nec 7200S
Helemaal mee eens. Een hobby is leuk, en wanneer je veel capaciteit nodig hebt is een flink bedrag gerechtvaardigd, maar er zijn grenzen en dat is ook waarom ik zelf voor software raid gekozen heb d.m.v. mdadm.Ja, die heb ik uitgelezen. Ik zie wel dat veel mensen toch ook een smak neertellen voor hardware RAID maar voor thuis is dat echt flauwekul en ik wil het niet (al) te duur maken. Gratis gaat dit niet worden, maar een ander staat weer ieder weekend in de kroeg, zo denk ik dan.
Ik vroeg me trouwens af hoe je je schijfindeling wilde doen? Op de planning staan bij mij twee arrays van 8 schijven elk, die stuk voor stuk danwel in raid 5 of raid 6 gezet worden (momenteel draai ik één raid 5 array). Nou is nested raid natuurlijk mogelijk met mdadm, zodat je de twee arrays samen kunt voegen in een enkele raid 0 array, hiermee krijg je dus raid 50 of 60.
Alleen, mijn onderbuikgevoel zegt dat wanneer er in één array twee schijven uitklappen (in geval van raid 5 op die array), dat dan alle data over de 16 schijven corrupt is, volgens het idioom van raid 0. Dit komt op dezelfde fout tolerantie neer van een enkele raid 6 array met 16 schijven, alleen nu twijfel ik welke van de twee nou betrouwbaarder en/of sneller is. Volgens mij bereik je veel hogere sustained speeds met raid 50 dan met raid 6, maar de complexiteit wordt er niet minder op.
Ik overweeg om er in eerst instantie 10 disks in te stoppen en dan simpelweg wat te gaan benchmarken. Waarschijnlijk zal iedere array sowieso RAID6 zijn. Met 1TB disks of groter is de rebuild tijd wat mij betreft te groot om nog RAID 5 te kunnen doen. Met een capaciteit van 20 disks hou je dan 16 disks = 16 TB over.Rian schreef op dinsdag 16 juni 2009 @ 23:22:
[...]
Helemaal mee eens. Een hobby is leuk, en wanneer je veel capaciteit nodig hebt is een flink bedrag gerechtvaardigd, maar er zijn grenzen en dat is ook waarom ik zelf voor software raid gekozen heb d.m.v. mdadm.
Ik vroeg me trouwens af hoe je je schijfindeling wilde doen? Op de planning staan bij mij twee arrays van 8 schijven elk, die stuk voor stuk danwel in raid 5 of raid 6 gezet worden (momenteel draai ik één raid 5 array). Nou is nested raid natuurlijk mogelijk met mdadm, zodat je de twee arrays samen kunt voegen in een enkele raid 0 array, hiermee krijg je dus raid 50 of 60.
Alleen, mijn onderbuikgevoel zegt dat wanneer er in één array twee schijven uitklappen (in geval van raid 5 op die array), dat dan alle data over de 16 schijven corrupt is, volgens het idioom van raid 0. Dit komt op dezelfde fout tolerantie neer van een enkele raid 6 array met 16 schijven, alleen nu twijfel ik welke van de twee nou betrouwbaarder en/of sneller is. Volgens mij bereik je veel hogere sustained speeds met raid 50 dan met raid 6, maar de complexiteit wordt er niet minder op.
Met 16 TB kan ik leven. Ik wordt alleen niet blij van de filesystems die dergelijk grote partities kunnnen ondersteunen. Met name xfs vind ik vies, maar ext3 kan niet meer.
Op dit moment zit ik eigenlijk met name met de sata controller(s) in mijn maag. Die raidcore dingen zijn wel lekker goedkoop maar ik heb angst voor lange termijn driver support. De website is nu bijiv uit de lucht.
Ik kan een 16 poort highpoint doen voor 400 euro, maar dat is wel veel geld voor het gebruik als domme sata controller.
[ Voor 9% gewijzigd door Q op 16-06-2009 23:33 ]
En ext4 dan? Deze kan wel tot een 1EB aan. Of ReiserFS?Q schreef op dinsdag 16 juni 2009 @ 23:32:
[...]
Met 16 TB kan ik leven. Ik wordt alleen niet blij van de filesystems die dergelijk grote partities kunnnen ondersteunen. Met name xfs vind ik vies, maar ext3 kan niet meer.
Of als je een *BSD gaat draaien kun je UFS gebruiken.
hoe kan je die daar uit halen? moet ik freebsd 7 downloaden en op dvd zetten of kan je ook alleen de driver downloaden?kalizec schreef op dinsdag 16 juni 2009 @ 23:14:
[...]
De driver voor de Realtek 8111C zit gewoon is gewoon opgenomen in de FreeBSD 7 install. En die kun je dus daar gewoon uit halen.
FreeBSD 7 Kernel Optie toevoegen + in je Source toevoegen denk ik, maar ik weet het niet zeker.aegis schreef op woensdag 17 juni 2009 @ 08:51:
hoe kan je die daar uit halen? moet ik freebsd 7 downloaden en op dvd zetten of kan je ook alleen de driver downloaden?
Je hebt dan de /usr/src/ van FreeBSD 7 nodig.
Maar je kan ook gewoon FreeBSD 7 installeren
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Kijk op het forum van Freenas is een groot topic over.aegis schreef op dinsdag 16 juni 2009 @ 23:01:
heb nu net freenas geinstalleerd alleen werkt de netwerk kaart van mijn mobo (GA-MA78GM-S2H) niet realtek 8111C. Heb wel gelezen dat er drivers voor zijn heb de drivers van realtek zelf gedownload maar nu zag ik ook dat er drivers voor waren met freebsd 7.1 alleen kan ze nergens vinden om te downloaden. of werkt die realtek wel met de nightly builds van freenas?
of kan ik beter een losse nic kopen van intel ofzo? zoja wat zou dan beter zijn PCI of PCIe 1x, 1gbps kan nog wel over PCI maar ik weet niet of die dan zijn max haalt of dat die dan blijft steken op 50 mb\s.
Bij de nightly builds zou hij moeten werken.
Ik heb gewoon de normale geinstalleerd en de driver geinstalleerd en een script aangezet dat hij de driver laadt met opstarten van Freenas en het werkt gewoon.
Heb nog geen snelheid getest want ben nog niet klaar met me schijven indelen
Met goed zoeken kan je soms voor best leuke prijzen een Highpoint scoren. Ik heb mijn Rocketraid 2320 voor 150 euro all-in van ebay uit de US. Dat is dus echt wel een leuk prijsje.Q schreef op dinsdag 16 juni 2009 @ 23:32:
[...]
Ik overweeg om er in eerst instantie 10 disks in te stoppen en dan simpelweg wat te gaan benchmarken. Waarschijnlijk zal iedere array sowieso RAID6 zijn. Met 1TB disks of groter is de rebuild tijd wat mij betreft te groot om nog RAID 5 te kunnen doen. Met een capaciteit van 20 disks hou je dan 16 disks = 16 TB over.
Met 16 TB kan ik leven. Ik wordt alleen niet blij van de filesystems die dergelijk grote partities kunnnen ondersteunen. Met name xfs vind ik vies, maar ext3 kan niet meer.
Op dit moment zit ik eigenlijk met name met de sata controller(s) in mijn maag. Die raidcore dingen zijn wel lekker goedkoop maar ik heb angst voor lange termijn driver support. De website is nu bijiv uit de lucht.
Ik kan een 16 poort highpoint doen voor 400 euro, maar dat is wel veel geld voor het gebruik als domme sata controller.
Overigens mijn rebuild tijd met 4 x 1 GB schijven in die controller is ongeveer 3,5 uur. Dat met een X2 3800 EE cpu. Toch niet slecht voor een niet-IOP controller die dus zwaar leunt op mijn niet bijzonder krachtige CPU.
[ Voor 8% gewijzigd door psy op 17-06-2009 13:51 ]
8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)
Dat is beter. Ik zie ze voor (omgerekend) 180 euro op ebay. Maar bij elkaar kom ik dan op 360 terwijl ik online voor 425 een 16 poort kaart heb. (2340).psy schreef op woensdag 17 juni 2009 @ 13:44:
[...]
Met goed zoeken kan je soms voor best leuke prijzen een Highpoint scoren. Ik heb mijn Rocketraid 2320 voor 150 euro all-in van ebay uit de US. Dat is dus echt wel een leuk prijsje.
Dat is single disk ongeveer 80 mb/s wat prima is. Overigens niet slechter of beter dan Linux software raid naar ik meen.Overigens mijn rebuild tijd met 4 x 1 GB schijven in die controller is ongeveer 3,5 uur. Dat met een X2 3800 EE cpu. Toch niet slecht voor een niet-IOP controller die dus zwaar leunt op mijn niet bijzonder krachtige CPU.
Ik zie dat de RAIDcore kaarten werden gemaakt door een bedrijf dat helaas failliet is en dat deze lijn van producten niet meer verder ontwikkeld wordt voor zover ik kan zien.
[ Voor 9% gewijzigd door Q op 17-06-2009 22:11 ]
Of twee van die niet-raid Supermicro controllers van 8 ports, die zijn niet zo duur (120 per stuk?)
Maar dan heb je weer twee controllers.... wat je liever niet hebt.
Maar dan heb je weer twee controllers.... wat je liever niet hebt.
8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)
Ik zie dat niet zo zitten als ik dit lees...psy schreef op woensdag 17 juni 2009 @ 22:59:
Of twee van die niet-raid Supermicro controllers van 8 ports, die zijn niet zo duur (120 per stuk?)
Maar dan heb je weer twee controllers.... wat je liever niet hebt.
http://www.hardforum.com/showthread.php?p=1034070906
Ja dan heb je geen echte keus meer denk ik.
Ken je het volgende topic, lijkt me iets voor jou.
http://www.avsforum.com/avs-vb/showthread.php?t=1045086
en
http://www.avsforum.com/avs-vb/showthread.php?t=1071162
Ken je het volgende topic, lijkt me iets voor jou.
http://www.avsforum.com/avs-vb/showthread.php?t=1045086
en
http://www.avsforum.com/avs-vb/showthread.php?t=1071162
[ Voor 16% gewijzigd door psy op 18-06-2009 13:30 ]
8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)
Dan is er altijd nog de adaptec 21610SA. Deze heeft in ieder geval driversupport onder debian d.m.v. aacraid (link). Het is wel een PCI-X kaart, dus dat kan weer lastig worden met het moederbord. Ik weet niet of er een pci-e variant op is.Q schreef op donderdag 18 juni 2009 @ 12:29:
[...]
Ik zie dat niet zo zitten als ik dit lees...
http://www.hardforum.com/showthread.php?p=1034070906
Alleen ik weet niet zeker hoe het zit met performance, omdat dit een pci-x 66mhz kaart is, oftewel een maximale theoretische doorvoer van 528MB/s.
Ja die draadjes heb ik wel gelezen, met rode oortjes. My God. Dat gaat helemaal nergens meer over (48 TB).psy schreef op donderdag 18 juni 2009 @ 13:20:
Ja dan heb je geen echte keus meer denk ik.
Ken je het volgende topic, lijkt me iets voor jou.
http://www.avsforum.com/avs-vb/showthread.php?t=1045086
en
http://www.avsforum.com/avs-vb/showthread.php?t=1071162
Met 16 disks kun je 1600 MB/s halen. Dat is dus nog een forse theoretische bottleneck. Of je in de praktijk die snelheid ooit haalt is de vraag, zeker met RAID 6 maar PCI-X is toch een beetje oude technologie.Rian schreef op donderdag 18 juni 2009 @ 17:37:
[...]
Dan is er altijd nog de adaptec 21610SA. Deze heeft in ieder geval driversupport onder debian d.m.v. aacraid (link). Het is wel een PCI-X kaart, dus dat kan weer lastig worden met het moederbord. Ik weet niet of er een pci-e variant op is.
Alleen ik weet niet zeker hoe het zit met performance, omdat dit een pci-x 66mhz kaart is, oftewel een maximale theoretische doorvoer van 528MB/s.
Ik ga denk ik toch maar voor de highpoint. Driver support is altijd goed geweest. Wat ik wel zou moeten testen is de vraag of een door een highpoint geinitialiseerde disk ook aangesloten op een non-highpoint controller door Linux wordt herkend.
Bedankt in ieder geval voor het meedenken.
[ Voor 61% gewijzigd door Q op 18-06-2009 20:32 ]
In hoeverre speelt de keuze van het moederbord mee in het verbruik?
Ik ben opzoek naar een NAS en ben dus opzoek naar een moederbord met geïntegreerde graphics, ik wil namelijk deze soms occasioneel gebruiken als htpc. Mijn keuze viel op de nvidia-chipsets (9300-9400), omdat er een linux OS opkomt en hier goede VDPAU ondersteuning voor is.
Asus P5N7A (9300)
Gigabyte GA-E7AUM-DS2H (9400)
Denk je dat dit veel scheelt in verbruik? (dacht aan een E7300)
Bvb. vergelijkende met een Gigabyte GA-MA78GM-UD2H en een 5050e processor denk je?
Btw.
Denk aan software RAID5 met 4 WD 1,5Gb disks. 2Gb RAM.
gaat op ext3 draaien, in combinatie met MDADM en LVM. Ben nog aan het twijfelen tussen LUKS of Truecrypt encryptie (voorkeur voor LUKS, maar nog geen goede support voor apple blijkbaar).
Ik ben opzoek naar een NAS en ben dus opzoek naar een moederbord met geïntegreerde graphics, ik wil namelijk deze soms occasioneel gebruiken als htpc. Mijn keuze viel op de nvidia-chipsets (9300-9400), omdat er een linux OS opkomt en hier goede VDPAU ondersteuning voor is.
Asus P5N7A (9300)
Gigabyte GA-E7AUM-DS2H (9400)
Denk je dat dit veel scheelt in verbruik? (dacht aan een E7300)
Bvb. vergelijkende met een Gigabyte GA-MA78GM-UD2H en een 5050e processor denk je?
Btw.
Denk aan software RAID5 met 4 WD 1,5Gb disks. 2Gb RAM.
gaat op ext3 draaien, in combinatie met MDADM en LVM. Ben nog aan het twijfelen tussen LUKS of Truecrypt encryptie (voorkeur voor LUKS, maar nog geen goede support voor apple blijkbaar).
[ Voor 34% gewijzigd door ZodiacQ op 19-06-2009 14:14 ]
Heb net een 2340 via ebay gekocht voor 309 euro (inclusief verzending van 50 dollar) Misschien komt er nog wat douane kosten bij maar dan nog steeds niet slecht voor een 2 maanden oud kaartje.Q schreef op woensdag 17 juni 2009 @ 20:52:
[...]
Dat is beter. Ik zie ze voor (omgerekend) 180 euro op ebay. Maar bij elkaar kom ik dan op 360 terwijl ik online voor 425 een 16 poort kaart heb. (2340).
[...]
Me NAS wordt nu wel ongeveer 130 euro duurder dan eerst maar ik heb dan wel 22 ipv 10 sata aansluiting vergeleken me vorige config. En daaarnaast verbruikt me config nu ook minder stroom.:)
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Dat is een mazzel. Zitten er standaard ook 4x sas2-4x sata kabels bij? Ik heb steeds meer de neiging om voor deze kaart te gaan.klaasbram schreef op vrijdag 19 juni 2009 @ 20:34:
[...]
Heb net een 2340 via ebay gekocht voor 309 euro (inclusief verzending van 50 dollar) Misschien komt er nog wat douane kosten bij maar dan nog steeds niet slecht voor een 2 maanden oud kaartje.
Me NAS wordt nu wel ongeveer 130 euro duurder dan eerst maar ik heb dan wel 22 ipv 10 sata aansluiting vergeleken me vorige config. En daaarnaast verbruikt me config nu ook minder stroom.:)
Ik concludeer dat 2x 8 poorts pci-x kaarten een mobo vereisen met 2x pci-x = server/workstation mobo = duur.
Sata expanders zou nog iets kunnen zijn maar of je hw het ondersteunt is punt twee. Die dingen zijn duur in aantallen dus uiteindelijk blijft de highpoint het voordeligst.
Nu maar eens gaan nadenken welk Mobo er in gaat.
Ja de kabels zitten erbijQ schreef op zaterdag 20 juni 2009 @ 11:02:
[...]
Dat is een mazzel. Zitten er standaard ook 4x sas2-4x sata kabels bij? Ik heb steeds meer de neiging om voor deze kaart te gaan.
Ik concludeer dat 2x 8 poorts pci-x kaarten een mobo vereisen met 2x pci-x = server/workstation mobo = duur.
Sata expanders zou nog iets kunnen zijn maar of je hw het ondersteunt is punt twee. Die dingen zijn duur in aantallen dus uiteindelijk blijft de highpoint het voordeligst.
Nu maar eens gaan nadenken welk Mobo er in gaat.
Ik dacht ff te zoeken op ebay op een highpoint kaartje en kwam deze tegen als "Nu kopen".
Ik snel ff reviews opzoeken en lezen. En besloten te kopen. Alleen moest ik dus nog ff een paypal account aanmaken en me creditcard koppelen.
Let wel op dat deze kaart een IOC heeft ipv een IOP C= controller P = processor. De laatste is eigenlijk het beste maar omdat ik me NAS niet echt veel anders laat doen dan downloaden en bestandjes serveren is dat voor de cpu load te overzien. (review en beter uitleg)
Maar omdat ik nu 16x kaart heb heb ik ook genoeg aan een mobo met maar 6x sata onboard. En daardoor kan ik voor een IGP oplossing kiezen en ook gelijk terug naar het AM2 bordje stappen. Welke op hun beurt weer lekker zuinige CPU's hebben
Dit is me voorlopige lijstje.
# | Product | Prijs | Subtotaal |
1 | AMD Athlon 64 LE-1660 | € 36,88 | € 36,88 |
1 | Antec Earthwatts EA 430 | € 53,01 | € 53,01 |
1 | Gigabyte GA-MA74GM-S2H | € 48,18 | € 48,18 |
1 | Kingston ValueRAM KVR800D2N6K2/2G | € 23,38 | € 23,38 |
4 | Samsung EcoGreen F2 HD103SI, 1TB | € 63,- | € 252,- |
Importeren | Totaal | € 413,45 |
Vooral de HDD's kunnen nog wijzigen
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Dan ben je zo te zien voor onder de 1000 klaar voor 3 TB aan fault-tollerant storage. Alleen maak ik me zorgen over prestaties van een dergelijke processor bij een zeer grote array. Nu ken ik de NIC van het gigabyte bord niet, maar mijn ervaring is dat je onder Linux beter nog een Gigabit kaart in een pci-e 1x slot kunt stoppen en die gebruiken.
RAID vraagt niet veel CPU maar stel 10+ disks in RAID6. Dan wordt het denk ik toch een ander verhaal.Ik verwacht om uiteindelijk naar 2x 10 disks in RAID6 te gaan en deze twee arrays in een raid 0 te stoppen tot RAID 60. Dat geeft dan 16 TB aan storage. Of misschien 1 grote RAID 6 van 20 disks voor 18 TB.
RAID vraagt niet veel CPU maar stel 10+ disks in RAID6. Dan wordt het denk ik toch een ander verhaal.Ik verwacht om uiteindelijk naar 2x 10 disks in RAID6 te gaan en deze twee arrays in een raid 0 te stoppen tot RAID 60. Dat geeft dan 16 TB aan storage. Of misschien 1 grote RAID 6 van 20 disks voor 18 TB.
[ Voor 17% gewijzigd door Q op 20-06-2009 14:09 ]
10 disks in RAID-6 ga je over een enkele 1 Gbit kaart natuurlijk nooit zwaar genoeg kunnen belasten behalve tijdens een rebuild.
Core i5-3570K/ASRock Z75 Pro3/Gigabyte Radeon HD7850/Corsair XMS3 2x4GB/OCZ Vertex2 64GB/3x640GB WD Black/24" B2403WS Iiyama x2/Nec 7200S
De rebuild tijd wil je zo kort mogelijk houden. Bovendien overweeg ik om te gaan spelen met teaming/bonding van gigabit kaarten.kalizec schreef op zaterdag 20 juni 2009 @ 14:08:
10 disks in RAID-6 ga je over een enkele 1 Gbit kaart natuurlijk nooit zwaar genoeg kunnen belasten behalve tijdens een rebuild.
Gewoon, omdat het kan.
Daarnaast overweeg ik om, met de nieuwe 2TB schijven in het achterhoofd, 1 TB disks in paren tot RAID 0 virtuele 2 TB schijven om te zetten en die dan in een RAID 6 te gooien. En dan weer mogelijk 2 x 10 RAID 6 of 1 grote. Die nesting van raid levels kan mogelijk extra belasting geven. Multicore lijkt me dan relevanter dan mhz.
[ Voor 29% gewijzigd door Q op 20-06-2009 14:16 ]
Tuurlijk kun je dat overwegen, maar je respons was op Klaasbram en ik zie niet in waarom je zou vinden dat hij een betere CPU nodig heeft voor de 10 schijven die hij toch niet gaat gebruiken (thans niet in zijn bootschappenlijst staan).
Ook denk ik dat rebuild-tijden niet zo belangrijk zijn met RAID6. De kans dat er drie schijven in een enkel weekend uitvallen is niet zo heel erg groot.
Ook denk ik dat rebuild-tijden niet zo belangrijk zijn met RAID6. De kans dat er drie schijven in een enkel weekend uitvallen is niet zo heel erg groot.
Core i5-3570K/ASRock Z75 Pro3/Gigabyte Radeon HD7850/Corsair XMS3 2x4GB/OCZ Vertex2 64GB/3x640GB WD Black/24" B2403WS Iiyama x2/Nec 7200S
Dat is waar, maar hij heeft wel 20+ sata aansluitingen, dus naarmate hij gaat groeien kan dat een punt zijn. Misschien.kalizec schreef op zaterdag 20 juni 2009 @ 14:19:
Tuurlijk kun je dat overwegen, maar je respons was op Klaasbram en ik zie niet in waarom je zou vinden dat hij een betere CPU nodig heeft voor de 10 schijven die hij toch niet gaat gebruiken (thans niet in zijn bootschappenlijst staan).
Ach, zo serieus is het ook niet. Het is voor mij puur speelgoed. De een gooit een turbo in zijn auto, de ander speelt wat met computer hardware.Ook denk ik dat rebuild-tijden niet zo belangrijk zijn met RAID6. De kans dat er drie schijven in een enkel weekend uitvallen is niet zo heel erg groot.
Na groeien inderdaad kan het inderdaad wenselijk worden, maar dan prik je tegen die tijd gewoon een 45watt Phenom II quadcore er op en is het allemaal weer prima.Q schreef op zaterdag 20 juni 2009 @ 14:34:
Dat is waar, maar hij heeft wel 20+ sata aansluitingen, dus naarmate hij gaat groeien kan dat een punt zijn. Misschien.
Helemaal mee eens.Ach, zo serieus is het ook niet. Het is voor mij puur speelgoed. De een gooit een turbo in zijn auto, de ander speelt wat met computer hardware.
Core i5-3570K/ASRock Z75 Pro3/Gigabyte Radeon HD7850/Corsair XMS3 2x4GB/OCZ Vertex2 64GB/3x640GB WD Black/24" B2403WS Iiyama x2/Nec 7200S
Nou voor mij hoeft 1 groot volume niet maar ik wil puur gewoon RAID 5 gaan draaien met volumes van bv 4TB.
Of wanneer de schijven groter worden volumes van +/ - 8TB. De reden dat ik niet gelijk voor heel groot volume gaat is juist die rebuild tijd.
Ik werk voor namelijk met files die groter zijn dat 1GB op lopend tot 16GB dus als het dan niet op het ene volume past dan gooi ik het wel op de andere want als je maar 20GB vrij heb op een 4TB volume dan is het zoviezo nodig om op zoek te gaan naar iets groters.
Daarnaast is het mobo uit de lijst ook niet definitief omdat ik eerst even na moet kijken hoelang het AM sockets ondersteund blijft worden. IVM met toekomstige cpu upgrade. Maar als ik juist nu op de mobo/ cpu combi 100 euro kan besparen (AM2 vs AM3) dan upgrade ik liever op een later moment.
PS ben al wel bezig met meterkast aan het verbouwen want een kast past er niet in
en ik zie het niet direct voor me om het geheel in de schuur te zetten. (zit in appartement maar kan wel utp krijgen in de schuur)
Of wanneer de schijven groter worden volumes van +/ - 8TB. De reden dat ik niet gelijk voor heel groot volume gaat is juist die rebuild tijd.
Ik werk voor namelijk met files die groter zijn dat 1GB op lopend tot 16GB dus als het dan niet op het ene volume past dan gooi ik het wel op de andere want als je maar 20GB vrij heb op een 4TB volume dan is het zoviezo nodig om op zoek te gaan naar iets groters.
Daarnaast is het mobo uit de lijst ook niet definitief omdat ik eerst even na moet kijken hoelang het AM sockets ondersteund blijft worden. IVM met toekomstige cpu upgrade. Maar als ik juist nu op de mobo/ cpu combi 100 euro kan besparen (AM2 vs AM3) dan upgrade ik liever op een later moment.
PS ben al wel bezig met meterkast aan het verbouwen want een kast past er niet in
[ Voor 11% gewijzigd door The-Source op 20-06-2009 15:36 ]
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Ik weet niet wat voor OS je gebruikt maar met LVM kun je desnoods meerdere arrays transparan aan elkaar knopen tot 1 groot array zodat je transparant kunt groeien op basis van behoefte. Kost alleen wat performance, voor zover dat uitmaakt.
[ Voor 12% gewijzigd door Q op 20-06-2009 17:15 ]
Nou los van het verplaatsen van files via het netwerk zal ik normaal maar 15MB/s nodig hebben op het moment dat ik Full HD film aan het streamen ben. En als de array 100MB/s haalt bij file transfer via Gbit netwerk dan vind ik dat ook ok.
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Een Full HD stream heeft toch geen 15MB per seconden nodig? Misschien 15Mbit, dus max 2MB per seconden. Mijn config doet max 80MB per seconden (zonder Raid). Wel handig bij het overzetten van gegevens. Vandaag of morgen krijg ik de Dell PERC 5/i binnen. Misschien moet ga ik nog twee 1TB disken erbij halen, zodat ik mijn data makkelijker naar de nieuwe RAID 5 config kan overzetten.

Ga trouwens toch een Gbit verbinding aanleggen richting mijn Mac Mini. De WiFi verbinding (G en N) werkt prima, maar is te instabiel zodra andere apparaten de verbinding ook gaan gebruiken (laptop, iPhone, etc). Krijg je vervelende hickups in de video stream.

Ga trouwens toch een Gbit verbinding aanleggen richting mijn Mac Mini. De WiFi verbinding (G en N) werkt prima, maar is te instabiel zodra andere apparaten de verbinding ook gaan gebruiken (laptop, iPhone, etc). Krijg je vervelende hickups in de video stream.
... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...
Full HD streams kunnen volgens mij zelfs oplopen tot 30Mbit + wat overhead 10% zit je toch al snel op 4MB / s en dan wat ruimer aanhouden
vind ik 15MB/s toch wel minimaal, kan natuurlijk later nog wel een 2e streamer bij komen
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Ik heb nu een nas draaien met de volgende specs:
Freenas 7.x, laatste versie op een usb stick
4x 500GB in Raid 5 geom_raid
Nu komt er binnen kort een cf > ide adapter en een 2GB kaartje.
Daar wil ik dan Freenas op installeren inplaats van de usb stick.
Nu heb ik op de usb stick geen swap partitie dit is ook niet handig op die cf of wel?
Ik haal nu 23MB/sec en misschien wel ik nog wel even Ubuntu proberen welke partities mag/kan ik dan op de cf kaart kwijt?
Freenas 7.x, laatste versie op een usb stick
4x 500GB in Raid 5 geom_raid
Nu komt er binnen kort een cf > ide adapter en een 2GB kaartje.
Daar wil ik dan Freenas op installeren inplaats van de usb stick.
Nu heb ik op de usb stick geen swap partitie dit is ook niet handig op die cf of wel?
Ik haal nu 23MB/sec en misschien wel ik nog wel even Ubuntu proberen welke partities mag/kan ik dan op de cf kaart kwijt?
Volgens mij is het sowieso raadzaam om geen swap partitie te installeren op flash geheugen, omdat dit soort geheugen maar een bepaald aantal write cycles aan kan. Beter is om de swap partitie uit te zetten, net zoals op je usb stick. Zolang je maar genoeg geheugen hebt, levert dit geen problemen op.DJ-Promo schreef op woensdag 24 juni 2009 @ 09:58:
Ik heb nu een nas draaien met de volgende specs:
Freenas 7.x, laatste versie op een usb stick
4x 500GB in Raid 5 geom_raid
Nu komt er binnen kort een cf > ide adapter en een 2GB kaartje.
Daar wil ik dan Freenas op installeren inplaats van de usb stick.
Nu heb ik op de usb stick geen swap partitie dit is ook niet handig op die cf of wel?
Ik haal nu 23MB/sec en misschien wel ik nog wel even Ubuntu proberen welke partities mag/kan ik dan op de cf kaart kwijt?
Ok dit was ook mij gedachte.
Dan installeer ik hem het zelfde als ik nu heb.
Volgens mij maakt Freenas ook allemaal logs is het handig om deze op me raid5 te zetten?
Gisteren heb ik 10GB met files rond de 500MB gekopieerd en toen was me geheugen 50% vol ( heb 1GB reep erin zitten ).
Dan installeer ik hem het zelfde als ik nu heb.
Volgens mij maakt Freenas ook allemaal logs is het handig om deze op me raid5 te zetten?
Gisteren heb ik 10GB met files rond de 500MB gekopieerd en toen was me geheugen 50% vol ( heb 1GB reep erin zitten ).
Het lijkt me niet raadzaam om je logs op je storage array te zetten. De logs zijn leuk maar niet onmisbaar en van levensbelang en die hoef je dus ook niet noodzakelijk redundant op te slaan. Bovendien is het natuurlijk zuinig om je array zo min mogelijk te laten draaien, en logs schrijven vaak waardoor je array altijd opgespind blijft. Als je een losse hd ernaast hebt hangen, kan je daar naar toe schrijven (bv een zuinig laptopschijf) maar dan kan je natuurlijk net zo goed je hele OS op die schijf zetten. Daarom hebben ze bedacht dat je kan loggen naar het geheugen en dat eens in de zoveel tijd die logs op schijf worden gezet. Nadeel is dan dat als je server crashed, je niet kan zien waar het aan lag (want geheugen niet geschreven).
Ok dat met die logs kijk ik nog even na.
Nu hopen dat me cf kaart snel binnen komt dan installeer ik hem daarop.
Als hij dan weer draait zal ik wat pics en testen posten.
Nu hopen dat me cf kaart snel binnen komt dan installeer ik hem daarop.
Als hij dan weer draait zal ik wat pics en testen posten.
Je kan de interessante logjes ook symlinken naar de storage array. De rest van de logs periodiek kopiëren dmv een cronscriptje.
Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done
Het is ook wel handig om de boel met de optie noatime te mounten. Anders gaat ie van alle bestanden de accestime steeds updaten.
Ik had zelf een scriptje gemaakt dat /var/log e.d. naar een ramdisk in tmpfs kopieerde. Bij een reboot/shutdown werd het dan weer van ramdisk naar een /var/persistent_log gecopieerd op mn usbstick.
Ik had zelf een scriptje gemaakt dat /var/log e.d. naar een ramdisk in tmpfs kopieerde. Bij een reboot/shutdown werd het dan weer van ramdisk naar een /var/persistent_log gecopieerd op mn usbstick.
I rather have a bottle in front of me, then a frontal lobotomie
Dit is inderdaad een goed idee, in een Debian (gebaseerde) distro kan dit met de package flashybrid.Shuriken schreef op donderdag 25 juni 2009 @ 17:37:
Ik had zelf een scriptje gemaakt dat /var/log e.d. naar een ramdisk in tmpfs kopieerde. Bij een reboot/shutdown werd het dan weer van ramdisk naar een /var/persistent_log gecopieerd op mn usbstick.
This can no longer be ignored.

10x1TB in een norco rpc-4020 behuizing en Highpoint 2340. Debian Lenny doet het helaas (nog) niet. Kernel shit.
[ Voor 17% gewijzigd door Q op 26-06-2009 00:42 ]
Ik zit eigenlijk met een zelfde probleem. RAIDcore heeft leuke controllers, bij Webconnexxion staan er nog een paar. Probleem is inderdaad de lange termijn want Ciprico (fabrikant van die RAIDcore dingen) is sinds halverwege 2008 FAILLIET. Daar kwam ik van de week dus achter toen ik wat meer info aan het zoeken wasQ schreef op dinsdag 16 juni 2009 @ 23:32:
[...]
Op dit moment zit ik eigenlijk met name met de sata controller(s) in mijn maag. Die raidcore dingen zijn wel lekker goedkoop maar ik heb angst voor lange termijn driver support. De website is nu bijiv uit de lucht.
Ik kan een 16 poort highpoint doen voor 400 euro, maar dat is wel veel geld voor het gebruik als domme sata controller.
Ik heb momenteel een simpele server in de kelder staan (lekker koel en stabiele temp) maar ik wil deze uitbreiden. De huidige kast kan niet meer schijven aan, tis maar een klein ding en de brackets die ik heb zijn niet de moeite. Ik heb dus een CM 590 met 2 extra drive racks besteld in combinatie met een 520W CM Real Power 80Plus Modulaire voeding. Daarin komt mijn P4 2.8ghz (ja ja, niet de meeste energiezuinige maar een nieuwe heb ik pas na 2 jaar of wat terug verdiend dus de prio ligt wat lager). Ik heb daarbij 4x500Gb in Raid5 en nog wat losse schijven. Dit alles geinstalleerd op Windows 2003 Server. Ook niet het snelste maar daar ben ik wel het meest mee bekend. Daarbij komt nog dat ik even geen andere ruimte heb om die 1.5TB aan data die er al op staat op een andere disk te zetten zodat ik het kan hergebruiken in een ander OS
Voornaamste is dus eigenlijk, wat is het risico van het nemen van 2 (of 3) van die RAIDcore PCI-E x4 kaarten?? Wellicht dat de eigenaar van WebConnexxion wat meer weet, en ook watvoor kabels meegeleverd worden. Zo te zien heeft de 8 poorts variant alleen maar 2 multilane connectors namelijk.
Ook ik zit met dat probleem inderdaad. Ik heb contact opgenomen met de eigenaar van webconnexxion, en van hem begreep ik dat het uitstekende kaartjes zijn. Alleen support heb je niet, en als één kaart kapot gaat, ben je de klos. Voor softraid zijn deze raidcore kaarten dan weer uitermate geschikt, omdat het bij softraid niet uitmaakt welke disk controller er gebruikt wordt. Als er eentje stuk gaat, kun je er rustig een van een ander merk in stoppen.redfoxert schreef op vrijdag 26 juni 2009 @ 09:28:
[...]
Ik zit eigenlijk met een zelfde probleem. RAIDcore heeft leuke controllers, bij Webconnexxion staan er nog een paar. Probleem is inderdaad de lange termijn want Ciprico (fabrikant van die RAIDcore dingen) is sinds halverwege 2008 FAILLIET. Daar kwam ik van de week dus achter toen ik wat meer info aan het zoeken was
Ik heb momenteel een simpele server in de kelder staan (lekker koel en stabiele temp) maar ik wil deze uitbreiden. De huidige kast kan niet meer schijven aan, tis maar een klein ding en de brackets die ik heb zijn niet de moeite. Ik heb dus een CM 590 met 2 extra drive racks besteld in combinatie met een 520W CM Real Power 80Plus Modulaire voeding. Daarin komt mijn P4 2.8ghz (ja ja, niet de meeste energiezuinige maar een nieuwe heb ik pas na 2 jaar of wat terug verdiend dus de prio ligt wat lager). Ik heb daarbij 4x500Gb in Raid5 en nog wat losse schijven. Dit alles geinstalleerd op Windows 2003 Server. Ook niet het snelste maar daar ben ik wel het meest mee bekend. Daarbij komt nog dat ik even geen andere ruimte heb om die 1.5TB aan data die er al op staat op een andere disk te zetten zodat ik het kan hergebruiken in een ander OS
Voornaamste is dus eigenlijk, wat is het risico van het nemen van 2 (of 3) van die RAIDcore PCI-E x4 kaarten?? Wellicht dat de eigenaar van WebConnexxion wat meer weet, en ook watvoor kabels meegeleverd worden. Zo te zien heeft de 8 poorts variant alleen maar 2 multilane connectors namelijk.
Bovendien ondersteunen de raidcore kaarten gewoon unix (linux, freebsd etc), dus wat drivers betreft *zou* dat geen probleem moeten zijn. De drivers kun je downloaden van een website die de drivers in bewaring heeft genomen (even googlen), of van the pirate bay.
Verder zaten er geloof ik gewoon 2 multilane connectors -> 8 sata connectors bij in, plus cd en alles.
Ah kijk ... interessant 
Wellicht is het dan misschien nog wel de moeite om 2 kaarten te gebruiken en 1 op de plank te leggen voor het geval er eentje omvalt.
Aan de andere kant is het ook nog niet eens zo heel erg als je geen vervanging hebt, aangezien je met een softraid toch alle besturing aan het OS over laat. Dan heb je hooguit 2 controllers nodig met 4 poorten om het op te vangen.
Het voornaamste voordeel is alleen het aantal poorten dat supported is op 1 uitbreidingsslot voor zo min mogelijk geld.
Zijn er nog andere cheapo, maar goede, meer-dan-4 poorts per slot SAS/SATA controllers op de markt ?
Edit: Ik bekijk nu trouwens de ebay aanbieding van die Adaptec controller ... dat zijn ook 16 poorten voor hetzelfde geld. Alleen zit je dan met een 64bit PCI-X controller waar je weer een duur moederbord voor nodig hebt als je de volle snelheid wilt halen. Werkt schijnbaar wel in een 32bit/33Mhz PCI slot.
Wellicht is het dan misschien nog wel de moeite om 2 kaarten te gebruiken en 1 op de plank te leggen voor het geval er eentje omvalt.
Aan de andere kant is het ook nog niet eens zo heel erg als je geen vervanging hebt, aangezien je met een softraid toch alle besturing aan het OS over laat. Dan heb je hooguit 2 controllers nodig met 4 poorten om het op te vangen.
Het voornaamste voordeel is alleen het aantal poorten dat supported is op 1 uitbreidingsslot voor zo min mogelijk geld.
Zijn er nog andere cheapo, maar goede, meer-dan-4 poorts per slot SAS/SATA controllers op de markt ?
Edit: Ik bekijk nu trouwens de ebay aanbieding van die Adaptec controller ... dat zijn ook 16 poorten voor hetzelfde geld. Alleen zit je dan met een 64bit PCI-X controller waar je weer een duur moederbord voor nodig hebt als je de volle snelheid wilt halen. Werkt schijnbaar wel in een 32bit/33Mhz PCI slot.
[ Voor 28% gewijzigd door redfoxert op 26-06-2009 10:20 ]
De adaptec 26210A nog wat? Vergeet niet dat dat een hele trage kaart is, relatief gezien. Zelfs in een PCI-X slot haalt deze kaart in theorie maar net 500MB/s. Dit vanwege het feit dat de kaart op 66mhz draait, begreep ik. Stop je hem in een gewoon PCI slot, dan haal je sowieso niet meer dan 133MB/s. Dat is in schril contrast tot the raidcore kaarten, die met softraid de maximale doorvoer van een PCIe x4 slot zouden kunnen halen (1GB/s).Edit: Ik bekijk nu trouwens de ebay aanbieding van die Adaptec controller ... dat zijn ook 16 poorten voor hetzelfde geld. Alleen zit je dan met een 64bit PCI-X controller waar je weer een duur moederbord voor nodig hebt als je de volle snelheid wilt halen. Werkt schijnbaar wel in een 32bit/33Mhz PCI slot.
Als je de doorvoer niet uitmaakt, dan is dat wat mij betreft een koopje. Ondersteuning onder debian is out-of-the-box, met de aacraid drivers die in ieder geval bij de recente varianten van ubuntu standaard meegeleverd worden.
Edit: zelf heb ik gekozen voor 2x een supermicro AOC-SAT2-MV8. Dit is een ordinare fakeraid kaart voor PCI-X. Ik wilde ze gaan gebruiken icm. mdadm softraid, en dan zou dat een ideale oplossing moeten zijn. Heeft me €160 incl verzendkosten gekost, momenteel liggen ze bij de douane.
Wat betreft PCI-X moederborden: als je goed zoekt vind je vast wel een goedkoop moederbord dat PCI-X ondersteund. Voor socket 939 is er bijvoorbeeld de Asus K8N-LR, die op ebay voor niet al te veel geld te verkrijgen valt.
[ Voor 20% gewijzigd door Rian op 26-06-2009 10:32 . Reden: el-cheapo disk controllers ]
Als redelijke noob als het gaat om Raid en zelfbouwen gaat heb ik graag een beetje hulp bij mijn overwegingen.
Ik heb een Linkstation Buffalo NAS met een enkele schijf die sinds een paar weken de geest heeft gegeven. Aangezien juist nu dochterlief een mapje met foto's heeft weggegooid die normaal gesproken naar de NAS geschreven zou zijn, ben ik mij nu weer aan het orienteren op een NAS-apparaat om een kopietje van m'n foto's naar te sturen. Daarbij wil ik de bestanden graag op 2 schijven hebben zodat als er eentje uitvalt ik toch nog een kopietje heb.
Voor het geval van brand/diefstal e.d. heb ik oude laptop schijven met mijn foto's die ik op een fysiek andere plek bewaar. Zo houd ik het meeste wel mocht er iets dergelijks gebeuren. VErder ook het e.e.a. op webstorage.
Nu heb ik een aantal opties en een beperkt budget (ongeveer 300e):
1) Een oude laptop, PIII 700Mhz Dell Latitude C600 inrichten als NAS met een aantal (2) USB schijven
Hiervoor moet ik externe schijfjes kopen, 2,5" ivm stroomverbruik, een 10/100 LAN-kaartje (minipci) en een USB2.0 PCMCIA-kaartje om de schijven aan te hangen´(zit enkel usb 1.0 op).
Tenminste, dat is het systeempje zoals ik het bedacht had. De schijven dan in RAID1 met software en gaan. Of eventueel een backup-progje die naar beide schijven schrijft.
Kosten: zonder schijven 35e, met goedkope externe 2,5" ongeveer 190e
Mogelijke nadelen: misschien niet genoeg stroom voor een 500 GB schijf op de USB-poort, geen Gigabit, moet ik vroeg of laat alsnog vervangen, maar de schijven kan ik natuurlijk gewoon meenemen. Wellicht stroomverbruik relatief hoog?
2) Een kant- en klare oplossing in de vorm van bijvoorbeeld de Conceptronic CH3SNAS (Raid 1)
Doet alles wat ik nodig heb en meer. Heeft Gigabit LAN, kan meer dan alleen als backup functioneren.
Kosten: zonder schijven 150e, met 2x WD Caviar Green 500Gb ongeveer 260e Eventueel kan ik een schijf die ik al heb gebruiken dan worden de kosten lager.
Optie 1) is het leukste en dan doe ik nog wat met m'n oude hardware, maar werkt dat USB-schijven systeempje? Of kan ik die laptop op een andere manier gebruiken als fileserver/backup?
Ik heb een Linkstation Buffalo NAS met een enkele schijf die sinds een paar weken de geest heeft gegeven. Aangezien juist nu dochterlief een mapje met foto's heeft weggegooid die normaal gesproken naar de NAS geschreven zou zijn, ben ik mij nu weer aan het orienteren op een NAS-apparaat om een kopietje van m'n foto's naar te sturen. Daarbij wil ik de bestanden graag op 2 schijven hebben zodat als er eentje uitvalt ik toch nog een kopietje heb.
Voor het geval van brand/diefstal e.d. heb ik oude laptop schijven met mijn foto's die ik op een fysiek andere plek bewaar. Zo houd ik het meeste wel mocht er iets dergelijks gebeuren. VErder ook het e.e.a. op webstorage.
Nu heb ik een aantal opties en een beperkt budget (ongeveer 300e):
1) Een oude laptop, PIII 700Mhz Dell Latitude C600 inrichten als NAS met een aantal (2) USB schijven
Hiervoor moet ik externe schijfjes kopen, 2,5" ivm stroomverbruik, een 10/100 LAN-kaartje (minipci) en een USB2.0 PCMCIA-kaartje om de schijven aan te hangen´(zit enkel usb 1.0 op).
Tenminste, dat is het systeempje zoals ik het bedacht had. De schijven dan in RAID1 met software en gaan. Of eventueel een backup-progje die naar beide schijven schrijft.
Kosten: zonder schijven 35e, met goedkope externe 2,5" ongeveer 190e
Mogelijke nadelen: misschien niet genoeg stroom voor een 500 GB schijf op de USB-poort, geen Gigabit, moet ik vroeg of laat alsnog vervangen, maar de schijven kan ik natuurlijk gewoon meenemen. Wellicht stroomverbruik relatief hoog?
2) Een kant- en klare oplossing in de vorm van bijvoorbeeld de Conceptronic CH3SNAS (Raid 1)
Doet alles wat ik nodig heb en meer. Heeft Gigabit LAN, kan meer dan alleen als backup functioneren.
Kosten: zonder schijven 150e, met 2x WD Caviar Green 500Gb ongeveer 260e Eventueel kan ik een schijf die ik al heb gebruiken dan worden de kosten lager.
Optie 1) is het leukste en dan doe ik nog wat met m'n oude hardware, maar werkt dat USB-schijven systeempje? Of kan ik die laptop op een andere manier gebruiken als fileserver/backup?
Ik ben van plan een RAID 5 setup te gaan maken om te zorgen dat ik niet na een dooie schijf alle data kwijt ben (momenteel een 1TB LVM setup over 4 schijven waarvan de oudste een IBM Deathstar met 60k uur power-on op de teller).
Wat er nu draait is een AMD Duron 700 op een A7V-133 met PATA schijven. Ik wil deze vervangen door 3x 1.5 TB Samsung F2.
2 opties:
Vragen:
Wat er nu draait is een AMD Duron 700 op een A7V-133 met PATA schijven. Ik wil deze vervangen door 3x 1.5 TB Samsung F2.
2 opties:
- Huidige mobo houden
- 2x SATA controller a 2 poorten
- Mobo vervangen door een intel Atom bordje
- 1x SATA controller erbij. Atom bordjes met 4x SATA heb ik nog niet kunnen vinden, als iemand er eentje weet te vinden, graag...
Vragen:
- Gaat mijn Duron 700 snel genoeg zijn hiervoor (het is puur storage, echt heel veel performance heb ik niet nodig, hangt ook maar 100Mbit aan, maar het moet natuurlijk niet onwerkbaar traag worden)
- Zo nee: gaat zo'n atom boardje het trekken ?
- Weet iemand een goed alternatief ? Stil en low-power is een bonus, maar niet noodzakelijk.
Those who do not understand Unix are condemned to reinvent it, poorly.
Werkt. Alles werkt.Q schreef op vrijdag 26 juni 2009 @ 00:42:
[afbeelding]
10x1TB in een norco rpc-4020 behuizing en Highpoint 2340. Debian Lenny doet het helaas (nog) niet. Kernel shit.
Nou komt het. Stop 10 disks in een software RAID 0.
code:
1
2
3
4
| debian:~# dd if=/dev/md0 of=/dev/null bs=1M count=50000 50000+0 records in 50000+0 records out 52428800000 bytes (52 GB) copied, 50.9222 s, 1.0 GB/s |
[ Voor 6% gewijzigd door Q op 27-06-2009 02:07 ]
Het risico is dat de huidige Linux drivers die bij de kaart worden meegeleverd in de toekomst niet meer compatibel zijn met de nieuwere Linux kernels. Dan kun je die kaartjes weggooien. Hoe groot dat risico is weet ik niet maar ik wil het niet lopen en ben dus voor een supported kaart gegaan.redfoxert schreef op vrijdag 26 juni 2009 @ 09:28:
[...]
Voornaamste is dus eigenlijk, wat is het risico van het nemen van 2 (of 3) van die RAIDcore PCI-E x4 kaarten?? Wellicht dat de eigenaar van WebConnexxion wat meer weet, en ook watvoor kabels meegeleverd worden. Zo te zien heeft de 8 poorts variant alleen maar 2 multilane connectors namelijk.
Mijn ervaring is dat 1 poort niet genoeg is. Dus dan moet je een kabel gebruiken die van 2 poorten stroom trekt. Dat wordt denk ik een probleem op je notebook. Want dan heb je 4 poorten nodig.MAher schreef op vrijdag 26 juni 2009 @ 13:35:
Als redelijke noob als het gaat om Raid en zelfbouwen gaat heb ik graag een beetje hulp bij mijn overwegingen.
Ik heb een Linkstation Buffalo NAS met een enkele schijf die sinds een paar weken de geest heeft gegeven. Aangezien juist nu dochterlief een mapje met foto's heeft weggegooid die normaal gesproken naar de NAS geschreven zou zijn, ben ik mij nu weer aan het orienteren op een NAS-apparaat om een kopietje van m'n foto's naar te sturen. Daarbij wil ik de bestanden graag op 2 schijven hebben zodat als er eentje uitvalt ik toch nog een kopietje heb.
Voor het geval van brand/diefstal e.d. heb ik oude laptop schijven met mijn foto's die ik op een fysiek andere plek bewaar. Zo houd ik het meeste wel mocht er iets dergelijks gebeuren. VErder ook het e.e.a. op webstorage.
Nu heb ik een aantal opties en een beperkt budget (ongeveer 300e):
1) Een oude laptop, PIII 700Mhz Dell Latitude C600 inrichten als NAS met een aantal (2) USB schijven
Hiervoor moet ik externe schijfjes kopen, 2,5" ivm stroomverbruik, een 10/100 LAN-kaartje (minipci) en een USB2.0 PCMCIA-kaartje om de schijven aan te hangen´(zit enkel usb 1.0 op).
Tenminste, dat is het systeempje zoals ik het bedacht had. De schijven dan in RAID1 met software en gaan. Of eventueel een backup-progje die naar beide schijven schrijft.
Kosten: zonder schijven 35e, met goedkope externe 2,5" ongeveer 190e
Mogelijke nadelen: misschien niet genoeg stroom voor een 500 GB schijf op de USB-poort, geen Gigabit, moet ik vroeg of laat alsnog vervangen, maar de schijven kan ik natuurlijk gewoon meenemen. Wellicht stroomverbruik relatief hoog?
2) Een kant- en klare oplossing in de vorm van bijvoorbeeld de Conceptronic CH3SNAS (Raid 1)
Doet alles wat ik nodig heb en meer. Heeft Gigabit LAN, kan meer dan alleen als backup functioneren.
Kosten: zonder schijven 150e, met 2x WD Caviar Green 500Gb ongeveer 260e Eventueel kan ik een schijf die ik al heb gebruiken dan worden de kosten lager.
Optie 1) is het leukste en dan doe ik nog wat met m'n oude hardware, maar werkt dat USB-schijven systeempje? Of kan ik die laptop op een andere manier gebruiken als fileserver/backup?
Optie 2 lijkt mij persoonlijk een mooiere oplossing.
I rather have a bottle in front of me, then a frontal lobotomie
Verwijderd
Wat zou een goede DIY (Do It Your Self) NAS opstelling zijn:
Voor mij zijn de voorwaarden:
Energie zuinig systeem:
5 SATA drives van elk 1T of 1,5T
Software RAID 5
Processor AMD Sempron LE-1250
Een kleine SATA drive voor het OS, eventueel een Compact Flash (CF) oid.
Moederbord: Nu zoek ik nog een moederbord met 6 SATA poorten.
Ergens in dit forum zag ik een link waar je naar moederborden kunt zoeken op SATA aansluitingen, Helaas kan ik deze link niet meer vinden...
Besturingssysteem:
In dit forum wordt er veel uitgewisseld over de verschillende besturingssystemen in combinatie met
software RAID:
geom_raid5 voor FreeBSD,
MDADM voor Linux (Debian/Ubuntu)
ZFS filesystem beschikbare "RAID-Z" (OpenSolaris en anderen?)
Is er iets te zeggen over de keuze van de verschillende besturingssystemen? Welke is het meest stabiel met een goede performance? De door mij voorgestelde NAS zal ook dienen voor het download en het uitpakken met bijv. SABnzbd. Beperkt mij dit in de keuze van het OS?
Ik wou eerst een NAS opzetten met WHS omdat ik hiermee van andere Pc's een backup kan maken, maar Windows en Software Raid is (nog) geen goede suggestie heb ik begrepen. Dus dat gaat een apart systeem worden, waarmee ik dan tevens kan experimenteren tussen de verschillende besturingssysteem.
Windows Home Server met een Highpoint rocketraid controller zou wellicht een optie zijn. Maar toch liever een energie zuinig systeem met software Raid5 als stabiel systeem voor data opslag.
Als backup voor de NAS is het mijn doel om tevens een XP/Vista systeem met Raid5 op te zetten zodat ik de data kan uitwisselen, maar dit terzijde. Hier stop ik dan toch maar een Highpoint rocketraid kaart in om data corruptie te voorkomen.
Citaat "Het grote DIY RAID NAS topic deel 2" Door Enlightenment: woensdag 13 februari 2008 08:16:
"met de Windows implementatie en veel onboard RAID5 implementaties is onopgemerkte datacorruptie mogelijk; deze implementaties schrijven namelijk niet de array status in de metadata, dus als de array weer opstart van een ernstige crash wordt de parity niet gecontroleerd. Zo blijft onopgemerkte corruptie bestaan en heb je eigenlijk al een deel van je RAID5 bescherming ingeleverd."
Samengevat:
Kunnen jullie mij helpen bij het vinden van AMD moederbord met 6 SATA poorten die goed wordt ondersteund door de verschillende besturingssystemen. Bij voorkeur ook het ZFS filesysteem. Is de keuze van de AMD Sempron LE-1250 een goede, gezien mijn doelstelling om de NAS ook voor downloaden te gebruiken met bijv. SABnzbd?
Zijn er nog andere belangrijke vragen die ik mijzelf had moeten stellen alvorens ik mijn keuze kan maken?
Voor mij zijn de voorwaarden:
Energie zuinig systeem:
5 SATA drives van elk 1T of 1,5T
Software RAID 5
Processor AMD Sempron LE-1250
Een kleine SATA drive voor het OS, eventueel een Compact Flash (CF) oid.
Moederbord: Nu zoek ik nog een moederbord met 6 SATA poorten.
Ergens in dit forum zag ik een link waar je naar moederborden kunt zoeken op SATA aansluitingen, Helaas kan ik deze link niet meer vinden...
Besturingssysteem:
In dit forum wordt er veel uitgewisseld over de verschillende besturingssystemen in combinatie met
software RAID:
geom_raid5 voor FreeBSD,
MDADM voor Linux (Debian/Ubuntu)
ZFS filesystem beschikbare "RAID-Z" (OpenSolaris en anderen?)
Is er iets te zeggen over de keuze van de verschillende besturingssystemen? Welke is het meest stabiel met een goede performance? De door mij voorgestelde NAS zal ook dienen voor het download en het uitpakken met bijv. SABnzbd. Beperkt mij dit in de keuze van het OS?
Ik wou eerst een NAS opzetten met WHS omdat ik hiermee van andere Pc's een backup kan maken, maar Windows en Software Raid is (nog) geen goede suggestie heb ik begrepen. Dus dat gaat een apart systeem worden, waarmee ik dan tevens kan experimenteren tussen de verschillende besturingssysteem.
Windows Home Server met een Highpoint rocketraid controller zou wellicht een optie zijn. Maar toch liever een energie zuinig systeem met software Raid5 als stabiel systeem voor data opslag.
Als backup voor de NAS is het mijn doel om tevens een XP/Vista systeem met Raid5 op te zetten zodat ik de data kan uitwisselen, maar dit terzijde. Hier stop ik dan toch maar een Highpoint rocketraid kaart in om data corruptie te voorkomen.
Citaat "Het grote DIY RAID NAS topic deel 2" Door Enlightenment: woensdag 13 februari 2008 08:16:
"met de Windows implementatie en veel onboard RAID5 implementaties is onopgemerkte datacorruptie mogelijk; deze implementaties schrijven namelijk niet de array status in de metadata, dus als de array weer opstart van een ernstige crash wordt de parity niet gecontroleerd. Zo blijft onopgemerkte corruptie bestaan en heb je eigenlijk al een deel van je RAID5 bescherming ingeleverd."
Samengevat:
Kunnen jullie mij helpen bij het vinden van AMD moederbord met 6 SATA poorten die goed wordt ondersteund door de verschillende besturingssystemen. Bij voorkeur ook het ZFS filesysteem. Is de keuze van de AMD Sempron LE-1250 een goede, gezien mijn doelstelling om de NAS ook voor downloaden te gebruiken met bijv. SABnzbd?
Zijn er nog andere belangrijke vragen die ik mijzelf had moeten stellen alvorens ik mijn keuze kan maken?
Ik heb zelf de AMD 5050e genomen omdat deze ook een TDP heeft van 45watt maar wel een dual core is voor AM2 socket. Zeker met softraid is het fijn om te weten dat je altijd een core overhebt voor andere taken. Ook al neem pariteit berekeningen geen full load op 1 core.
edit: me Raidcore 2340 ligt bij de NL douane dus nog ff wachten.. Gisteren ook ff 4x 1TB besteld dus die komt ook rond dinsdag aan
Vanmiddag ff me OS installeren zodat ik Ready2Go ben.
Ik ga zelf voor een Windows Home Server installatie omdat ik dan ook Ghost Server kan installeren om zo ook eens een goede backup van me htpc kan maken. Via het netwerk.
edit: me Raidcore 2340 ligt bij de NL douane dus nog ff wachten.. Gisteren ook ff 4x 1TB besteld dus die komt ook rond dinsdag aan
Ik ga zelf voor een Windows Home Server installatie omdat ik dan ook Ghost Server kan installeren om zo ook eens een goede backup van me htpc kan maken. Via het netwerk.
[ Voor 41% gewijzigd door The-Source op 27-06-2009 11:27 ]
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Optie 1 is niet te doen. RAID 1 over USB 2.0 geeft je in de praktijk 10 MB/s en met zulke grote disks mag je dan veel geduld hebben. Een USB hub kan ook vereist zijn.Shuriken schreef op zaterdag 27 juni 2009 @ 08:58:
[...]
Mijn ervaring is dat 1 poort niet genoeg is. Dus dan moet je een kabel gebruiken die van 2 poorten stroom trekt. Dat wordt denk ik een probleem op je notebook. Want dan heb je 4 poorten nodig.
Optie 2 lijkt mij persoonlijk een mooiere oplossing.
Dit is raadzaam. Ik voel wel de behoefte om eens een atom bordje te kopen om te kijken hoe dat nu presteerd...klaasbram schreef op zaterdag 27 juni 2009 @ 11:24:
Ik heb zelf de AMD 5050e genomen omdat deze ook een TDP heeft van 45watt maar wel een dual core is voor AM2 socket. Zeker met softraid is het fijn om te weten dat je altijd een core overhebt voor andere taken. Ook al neem pariteit berekeningen geen full load op 1 core.
Top kaartje. Het wordt wel een flinke bos kabels in je kast, of je moet de andere 3 nog niet aansluiten.edit: me Raidcore 2340 ligt bij de NL douane dus nog ff wachten.. Gisteren ook ff 4x 1TB besteld dus die komt ook rond dinsdag aanVanmiddag ff me OS installeren zodat ik Ready2Go ben.
Ik ga zelf voor een Windows Home Server installatie omdat ik dan ook Ghost Server kan installeren om zo ook eens een goede backup van me htpc kan maken. Via het netwerk.
[ Voor 5% gewijzigd door Q op 27-06-2009 13:56 ]
Voor wat jij wilt is Linux denk ik het gemakkelijkste. Stabiel, alle software is met 1 druk op de knop voor handen en voor jouw wensen biedt ZFS geen meerwaarde tegen Linux software RAID.Verwijderd schreef op zaterdag 27 juni 2009 @ 09:21:
Wat zou een goede DIY (Do It Your Self) NAS opstelling zijn:
Voor mij zijn de voorwaarden:
Energie zuinig systeem:
5 SATA drives van elk 1T of 1,5T
Software RAID 5
Processor AMD Sempron LE-1250
Een kleine SATA drive voor het OS, eventueel een Compact Flash (CF) oid.
Moederbord: Nu zoek ik nog een moederbord met 6 SATA poorten.
Ergens in dit forum zag ik een link waar je naar moederborden kunt zoeken op SATA aansluitingen, Helaas kan ik deze link niet meer vinden...
Besturingssysteem:
In dit forum wordt er veel uitgewisseld over de verschillende besturingssystemen in combinatie met
software RAID:
geom_raid5 voor FreeBSD,
MDADM voor Linux (Debian/Ubuntu)
ZFS filesystem beschikbare "RAID-Z" (OpenSolaris en anderen?)
Is er iets te zeggen over de keuze van de verschillende besturingssystemen? Welke is het meest stabiel met een goede performance? De door mij voorgestelde NAS zal ook dienen voor het download en het uitpakken met bijv. SABnzbd. Beperkt mij dit in de keuze van het OS?
Misschien dat de website van Alternate je kunt helpen. Ik ben bang dat het een kwestie van researchen is, dus interessante bordjes opschrijven en googelen betreffende support.Samengevat:
Kunnen jullie mij helpen bij het vinden van AMD moederbord met 6 SATA poorten die goed wordt ondersteund door de verschillende besturingssystemen. Bij voorkeur ook het ZFS filesysteem. Is de keuze van de AMD Sempron LE-1250 een goede, gezien mijn doelstelling om de NAS ook voor downloaden te gebruiken met bijv. SABnzbd?
Zijn er nog andere belangrijke vragen die ik mijzelf had moeten stellen alvorens ik mijn keuze kan maken?
Ik heb zelf redelijk nieuwe hardware aangeschaft en Debian stable kan daar nog niet goed mee overweg. Er is echter een Japanner die een speciale install cd maakt voor Debian met een nieuwere kernel + drivers. Dankzij die CD werkte mijn systeem probleemloos in 1x.
http://kmuto.jp/debian/d-i/
Of misschien dat Ubuntu server meteen werkt.
[ Voor 7% gewijzigd door Q op 27-06-2009 14:04 ]
Die 5050e is 2x 2.6GHz. Hier nog een overzicht om performance een beetje te vergelijkenQ schreef op zaterdag 27 juni 2009 @ 13:55:
[...]
Dit is raadzaam. Ik voel wel de behoefte om eens een atom bordje te kopen om te kijken hoe dat nu presteerd...
[...]
Top kaartje. Het wordt wel een flinke bos kabels in je kast, of je moet de andere 3 nog niet aansluiten.
En een mobo met 6 poorts Sata pricewatch: Gigabyte GA-MA74GM-S2H
de kast voor me NAS is de meterkast. Alles wordt in elkaar gezet uit bestaande onderdelen van een oude kast. Zoals de backplate welke met decoupeerzaag "iets" van vorm is veranderd
De voeding rust nu nog alleen maar op een plankje en hdd's komen straks wel in een 3.5" houder welke genageld zat in de oude kast
[ Voor 7% gewijzigd door The-Source op 27-06-2009 14:18 ]
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Na wat rondkijken denk ik dat de intel ss4200-ehw precies is wat ik zoek; flash diskje er in voor het OS en dan 4 sata schijfjes met linux software RAID5. De celeron 420 in dat ding zou het prima aan moeten kunnen.
Those who do not understand Unix are condemned to reinvent it, poorly.
Verwijderd
Bedankt voor de tip. Het zelfde energie verbruik als de AMD Sempron LE-1250 maar wel veel sneller.klaasbram schreef op zaterdag 27 juni 2009 @ 11:24:
Ik heb zelf de AMD 5050e genomen omdat deze ook een TDP heeft van 45watt maar wel een dual core is voor AM2 socket. Zeker met softraid is het fijn om te weten dat je altijd een core overhebt voor andere taken. Ook al neem pariteit berekeningen geen full load op 1 core.
De link naar de CPU Benchmark site was ook een hele mooie. Heb je ook een site waar je de TDP's van de CPU kunt vergelijken?
Een andere vraag is, er zijn zoveel verschillende typen CPU's weten iemand een locatie waar dat goed staat uitgebeeld en staat uitgelegd?
offtopic:
Wat is een energie zuinige CPU voor een laptop bijvoorbeeld
Wat is een energie zuinige CPU voor een laptop bijvoorbeeld
Gegevens over de Raidcore 2340 kan ik overigens niet vinden, of refereer je aan een Highpoint RocketRaid 2340edit: me Raidcore 2340 ligt bij de NL douane dus nog ff wachten.. Gisteren ook ff 4x 1TB besteld dus die komt ook rond dinsdag aanVanmiddag ff me OS installeren zodat ik Ready2Go ben.
Ik ga zelf voor een Windows Home Server installatie omdat ik dan ook Ghost Server kan installeren om zo ook eens een goede backup van me htpc kan maken. Via het netwerk.
Voor mijn bescheiden opstelling van 6 SATA schijven met RAID heb ik gevonden:
RAIDCore RC5210-08 (8x SATAII RAID0,1,10,JBOD PCI-E x4)
of de Highpoint RR2320 (8x SATA300 RAID PCI-E x4) Kit
Ik had al gelezen dat de RAIDCore wellicht binnenkort out of business zal zijn en dat de support weg zal vallen, maar het is wel een goedkoop kaartje waarmee ik wel een NAS met WHS kan uitrusten. De Highpoint is drie keer die aanschafprijs.
Als je nu voor 5 disks wilt gaan dan is een 8x kaartje overkill, zeker met de poorten op het mobo er bij. Als je voor software RAID gaat van een unix, dan zou je een mobo met 4 of 6 poorten kunnen nemen en dan nog een regulier 4xsata kaartje voor extra poorten, die kun je onder de 100 euro vinden. Misschien als je genoeg sloten hebt dat je er 2 in stopt. Ben je klaar.Verwijderd schreef op zaterdag 27 juni 2009 @ 20:38:
[...]
Bedankt voor de tip. Het zelfde energie verbruik als de AMD Sempron LE-1250 maar wel veel sneller.
De link naar de CPU Benchmark site was ook een hele mooie. Heb je ook een site waar je de TDP's van de CPU kunt vergelijken?
Een andere vraag is, er zijn zoveel verschillende typen CPU's weten iemand een locatie waar dat goed staat uitgebeeld en staat uitgelegd?
offtopic:
Wat is een energie zuinige CPU voor een laptop bijvoorbeeld
[...]
Gegevens over de Raidcore 2340 kan ik overigens niet vinden, of refereer je aan een Highpoint RocketRaid 2310![]()
Voor mijn bescheiden opstelling van 6 SATA schijven met RAID heb ik gevonden:
RAIDCore RC5210-08 (8x SATAII RAID0,1,10,JBOD PCI-E x4)
of de Highpoint RR2320 (8x SATA300 RAID PCI-E x4) Kit
Ik had al gelezen dat de RAIDCore wellicht binnenkort out of business zal zijn en dat de support weg zal vallen, maar het is wel een goedkoop kaartje waarmee ik wel een NAS met WHS kan uitrusten. De Highpoint is drie keer die aanschafprijs.
Well, dan lijkt mij dat de conclusie is dat ik m´n oude hardware niet kan gebruiken voor dit doel...jammer maar helaas.Q schreef op zaterdag 27 juni 2009 @ 13:52:
[...]
Optie 1 is niet te doen. RAID 1 over USB 2.0 geeft je in de praktijk 10 MB/s en met zulke grote disks mag je dan veel geduld hebben. Een USB hub kan ook vereist zijn.
Bedankt voor de info iig.
Wat zijn zo een beetje de gemiddelde lees en schrijf snelheden in MB/s voor een zelfbouw Raid. Dit om te kunnen vergelijken of een kant een klare raid misschien een betere optie is vanwege de support en snelheid.
Dè developers podcast in je moerstaal : CodeKlets Podcast
GEOM5 (FreeNAS en FreeBSD) heeft eigenlijk geen 'beperkingen' qua snelheid.
Zelfs binnen een Virtual Machine haalde deze op 3 WD Black 640GB schijven in Raid 5 netjes sequentiele lees en schrijfsnelheden van 200MB/s resp 180MB/s.
Goede software raid implementaties hebben eigenlijk geen beperkingen qua lees- en schrijfsnelheid. Dit omdat CPU's en RAM gewoon sneller en meer bandbreedte hebben dan de controllers op dure RAID-kaarten.
Zelfs binnen een Virtual Machine haalde deze op 3 WD Black 640GB schijven in Raid 5 netjes sequentiele lees en schrijfsnelheden van 200MB/s resp 180MB/s.
Goede software raid implementaties hebben eigenlijk geen beperkingen qua lees- en schrijfsnelheid. Dit omdat CPU's en RAM gewoon sneller en meer bandbreedte hebben dan de controllers op dure RAID-kaarten.
Core i5-3570K/ASRock Z75 Pro3/Gigabyte Radeon HD7850/Corsair XMS3 2x4GB/OCZ Vertex2 64GB/3x640GB WD Black/24" B2403WS Iiyama x2/Nec 7200S
het is de Highpoint rocketraid 2340 (16 kanaals kaart). Ik had in me 1e winkelmandje ook de door jij genoemde cpu zitten maar toen ik ff wat meer info er over wou weten ging ik ff op de AMD site kijken.Verwijderd schreef op zaterdag 27 juni 2009 @ 20:38:
[...]
Bedankt voor de tip. Het zelfde energie verbruik als de AMD Sempron LE-1250 maar wel veel sneller.
De link naar de CPU Benchmark site was ook een hele mooie. Heb je ook een site waar je de TDP's van de CPU kunt vergelijken?
Een andere vraag is, er zijn zoveel verschillende typen CPU's weten iemand een locatie waar dat goed staat uitgebeeld en staat uitgelegd?
offtopic:
Wat is een energie zuinige CPU voor een laptop bijvoorbeeld
[...]
Gegevens over de Raidcore 2340 kan ik overigens niet vinden, of refereer je aan een Highpoint RocketRaid 2340![]()
Voor mijn bescheiden opstelling van 6 SATA schijven met RAID heb ik gevonden:
RAIDCore RC5210-08 (8x SATAII RAID0,1,10,JBOD PCI-E x4)
of de Highpoint RR2320 (8x SATA300 RAID PCI-E x4) Kit
Ik had al gelezen dat de RAIDCore wellicht binnenkort out of business zal zijn en dat de support weg zal vallen, maar het is wel een goedkoop kaartje waarmee ik wel een NAS met WHS kan uitrusten. De Highpoint is drie keer die aanschafprijs.
Toen kwam deze ook in het lijstje van energie zuinig.
Kijk niet elke cpu kun op MHz en prestaties vergelijken. Zeker als je Intel en AMD gaat vergelijken.
Ik had het liefst nog de 5050e tegenover een Atom gezien maar dat kwam ik niet zo snel tegen. Maar met die lijst die ik eerder poste kwam ik boven de 5050e al geen Atom tegen
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Verwijderd
Of een e-sata kaartje gebruiken in je laptop, of je daar nu veel mee opschiet weet ik niet, maar het het bestaat in ieder gaval wel...MAher schreef op vrijdag 26 juni 2009 @ 13:35:
Als redelijke noob als het gaat om Raid en zelfbouwen gaat heb ik graag een beetje hulp bij mijn overwegingen.
Ik heb een Linkstation Buffalo NAS met een enkele schijf die sinds een paar weken de geest heeft gegeven. Aangezien juist nu dochterlief een mapje met foto's heeft weggegooid die normaal gesproken naar de NAS geschreven zou zijn, ben ik mij nu weer aan het orienteren op een NAS-apparaat om een kopietje van m'n foto's naar te sturen. Daarbij wil ik de bestanden graag op 2 schijven hebben zodat als er eentje uitvalt ik toch nog een kopietje heb.
Voor het geval van brand/diefstal e.d. heb ik oude laptop schijven met mijn foto's die ik op een fysiek andere plek bewaar. Zo houd ik het meeste wel mocht er iets dergelijks gebeuren. VErder ook het e.e.a. op webstorage.
Nu heb ik een aantal opties en een beperkt budget (ongeveer 300e):
1) Een oude laptop, PIII 700Mhz Dell Latitude C600 inrichten als NAS met een aantal (2) USB schijven
Hiervoor moet ik externe schijfjes kopen, 2,5" ivm stroomverbruik, een 10/100 LAN-kaartje (minipci) en een USB2.0 PCMCIA-kaartje om de schijven aan te hangen´(zit enkel usb 1.0 op).
Tenminste, dat is het systeempje zoals ik het bedacht had. De schijven dan in RAID1 met software en gaan. Of eventueel een backup-progje die naar beide schijven schrijft.
Kosten: zonder schijven 35e, met goedkope externe 2,5" ongeveer 190e
Mogelijke nadelen: misschien niet genoeg stroom voor een 500 GB schijf op de USB-poort, geen Gigabit, moet ik vroeg of laat alsnog vervangen, maar de schijven kan ik natuurlijk gewoon meenemen. Wellicht stroomverbruik relatief hoog?
2) Een kant- en klare oplossing in de vorm van bijvoorbeeld de Conceptronic CH3SNAS (Raid 1)
Doet alles wat ik nodig heb en meer. Heeft Gigabit LAN, kan meer dan alleen als backup functioneren.
Kosten: zonder schijven 150e, met 2x WD Caviar Green 500Gb ongeveer 260e Eventueel kan ik een schijf die ik al heb gebruiken dan worden de kosten lager.
Optie 1) is het leukste en dan doe ik nog wat met m'n oude hardware, maar werkt dat USB-schijven systeempje? Of kan ik die laptop op een andere manier gebruiken als fileserver/backup?
Over energie zuinig gesproken.
Ik heb dus een oude storage server staan op basis van AMD spul met 10 disks, specifiek gekozen zodat hij niet teveel sap gebruikt. Deze machine doet idle iets van 170/180 watt. Deze machine zet ik dus altijd uit als ik hem niet gebruik. (so much voor energie zuinig).
Nu blijkt dat mijn nieuwe systeem, op basis van die 20-bay Norco + Intel cpu, met 10 disks idle maar 145 watt doet. Opmerkelijk. Maar ik had al eerder gezien dat Intel cpu's idle veel minder verstoken dan AMD cpu, maar daar kwam ik destijds pas later achter, ik gok dat dit hier wel mee te maken heeft.
Ik heb dus een oude storage server staan op basis van AMD spul met 10 disks, specifiek gekozen zodat hij niet teveel sap gebruikt. Deze machine doet idle iets van 170/180 watt. Deze machine zet ik dus altijd uit als ik hem niet gebruik. (so much voor energie zuinig).
Nu blijkt dat mijn nieuwe systeem, op basis van die 20-bay Norco + Intel cpu, met 10 disks idle maar 145 watt doet. Opmerkelijk. Maar ik had al eerder gezien dat Intel cpu's idle veel minder verstoken dan AMD cpu, maar daar kwam ik destijds pas later achter, ik gok dat dit hier wel mee te maken heeft.
Jeeje, wouw je hem snel hebben, is dit nog wel een nasQ schreef op zaterdag 27 juni 2009 @ 01:56:
[...]
Werkt. Alles werkt.
Nou komt het. Stop 10 disks in een software RAID 0.
code:
1 2 3 4 debian:~# dd if=/dev/md0 of=/dev/null bs=1M count=50000 50000+0 records in 50000+0 records out 52428800000 bytes (52 GB) copied, 50.9222 s, 1.0 GB/s
![]()
![]()
![]()
Hij gaat gewoon bestandjes via het netwerk serveren dus het blijft een NAS. Bovendien haal ik in RAID 6 'maar' 850 MB/s lezen / 300 MB/s schrijven.DJ-Visto schreef op zondag 28 juni 2009 @ 20:46:
Jeeje, wouw je hem snel hebben, is dit nog wel een nas
Eigenlijk zou ik moeten gaan denken aan dual gigabit + teaming/bonding + een switch die dit snapt, of 10 gigabit (onbetaalbaar).
Hot swap met deze kast werkt trouwens fenomenaal. Even een disk uit een draaiende array getrokken en later weer terug gedouwd. Ging netjes rebuilden en werkte daarna weer perfect.
[ Voor 16% gewijzigd door Q op 28-06-2009 21:41 ]
Ja dat klopt, mijn server (dus niet alleen nas) draait 3x gigabit.Q schreef op zondag 28 juni 2009 @ 21:40:
[...]
Hij gaat gewoon bestandjes via het netwerk serveren dus het blijft een NAS. Bovendien haal ik in RAID 6 'maar' 850 MB/s lezen / 300 MB/s schrijven.
Eigenlijk zou ik moeten gaan denken aan dual gigabit + teaming/bonding + een switch die dit snapt, of 10 gigabit (onbetaalbaar).
Hot swap met deze kast werkt trouwens fenomenaal. Even een disk uit een draaiende array getrokken en later weer terug gedouwd. Ging netjes rebuilden en werkte daarna weer perfect.
Sorry, ik doe geen IMDJ-Visto schreef op zondag 28 juni 2009 @ 21:52:
[...]
Ja dat klopt, mijn server (dus niet alleen nas) draait 3x gigabit.Maarja, dit gaat offtopic via msn ofzo praten is denk ik beter @ add me maar
@ profiel staat hij

3 x gigabit, dat is pittig?
Zijn er mensen die nog tips hebben om het energieverbruik naar beneden te halen van een DIY ubuntu based server.
Hardware is X2 4000+ 1Ghz@1v / 4Gb DDR2 / WD 320Gb SATA / Samsung 750Gb SATA en daar zit ik nu idle aan 55W.
Ik heb in hdparm al de spindown ingesteld van de harddisks zodat hij ze gewoon in standby kan gooien wanneer ze niet gebruitk worden. Verder is het terugklokken van de CPU wel de grootste brok geweest. Het weghalen van de DVD drive heeft 3 watt (wauw
) bespaard.
Er zal naar alle waarschijnlijkheid nog wel wat bij komen gezien ik de 750Gb schijf ga vervangen door 1 (of 2) WD 1Tb greens.
Hardware is X2 4000+ 1Ghz@1v / 4Gb DDR2 / WD 320Gb SATA / Samsung 750Gb SATA en daar zit ik nu idle aan 55W.
Ik heb in hdparm al de spindown ingesteld van de harddisks zodat hij ze gewoon in standby kan gooien wanneer ze niet gebruitk worden. Verder is het terugklokken van de CPU wel de grootste brok geweest. Het weghalen van de DVD drive heeft 3 watt (wauw
Er zal naar alle waarschijnlijkheid nog wel wat bij komen gezien ik de 750Gb schijf ga vervangen door 1 (of 2) WD 1Tb greens.
In BIOS alle ongebruikte zaken uitschakelen? Zal niet veel uitmaken maar als je bijv USB poorten niet gebruikt kunnen die ook uit. Een groot verschil zullen de GP schijven van WD wel niet maken aangezien je toch spindown gebruikt. Beetje weinig info in je post voor meer ideeen. Mobo type, Voeding type, hoeveel reepjes RAM, Fans?Jormungandr schreef op maandag 29 juni 2009 @ 00:45:
Zijn er mensen die nog tips hebben om het energieverbruik naar beneden te halen van een DIY ubuntu based server.
Softwarematig is spindown van je HDD's en het terugclocken van je processor waarschijnlijk wel het meeste dat je kunt doen. Uiteraard even kijken naar alle processen die hdd acitviteit kunnen veroorzaken, dus opties als noatime mounten (mits mogelijk) gebruiken en bijvoorbeeld je updatedb niet iedere dag maar 1 keer per week ofzoiet laten draaien.
Voor meer wordt het toch veel geld in zuinige hardware investeren en er relatief weinig door besparen.
Ter vergelijking niet te lang geleden deze set-up gezien:
mobo: M2A-VM HDMI
proc: AMD 4450e
ram: 3 x 1GB
SATA: 2 x 8 poorts SATA controller
Backplane 3.5': 2x (deze hebben ook fan en electronica aanboord)
Backplane 2.5': 1x (idem)
Voeding: SII2-330 Bronze
2 x WD 500GB (2.5')
1 x WD 160GB (2.5')
14 x WD Green Power 1TB (verschillende typen) (3.5')
1 x Seagate 7200.11 750GB (3.5')
1 x WD 500GB (3.5')
2 x Casefan
idle 87 Watt.
[ Voor 8% gewijzigd door prozak op 29-06-2009 09:18 ]
Waar doe je dan wel aanQ schreef op zondag 28 juni 2009 @ 23:04:
[...]
Sorry, ik doe geen IM![]()
3 x gigabit, dat is pittig?(teaming / bonding of los?). Maar voor mij heeft meer dan Gigabit geen zin: geen van de andere apparatuur kan dat aan.
IK weet nog niet hoe ik hem ga draaien, heb nu voor 1000MBP/s (is toch gigabit?
Aansluitend op mijn ifo:
2 120mm Coolermaster fans
Asus M2A-VM bordje
de 4Gb is verdeeld over 2reepjes
Voeding is een realpower 450W van Coolermaster (al wat jaren oud dus niet de meest efficiente voeding)
Gisteren net voor het slapen even gekeken wat het verbruik is met spindown op beide schijven, en ik kom tegen de 49 watt aanleunen. Ik denk dat daarmee de limiet wel bereikt is met deze hardware
.
2 120mm Coolermaster fans
Asus M2A-VM bordje
de 4Gb is verdeeld over 2reepjes
Voeding is een realpower 450W van Coolermaster (al wat jaren oud dus niet de meest efficiente voeding)
Gisteren net voor het slapen even gekeken wat het verbruik is met spindown op beide schijven, en ik kom tegen de 49 watt aanleunen. Ik denk dat daarmee de limiet wel bereikt is met deze hardware
@Jormungandr:
kijk effe na of de AMD CPU cool and quiet gebruikt en ofdat je ubuntu dit doet..
kijk effe na of de AMD CPU cool and quiet gebruikt en ofdat je ubuntu dit doet..
die twee fans kunnen waarschijnlijk ook wel uit, scheelt waarschijnlijk weer 1 Watt oid. Die voeding, dat is waarschijnlijk een killer. Zou zo maar 10 Watt kunnen schelen met een low power efficiente voeding.Jormungandr schreef op maandag 29 juni 2009 @ 12:27:
Aansluitend op mijn ifo:
2 120mm Coolermaster fans
Asus M2A-VM bordje
de 4Gb is verdeeld over 2reepjes
Voeding is een realpower 450W van Coolermaster (al wat jaren oud dus niet de meest efficiente voeding)
Gisteren net voor het slapen even gekeken wat het verbruik is met spindown op beide schijven, en ik kom tegen de 49 watt aanleunen. Ik denk dat daarmee de limiet wel bereikt is met deze hardware.
Met een Seasonic S12 330 II kun je al op 42 Watt uitkomen en het kan naar mijn idee nog wel iets lager, maar niet zo bijzonder veel. Op zich wil ik wel eens een testje doen met een M2A-VM icm een PicoPSU (120W Pico + 105W brick) als die binnen is. (Ik heb hier wel een M2A-VM, ook een AN-M2HD en een ALiveNF7G-HDready
)

[ Voor 43% gewijzigd door Dadona op 29-06-2009 14:43 ]
Ik ben op dit moment nog een beetje aan het testen met het OS wat ik voor me NAS wil gaan gebruiken.
Maar nu zou ik Linux ook graag een kans willen geven maar daarvoor heb ik toch wat hulp (duwtje in de goede richting
) voor nodig.
Freenas vind ik namelijk te beperkt omdat ik me server ook content wil laten downloaden en omdat uit nieuwsgroepen vandaan komt ook laten uit pakken.
Voor me RAID kaart zijn voldoende linux drivers te vinden. Dus de distro keuze ben ik redelijk vrij in.
zo ver ik weet is SaBNzb (of zoiets) een redelijk goed download programma voor nieuwsgroepen. Alleen ben ik niet bekend met de mogelijkheden hiervan1
Als alles goed draait zal er maar weinig onderhoud nodig zijn maar als er problemen zijn met de Raid controller ( lees hdd stuk oid) dan wil ik wel vanaf me client kunnen inloggen2 om management tool van me kaart te gebruiken. Via webbrowser kan ook alleen duurt eventueel rebuilden ruim een keer zo lang
En als laatste natuurlijk de shares. Deze moeten goed toegankelijk zijn voor me HTPC maar ook voor me DNLA apparatuur (Denon receiver, ook PS3 maar dan zal ik al snel me HTPC gebruiken omdat die dichtbij elkaar staan)
1: ondersteund dat programma ook een soort van watch folder waar ik zelf NZB's heen kan gooien?
Verder kan deze ook zelf uitpakken of het ik daar extra software voor nodig?
2: Remote inloggen wordt vast wel ondersteund maar ook grafisch? En dan vooral hoe vanuit een Vista bak?
3: SMB shares zullen vast niet heel moeilijk zijn in te stellen maar hoe zit het met DNLA? En eventueel transcoden als iets niet ondersteund wordt door de PS3 (Denon kan mp3, wma, wav en flac aan. En ik heb geen ogg in me collectie)
Edit: De reden dat ik nu ook ff linux een kans geef is dat ik nu WHS heb draaien wat opzich prima werkt alleen niet legaal is. Wil het pakket (is maar 90 euro) best aanschaffen alleen komt er in 2010 een nieuwe versie
die wel 64B is. En om dan weer gelijk 2x geld er voor moeten uitgeven vind ik weer wat minder.
Maar nu zou ik Linux ook graag een kans willen geven maar daarvoor heb ik toch wat hulp (duwtje in de goede richting
Freenas vind ik namelijk te beperkt omdat ik me server ook content wil laten downloaden en omdat uit nieuwsgroepen vandaan komt ook laten uit pakken.
Voor me RAID kaart zijn voldoende linux drivers te vinden. Dus de distro keuze ben ik redelijk vrij in.
zo ver ik weet is SaBNzb (of zoiets) een redelijk goed download programma voor nieuwsgroepen. Alleen ben ik niet bekend met de mogelijkheden hiervan1
Als alles goed draait zal er maar weinig onderhoud nodig zijn maar als er problemen zijn met de Raid controller ( lees hdd stuk oid) dan wil ik wel vanaf me client kunnen inloggen2 om management tool van me kaart te gebruiken. Via webbrowser kan ook alleen duurt eventueel rebuilden ruim een keer zo lang
En als laatste natuurlijk de shares. Deze moeten goed toegankelijk zijn voor me HTPC maar ook voor me DNLA apparatuur (Denon receiver, ook PS3 maar dan zal ik al snel me HTPC gebruiken omdat die dichtbij elkaar staan)
1: ondersteund dat programma ook een soort van watch folder waar ik zelf NZB's heen kan gooien?
Verder kan deze ook zelf uitpakken of het ik daar extra software voor nodig?
2: Remote inloggen wordt vast wel ondersteund maar ook grafisch? En dan vooral hoe vanuit een Vista bak?
3: SMB shares zullen vast niet heel moeilijk zijn in te stellen maar hoe zit het met DNLA? En eventueel transcoden als iets niet ondersteund wordt door de PS3 (Denon kan mp3, wma, wav en flac aan. En ik heb geen ogg in me collectie)
Edit: De reden dat ik nu ook ff linux een kans geef is dat ik nu WHS heb draaien wat opzich prima werkt alleen niet legaal is. Wil het pakket (is maar 90 euro) best aanschaffen alleen komt er in 2010 een nieuwe versie

[ Voor 7% gewijzigd door The-Source op 30-06-2009 19:54 . Reden: nog wat extra info ]
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Met freenas kan je ook sabnzbd draaien. Guide staat op freenas.org. Antwoord op 1 is ja.
Wat betreft 2. Bij een linux server installeer je meestal geen gui maar je kan wel webmin installeren waarmee je in je browser fijn kan klikken. Het meeste gaat toch wel via commandline.
DNLA is hetzelfde als upnp? Twonky kan dat bv. Transcoden weet ik niet zo. Een 1080p mkv transcoden lijkt me behoorlijk cpu intensief
Wat betreft 2. Bij een linux server installeer je meestal geen gui maar je kan wel webmin installeren waarmee je in je browser fijn kan klikken. Het meeste gaat toch wel via commandline.
DNLA is hetzelfde als upnp? Twonky kan dat bv. Transcoden weet ik niet zo. Een 1080p mkv transcoden lijkt me behoorlijk cpu intensief
Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.