Out of order...
Tja, zuinig zal hij niet echt zijn.. ( in verhouding tot zijn prestaties... )X1pheR schreef op maandag 20 december 2010 @ 15:35:
[...]
Daar kwam ik echter niks tegen voor een groot aantal hd's. Wat vind je verder trouwens van het geheel? Nog aanpassingen die te adviseren zijn?
Ik heb deze tweedehands op de kop getikt:
http://www.anandtech.com/show/374
Ik heb wel de zwarte versie. En ik wil nooit meer een andere
Compleet met geluidsdempende matten is het een heerlijke kast
Als je het over de duvel hebt:
V&A aangeboden: Cooler Master Stacker TC01
Even niets...
Als ik een NAS zou bouwen die iets zinniger zou zijn dan wat ik nu heb zou het op basis zijn van die Fractals Design kast.X1pheR schreef op maandag 20 december 2010 @ 15:35:
[...]
Daar kwam ik echter niks tegen voor een groot aantal hd's. Wat vind je verder trouwens van het geheel? Nog aanpassingen die te adviseren zijn?
Prachtige kast, goede keuze.
Ik zou zelf alle disks gewoon in een grote RAID 5 gooien of er toch nog 1 bij doen in een RAID 6. Anders is het zo zonde van de ruimte.
Je zou de array ook prima als storage voor camera beelden kunnen gebruiken, maar dat geeft wel iets meer stroomverbruik. Als de data niet te veel is zou je ook best je OS schijf daar voor gebruiken kunnen. Je OS schrijf zou je ook voor de download kunnen gebruiken, waarna je unrard etc naar je storage oid.
[ Voor 34% gewijzigd door Q op 20-12-2010 17:39 ]
Tja, bedankt weer iets om over na te denkenQ schreef op maandag 20 december 2010 @ 17:35:
[...]
Ik zou zelf alle disks gewoon in een grote RAID 5 gooien of er toch nog 1 bij doen in een RAID 6. Anders is het zo zonde van de ruimte.
Je zou de array ook prima als storage voor camera beelden kunnen gebruiken, maar dat geeft wel iets meer stroomverbruik. Als de data niet te veel is zou je ook best je OS schijf daar voor gebruiken kunnen. Je OS schrijf zou je ook voor de download kunnen gebruiken, waarna je unrard etc naar je storage oid.
Weet nog niet hoeveel MB per dag door ZoneMinder geproduceerd gaat worden, daar zal het denk ik wel van afhangen. Wilde idd de array niet continue laten draaien als het niet nodig is ivm stroomverbruik. Dus unrarren naar array is prima, en backup van een weekje IP-camera beelden ook.
Heb nog even, spullen komen ofwel net voor, of net na de kerst binnen....
Iemand nog een nuttige tip bij keuze van het OS (Debian of Ubuntu server), of maakt dat niet wezenlijk veel uit?
Let er bij Zoneminder wel op dat deze niet je hele schijf volpropt. Ik heb een keer het probleem gehad dat zoneminder zoveel dirs en subdirs had aangemaakt met veel bestanden dat ik het maximum aan inodes(?) bereikt had en er niets meer geschreven kon worden ondanks dat de schijf maar 80% vol was. Daar heb ik toch even naar moeten zoeken.Duikhond schreef op maandag 20 december 2010 @ 17:46:
[...]
Tja, bedankt weer iets om over na te denken![]()
Weet nog niet hoeveel MB per dag door ZoneMinder geproduceerd gaat worden, daar zal het denk ik wel van afhangen. Wilde idd de array niet continue laten draaien als het niet nodig is ivm stroomverbruik. Dus unrarren naar array is prima, en backup van een weekje IP-camera beelden ook.
Heb nog even, spullen komen ofwel net voor, of net na de kerst binnen....
Iemand nog een nuttige tip bij keuze van het OS (Debian of Ubuntu server), of maakt dat niet wezenlijk veel uit?
Zomaar uit interesse welke cams gebruik je?
Debian of Ubuntu-server zal niet veel uit maken, de laatste zal in sommige gevallen eerder updates meekrijgen en er zullen wellicht wat meer up2date how-to's te vinden zijn.
Op dit moment alleen buiten-cams van Foscam, en wel dezeLoekie schreef op maandag 20 december 2010 @ 18:55:
[...]
Zomaar uit interesse welke cams gebruik je?
Debian of Ubuntu-server zal niet veel uit maken, de laatste zal in sommige gevallen eerder updates meekrijgen en er zullen wellicht wat meer up2date how-to's te vinden zijn.
Bevalt goed, alleen resolutie is relatief mager (640x480) en sluitertijd 's avonds is lang dus eerder bewogen plaatjes van personen die ongewenst binnen beeld lopen
Planning is nog een pan/tilt camera voor binnen.....wil eigenlijk even wachten tot de iets hogere resoluties betaalbaar worden
Ik wilde in Zoneminder een aantal alarmgebieden aangeven, en dan eens per week deze naar een avi omzetten als backup, en vervolgens het ruwe materiaal weer wissen. Dit moet het diskgebruik toch in de hand kunnen houden, anders ga ik toch de 2TB disk als werkdisk gebruiken.
Klopt wat betreft Ubuntu, meer howto's en zal me daar eerst eens op concentreren aangezien mijn linux ervaring minimaal is.
hij gaat in een kluis!Q schreef op maandag 20 december 2010 @ 23:41:
En hoe zit het nu als er wordt ingebroken en de NAS met de beelden wordt gejat?
Ha ha ha, goed puntQ schreef op maandag 20 december 2010 @ 23:41:
En hoe zit het nu als er wordt ingebroken en de NAS met de beelden wordt gejat?
Had ik al over nagedacht. Heb nu nog een andere nas (ch3snas) die ik in ga zetten als "echte" backup (2x1TB disken als mirror) op een andere locatie. Ook komt de nieuwe op een niet echt zichtbare of logische plaats te staan (praktisch ivm verbindingen) dus veel inbrekers zullen zich niet echt de tijd gunnen om hier naar te gaan zoeken. Overigens gaat het hier om een gewoon huis, geen winkel o.i.d.
Valt er zoveel te jatten dan?Duikhond schreef op dinsdag 21 december 2010 @ 08:08:
[...]
Ha ha ha, goed punt![]()
Had ik al over nagedacht. Heb nu nog een andere nas (ch3snas) die ik in ga zetten als "echte" backup (2x1TB disken als mirror) op een andere locatie. Ook komt de nieuwe op een niet echt zichtbare of logische plaats te staan (praktisch ivm verbindingen) dus veel inbrekers zullen zich niet echt de tijd gunnen om hier naar te gaan zoeken. Overigens gaat het hier om een gewoon huis, geen winkel o.i.d.
Even niets...
Was dat maar waar...
Ben nu eenmaal een hobbyist die de mogelijkheden van ICT zoveel mogelijk wil benutten (soms tot wanhoop van de wederhelft )
Ik ken je probleem... Het heeft wel even geduurd voor ze begreep waar ik 4TB aan storage mee kon vullenDuikhond schreef op dinsdag 21 december 2010 @ 11:41:
[...]
Was dat maar waar...dan had ik ook het geld gehad voor Hi-res camera's
![]()
Ben nu eenmaal een hobbyist die de mogelijkheden van ICT zoveel mogelijk wil benutten (soms tot wanhoop van de wederhelft )
Totdat ze inzag dat een filmcollectie op sneeuwdagen als dit best handig is...
Even niets...
Ook al dir pr0n?FireDrunk schreef op dinsdag 21 december 2010 @ 11:48:
[...]
Ik ken je probleem... Het heeft wel even geduurd voor ze begreep waar ik 4TB aan storage mee kon vullen
Totdat ze inzag dat een filmcollectie op sneeuwdagen als dit best handig is...
Mijn chickie loopt ook altijd te zeuren, maar is weer helemaal blij als ze zich verveelt en gewoon via xbmc een filmpje op kan zetten
@duikhond: gewoon ubuntu pakken, goede fora, up2date howto's en er wordt vaker geupdate
Compromises are for the weak
Das een leuke wat je op de kop hebt getikt! Met hotswap modules? Ikzelf wil eigenlijk niet groter dan een miditower. Zeker gezien het plekje op zolder waar de nieuwe server komt te staan. Vandaar dat ik op de Fractal Design kasten uit kwam. Jammer dat de nieuwe Arc pas over 3 maanden uit komt! Zit echt te twijfelen over welke kast. Want (zie hieronder) zit er ook over te denken om het nu gelijk goed te gaan doen. Dus gelijk een i5 ofzo maar niet 6x 1.5TB maar 7x of 8x.FireDrunk schreef op maandag 20 december 2010 @ 15:58:
[...]
Tja, zuinig zal hij niet echt zijn.. ( in verhouding tot zijn prestaties... )
Ik heb deze tweedehands op de kop getikt:
http://www.anandtech.com/show/374
Ik heb wel de zwarte versie. En ik wil nooit meer een andere
Compleet met geluidsdempende matten is het een heerlijke kast
Als je het over de duvel hebt:
V&A aangeboden: Cooler Master Stacker TC01
Thanks. Bedoel je de Define R3 of XL? Met de XL zit ik te twijfelen vanwege de problemen met airflow. Voornamelijk waarschijnlijk door de achterlijke fan in de bovenkant. Maar verder mankeert er niks aan. Bij de Define R3 ook niet maar welk 2x minder hd ruimte en bijna geen ruimte voor kabels wegwerken bij het zijpaneel. Ik heb echt bij zo veel webshops e.d. gekeken maar kwam toch uiteindelijk weer bij deze kasten uit vanwege de hd ruimte en manier waarop ze geplaatst kunnen worden.Q schreef op maandag 20 december 2010 @ 17:35:
[...]
Als ik een NAS zou bouwen die iets zinniger zou zijn dan wat ik nu heb zou het op basis zijn van die Fractals Design kast.
Prachtige kast, goede keuze.
Ik zou zelf alle disks gewoon in een grote RAID 5 gooien of er toch nog 1 bij doen in een RAID 6. Anders is het zo zonde van de ruimte.
Je zou de array ook prima als storage voor camera beelden kunnen gebruiken, maar dat geeft wel iets meer stroomverbruik. Als de data niet te veel is zou je ook best je OS schijf daar voor gebruiken kunnen. Je OS schrijf zou je ook voor de download kunnen gebruiken, waarna je unrard etc naar je storage oid.
Leuke setup heb je trouwens!!! Ik zat er idd aan te denken om nog een extra hd of misschien 2 toe te voegen aan de set. Maar was het niet zo dat een oneven aantal hd's in een RAID6 set je read/write zeer benadeeld? Als dat zo is moet ik er wel 2 bij doen en zit de PERC gelijk vol
De set is echt als storage. Voor OS (Windows Server 2008 R2 of ESXi4) en temp van downloaden, unrarren enzo komt er een RAID1 set van 2x80GB in.
Haha, zo herkenbaar dit! Bij mij precies hetzelfde. Zekers nu ik bezig ben met een nieuwe server uitzoeken. Als dat klaar is komt er nog een HTPC in de woonkamer welke tevens 1080p moet kunnen gamen. Moet je haar daar over horenFireDrunk schreef op dinsdag 21 december 2010 @ 11:48:
[...]
Ik ken je probleem... Het heeft wel even geduurd voor ze begreep waar ik 4TB aan storage mee kon vullen
Totdat ze inzag dat een filmcollectie op sneeuwdagen als dit best handig is...
Out of order...
Hey mannen, we delen toch niet onbedoeld allemaal dezelfde vrouw he?X1pheR schreef op dinsdag 21 december 2010 @ 16:53:
Haha, zo herkenbaar dit! Bij mij precies hetzelfde. Zekers nu ik bezig ben met een nieuwe server uitzoeken. Als dat klaar is komt er nog een HTPC in de woonkamer welke tevens 1080p moet kunnen gamen. Moet je haar daar over horen
Verwijderd
Ik heb die case met de stock fans en stock CPU cooler. Die kast is nog stiller dan mijn HTPC met Nexus 120mm fans en scythe shuriken cooler!X1pheR schreef op maandag 20 december 2010 @ 12:49:
Ter vervanging van mijn huidige server met 4x360GB RAID5 ben ik nu een tijdje aan het kijken hoe ik een oude game-pc kan upgraden als mijn nieuwe serverHieronder het lijstje. Tevens heb ik een PERC 6/i met BBU welke ik niet kon toevoegen. De 6 schijven komen hierop in RAID6 te hangen zodat er 6TB beschikbaar is. Hierop komt voornamelijk mijn collectie console en arcade roms op (nu 2,5TB and growing) en films e.d. Tevens nog 2x 80GB in RAID0 voor Windows Server 2008 R2.
# Product Prijs Subtotaal 1 Asus A7N8X-X € 0,- € 0,- 6 Samsung EcoGreen F2 EG HD154UI, 1.5TB € 59,- € 354,- 1 Fractal Design Define R3 (Zwart) € 93,50 € 93,50 1 Gigabyte GA-K8N Ultra-SLI, nForce4 SLI (Sound, LAN, SATA II, Raid, 1394) € 0,- € 0,- 1 Fractal Design Silent Series 120mm, 120mm € 9,23 € 9,23 3 Fractal Design Silent Series 140mm Fan, 140mm € 10,81 € 32,43 1 AMD Athlon 64 3500+ € 29,95 € 29,95 2 Kingston ValueRAM KVR400X64C3AK2/2G € 80,56 € 161,12 1 Gigabyte Odin GT 550W € 104,50 € 104,50 Bekijk collectie
Importeer productenTotaal € 784,73
Case
Wat ik van het lijstje nog niet heb zijn de casefans, voeding en behuizing. Daarvoor hoopte ik op wat input van jullie. Qua case zou ik eerst voor de Define XL gaan. Ruimte voor 10 schijven maar het schijnt dat de koeling nogal zwak is in deze case omdat ie zo groot is en de rare fan in de top. De Define R3 met ruimte voor 8 schijven is dan beter. Mocht ik nog later extra schijven er bij gaan doen dan kan ik altijd nog zo'n 2x5,25 naar 3x3,5 bay kopen. En toch een midi-tower. Ik heb aardig wat gezocht maar dit is de enige goede midi-tower die ik tegen kwam met ruimte voor zoveel schijven welke tevens op deze manier benaderbaar zijn en niet gedraaid waardoor je met je video- of een pci kaart in de knoei kan komen. Mocht er iemand een andere weten dan hoor ik het graag...
Fans
Standaard zit er 1x120mm fan voor en ook achter. Gezien het aantal schijven doe ik er nog 1x120mm voor. De Perc 6/i heeft alleen maar een kleine heatsink dus om deze goed te koelen doe ik 1x140mm in het zijpaneel. Qua airflow is er dan 1x120mm en 1x140mm te veel dus wou ik dat gaan compenseren met 1x of 2x140mm in de top. Wat vinden jullie er van? Of kan de setup beter?
Tevens zit ik met monitoring van de fans. Op het moederbord kunnen 3 fans. De 2x voor en 1x zij doe ik dan waarschijnlijk. Dan zit ik nog met de monitoring van 1x achter en 1x of 2x top. Een fan controller welke met software werkt heb ik niet kunnen vinden. Bij de case zit wel een "domme" voor 3 fans. Maar aangezien ie op zolder komt te staan weet ik dan nooit wanneer een fan uitvalt.
Voeding
Vandaar het idee voor de Odin GT 550W voeding. Daar kan nog 1 fan op aangesloten worden. Tevens temp sensors voor in ieder geval de Perc 6/i. Verder ook via software het verbruik e.d. te monitoren. Maar misschien nutteloos en kan ik beter een andere voeding nemen? Een die wellicht 80 plus silver of gold is. Afhankelijk van hoeveel het nou echt jaarlijks scheelt.
Ik hoor graag wat jullie er van vinden...
Fractal Design Define R3 (zwart):
[afbeelding]
Fractal Design Define XL (zwart):
[afbeelding]
Nee, geen hotswap, ik heb zelf 2 * 4-in-3 modules er in zitten. Dat werkt primaX1pheR schreef op dinsdag 21 december 2010 @ 16:53:
[...]
Das een leuke wat je op de kop hebt getikt! Met hotswap modules? Ikzelf wil eigenlijk niet groter dan een miditower. Zeker gezien het plekje op zolder waar de nieuwe server komt te staan. Vandaar dat ik op de Fractal Design kasten uit kwam. Jammer dat de nieuwe Arc pas over 3 maanden uit komt! Zit echt te twijfelen over welke kast. Want (zie hieronder) zit er ook over te denken om het nu gelijk goed te gaan doen. Dus gelijk een i5 ofzo maar niet 6x 1.5TB maar 7x of 8x.
Ik wil ooit nog wel naar hotswap toe, maar ik vind 100euro voor een beetje degelijke cage _VEEL_ te duur... De productiekosten van zon bay zullen misschien op 10 euro zitten.. Het is alleen gewoon een niche product...
I LOLled-Moondust- schreef op dinsdag 21 december 2010 @ 17:32:
[...]
Hey mannen, we delen toch niet onbedoeld allemaal dezelfde vrouw he?
Nog even een brainstorm. Sommigen zullen mijn vorige brainfart wel gezien hebben, met mijn toekomstige ESX(i) config.
Als ik nu eens de Share VM geprovisioned 8 x 1.5TB geef en ik bouw een MDADM array op, gaat dat dan goed?
[ Voor 11% gewijzigd door FireDrunk op 21-12-2010 19:49 ]
Even niets...
Goed om te horen. Dat is wel heel stil dan. Geen problemen met kabelmanagement achter het zijpaneel? Je hebt de Define R3 toch?Verwijderd schreef op dinsdag 21 december 2010 @ 18:53:
[...]
Ik heb die case met de stock fans en stock CPU cooler. Die kast is nog stiller dan mijn HTPC met Nexus 120mm fans en scythe shuriken cooler!
Out of order...
Welke 4-in-3 modules heb je er in zitten? Over je esx(i) config trouwens. Met esxi kun je datastores met een max van 2TB. Dus met 8 x 1.5TB heb je dan wel een probleem als je dat aan een VM wil toebedelen. Wel schijn je een soort oplossing te hebben met extends maar of het goed/veilig werkt weet ik niet.FireDrunk schreef op dinsdag 21 december 2010 @ 19:46:
[...]
Nee, geen hotswap, ik heb zelf 2 * 4-in-3 modules er in zitten. Dat werkt prima
Ik wil ooit nog wel naar hotswap toe, maar ik vind 100euro voor een beetje degelijke cage _VEEL_ te duur... De productiekosten van zon bay zullen misschien op 10 euro zitten.. Het is alleen gewoon een niche product...
[...]
I LOLled
Nog even een brainstorm. Sommigen zullen mijn vorige brainfart wel gezien hebben, met mijn toekomstige ESX(i) config.
Als ik nu eens de Share VM geprovisioned 8 x 1.5TB geef en ik bouw een MDADM array op, gaat dat dan goed?Kan ik dan de ongeprovisionde space gewoon nog een keer uitdelen?
Out of order...
Van coolermaster. De 'standaard'.X1pheR schreef op dinsdag 21 december 2010 @ 20:05:
[...]
Welke 4-in-3 modules heb je er in zitten? Over je esx(i) config trouwens. Met esxi kun je datastores met een max van 2TB. Dus met 8 x 1.5TB heb je dan wel een probleem als je dat aan een VM wil toebedelen. Wel schijn je een soort oplossing te hebben met extends maar of het goed/veilig werkt weet ik niet.
Ik bedoelde niet 1 x een set van 8x1.5TB, maar gewoon 8 losse vDisks van 1.5TB toe te wijzen.
###
Zijn er nog mensen op zoek naar een LSI 3081 Controller? Ik ben van plan er 2 aan te schaffen bij DealExtreme, maar bij mee krijgen we eventueel korting... Dus hoe meer hoe beter
Dan heb ik het dus over deze: http://www.dealextreme.com/details.dx/sku.51316
[ Voor 19% gewijzigd door FireDrunk op 22-12-2010 10:24 ]
Even niets...
Ik heb geen idee of oneven ook slecht is voor de performance. Probeer het. Gaat het niet, stop er een disk bij.X1pheR schreef op dinsdag 21 december 2010 @ 16:53:
Thanks. Bedoel je de Define R3 of XL? Met de XL zit ik te twijfelen vanwege de problemen met airflow. Voornamelijk waarschijnlijk door de achterlijke fan in de bovenkant. Maar verder mankeert er niks aan. Bij de Define R3 ook niet maar welk 2x minder hd ruimte en bijna geen ruimte voor kabels wegwerken bij het zijpaneel. Ik heb echt bij zo veel webshops e.d. gekeken maar kwam toch uiteindelijk weer bij deze kasten uit vanwege de hd ruimte en manier waarop ze geplaatst kunnen worden.
Leuke setup heb je trouwens!!! Ik zat er idd aan te denken om nog een extra hd of misschien 2 toe te voegen aan de set. Maar was het niet zo dat een oneven aantal hd's in een RAID6 set je read/write zeer benadeeld? Als dat zo is moet ik er wel 2 bij doen en zit de PERC gelijk vol
De set is echt als storage. Voor OS (Windows Server 2008 R2 of ESXi4) en temp van downloaden, unrarren enzo komt er een RAID1 set van 2x80GB in.
Ik begrijp dat je RAID op de controller nodig hebt ivm Windows, dus check dan wel of de controller van RAID 5 naar 6 kan groeien, on-line capacity expansion heeft en/of RAID 6 aan kan.
Dat hij gelijk vol zit: tja. Maakt dat uit? Heb je de komende jaren storage zat.
Heb je dan wel even de tijd? Ik heb deze op 02 december 2010 ook besteld, zit nog te wachtenFireDrunk schreef op dinsdag 21 december 2010 @ 20:18:
[...]
Zijn er nog mensen op zoek naar een LSI 3081 Controller? Ik ben van plan er 2 aan te schaffen bij DealExtreme, maar bij mee krijgen we eventueel korting... Dus hoe meer hoe beter
Dan heb ik het dus over deze: http://www.dealextreme.com/details.dx/sku.51316
dat is een vrij normale wachttijd voor DX. De meeste bestellingen komen pas na 3-4 weken binnen is mijn ervaring.AlterMann schreef op woensdag 22 december 2010 @ 13:07:
[...]
Heb je dan wel even de tijd? Ik heb deze op 02 december 2010 ook besteld, zit nog te wachten
Ik heb voorlopig wel interesse in zo'n controllertje (voor eventuele uitbreiding straks en om mee te testen). dus voor mij even onder voorbehoud 1 controller.
De PERC6/i kan switchen tussen RAID levels zowel als expansion. Reden waarom ik twijfel is als ik nou wel binnen no time de 6TB vol heb en dus meer nodig heb dat ik eigenlijk niet on-line capacity expansion wil doen omdat het niet 100% betrouwbaar schijnt te zijn. Het schijnt dat heel soms het mis gaat en dat je dan je hele array kwijt bent. Volgens Dell zelf althans.Q schreef op woensdag 22 december 2010 @ 12:43:
[...]
Ik heb geen idee of oneven ook slecht is voor de performance. Probeer het. Gaat het niet, stop er een disk bij.
Ik begrijp dat je RAID op de controller nodig hebt ivm Windows, dus check dan wel of de controller van RAID 5 naar 6 kan groeien, on-line capacity expansion heeft en/of RAID 6 aan kan.
Dat hij gelijk vol zit: tja. Maakt dat uit? Heb je de komende jaren storage zat.
Het liefste zou ik ook voor RAID5 gaan maar met RAID6 heb ik toch de zekerheid dat er 2 disks uit mogen vallen. De data die ik er op heb staan wil ik absoluut niet kwijt raken. Nee het is geen pr0n
Out of order...
Als het 'growen' van een array stuk kan gaan zou ik het risico zeker niet willen lopen. Ik heb het met mijn huidige machine meerdere keren zonder problemen gedaan, zelfs met 2 disks tegelijk maar nog voordat er data op stond. Maar dat was software RAID, waarvan ik het risico eigenlijk nog groter inschat dat het fout gaat. Ergens een foutje van de kernel developer en het gaat mis.X1pheR schreef op woensdag 22 december 2010 @ 15:16:
[...]
De PERC6/i kan switchen tussen RAID levels zowel als expansion. Reden waarom ik twijfel is als ik nou wel binnen no time de 6TB vol heb en dus meer nodig heb dat ik eigenlijk niet on-line capacity expansion wil doen omdat het niet 100% betrouwbaar schijnt te zijn. Het schijnt dat heel soms het mis gaat en dat je dan je hele array kwijt bent. Volgens Dell zelf althans.
Het liefste zou ik ook voor RAID5 gaan maar met RAID6 heb ik toch de zekerheid dat er 2 disks uit mogen vallen. De data die ik er op heb staan wil ik absoluut niet kwijt raken.
Stop de zooi voor die 150 euro extra dan lekker vol, is storage geen punt en als het wel een punt gaat worden dan ben je waarschijnlijk al weer een jaar of wat verder.
Je hoeft je nooit zorgen te maken over de mogelijkheid dat je niet genoeg storage heb. Met 12 TB ( 8x2TB in RAID6) kom je echt een heel eind.
Sure.Nee het is geen pr0n
[ Voor 5% gewijzigd door Q op 22-12-2010 15:32 ]
http://riceball.com/d/con...t-it-and-how-does-it-work
http://blogs.sourceallies...works-at-a-bitwise-level/
Sommige mensen kunnen het zo simpel uitleggen
Verwijderd
Nee helemaal niet. Heb de draadjes prima vast kunnen snoeren aan het rekje waar de HDDs inzitten. Ben eigenlijk wel met stomheid geslagen dat de case met al die disks gewoon stiller is dan mijn Antec Fusion Remote (HTPC) met de nodige maatregelen om het geluid zo veel mogelijk te beperken!X1pheR schreef op dinsdag 21 december 2010 @ 20:00:
[...]
Goed om te horen. Dat is wel heel stil dan. Geen problemen met kabelmanagement achter het zijpaneel? Je hebt de Define R3 toch?
Die fans en cooler in mijn HTPC hoor je duidelijk draaien. Niet hard maar wel harder dan de NAS
Case is trouwens wel groot en zwaar maar dat maakt voor mij niets uit. Alle harddisks liggen in een 'bedje' met rubbers. Echt ideaal!
* FireDrunk turft er 1 bij...DJ-NaRRa schreef op woensdag 22 december 2010 @ 14:28:
[...]
dat is een vrij normale wachttijd voor DX. De meeste bestellingen komen pas na 3-4 weken binnen is mijn ervaring.
Ik heb voorlopig wel interesse in zo'n controllertje (voor eventuele uitbreiding straks en om mee te testen). dus voor mij even onder voorbehoud 1 controller.
Even niets...
Verwijderd
Ach, mijn Areca besloot ook om er even 3 disks uit te gooien bij mijn RAID6 terwijl die aan het expanden was van 12 -> 16 disks. Dankzij de geweldige support van Kevin van Areca had ik de array weer terug, EN het expanden liep gewoon doorX1pheR schreef op woensdag 22 december 2010 @ 15:16:
[...]
De PERC6/i kan switchen tussen RAID levels zowel als expansion. Reden waarom ik twijfel is als ik nou wel binnen no time de 6TB vol heb en dus meer nodig heb dat ik eigenlijk niet on-line capacity expansion wil doen omdat het niet 100% betrouwbaar schijnt te zijn. Het schijnt dat heel soms het mis gaat en dat je dan je hele array kwijt bent. Volgens Dell zelf althans.
Het liefste zou ik ook voor RAID5 gaan maar met RAID6 heb ik toch de zekerheid dat er 2 disks uit mogen vallen. De data die ik er op heb staan wil ik absoluut niet kwijt raken. Nee het is geen pr0n
Turf er voor mij ook maar eentje bij als je wilt
* FireDrunk turft er nog 1 bij...Verwijderd schreef op woensdag 22 december 2010 @ 20:06:
[...]
Turf er voor mij ook maar eentje bij als je wilt
Even niets...
Daarmee loop je gelijk ook het risico dat je pakketje bij de douane komt te liggen en je een heffing krijgt. Tel daarbij op dat je de kaarten bij Firedrunk moet ophalen, want je krijgt het nooit verzonden onder de 1 dollar 70. Dus naar mijn idee is dit wel een hele slechte samenkoop actie... Of mis ik nu iets?
[ Voor 37% gewijzigd door Dadona op 22-12-2010 21:07 ]
Even niets...
Zo! Das wel hele goede support ja. Via Dell zal ik die support niet gaan krijgen. Die krijg je alleen als je de PERC in een DELL server hebt zitten. Behalve dat geven ze alleen support binnen je service contract.Verwijderd schreef op woensdag 22 december 2010 @ 20:06:
[...]
Ach, mijn Areca besloot ook om er even 3 disks uit te gooien bij mijn RAID6 terwijl die aan het expanden was van 12 -> 16 disks. Dankzij de geweldige support van Kevin van Areca had ik de array weer terug, EN het expanden liep gewoon door1 van die disks werd na een reboot namelijk gewoon weer herkend als behorende bij de array, maar 2 stuks waren hard gefaild. Niks mis met de schijven, achteraf gewoon een rotte kabel. Echter of je zulke support ook bij Dell zult krijgen in zo'n geval durf ik te betwijfelen...
Out of order...
Verwijderd
Heb mijn NAS net een week geinstalleerd met een RAID 5 array, is vandaag één van de harddisks er mee gestopt! R.I.P.
Met Fdisk zag ik dat 'sdf' nergens meer te bekennen is waardoor md0 inactive is en niet meer normaal kan booten zonder de welbekende skip of manual recover boodschap. Morgen maar meteen een RMA aanvragen
Leer ik in ieder geval meteen hoe ik een recovery moet doen!
Verwijderd
Inderdaad, sterk punt. Ik had nog niet eens naar de korting gekeken. Daarnaast, met 1 kaart kun je die heffing ook al krijgen. Dus het is eigenlijk juist voordeliger om elke kaart apart te versturen, dan heb je minder kans dat je pakketje onderschept wordt. Daarentegen, als er 2 van de 4 onderschept worden heb je dan weer 2x de inklaringskosten bovenop de importheffing (als ik het goed heb?)Dadona schreef op woensdag 22 december 2010 @ 21:03:
Nu zal ik met mijn instelling wel nooit miljonair worden, maar die korting is toch niets? Als je er meer dan drie koopt dan krijg je 1 dollar en 70 cent korting!
Daarmee loop je gelijk ook het risico dat je pakketje bij de douane komt te liggen en je een heffing krijgt. Tel daarbij op dat je de kaarten bij Firedrunk moet ophalen, want je krijgt het nooit verzonden onder de 1 dollar 70. Dus naar mijn idee is dit wel een hele slechte samenkoop actie... Of mis ik nu iets?
Ja de support was echt geweldig. Daar is de prijs van zo'n Areca dan ook wel weer naar...X1pheR schreef op woensdag 22 december 2010 @ 21:40:
[...]
Zo! Das wel hele goede support ja. Via Dell zal ik die support niet gaan krijgen. Die krijg je alleen als je de PERC in een DELL server hebt zitten. Behalve dat geven ze alleen support binnen je service contract.
[ Voor 33% gewijzigd door Verwijderd op 22-12-2010 23:27 . Reden: toevoeging ]
dx kennende versturen ze dat soort artikelen apart... ik heb nu 4 keer een laser gekocht die bij een bestelling zat. in alle 4 de bestellingen verstuurden ze de laser los van de andere spullen (ik denk dus i.v.m. douane). ik heb nog niet meegemaakt dat er wat bij de douane is blijven hangen.Verwijderd schreef op woensdag 22 december 2010 @ 22:40:
[...]
Inderdaad, sterk punt. Ik had nog niet eens naar de korting gekeken. Daarnaast, met 1 kaart kun je die heffing ook al krijgen. Dus het is eigenlijk juist voordeliger om elke kaart apart te versturen, dan heb je minder kans dat je pakketje onderschept wordt. Daarentegen, als er 2 van de 4 onderschept worden heb je dan weer 2x de inklaringskosten bovenop de importheffing (als ik het goed heb?)
[...]
Ja de support was echt geweldig. Daar is de prijs van zo'n Areca dan ook wel weer naar...
Maar je punt is wel valide hoor. Stel dat het allemaal doorkomt is het het dan waard voor 1,70 die je weer kwijt bent met post binnenland / brandstofkosten... ik denk het niet. Ik kan iig niet voor 1,70 naar nijmegen rijden
edit- voor de mensen die ook last hebben van "dansende" schijven: het is mogelijk om in je mdadm config UUIDs te gebruiken. Wel op een andere manier als in de fstab. Binnen fstab zou je gewoon een regel aan kunnen maken die uuid=<uuid> bevat dat werkt dus niet binnen de mdadm.conf
wat echter wel werkt is het volgende:
1
| mdadm /dev/md0 -A /dev/disk/by-uuid/uuiddisk1 /dev/disk/by-uuid/uuiddisk2 |
Ik was al een aantal dagen aan het zoeken of het inderdaad mogelijk was om UUID's te definen bij het opstellen van een array en na veel zoekwerk eindelijk resultaat. Het is wel wat meer werk indien er een disk failed of iets dergelijks maar het vergroot je stabiliteit wel heel erg indien je (zoals ik atm) last hebt van veranderende devices.
[ Voor 24% gewijzigd door DJ-NaRRa op 23-12-2010 01:59 ]
Hmm, dat heb ik ook nodig... Ik wil MDADM in een VM gaan gebruiken, en ik wilde eigenlijk met een geparavirtualiseerde scsi controller gaan werken...DJ-NaRRa schreef op donderdag 23 december 2010 @ 00:52:
[...]
dx kennende versturen ze dat soort artikelen apart... ik heb nu 4 keer een laser gekocht die bij een bestelling zat. in alle 4 de bestellingen verstuurden ze de laser los van de andere spullen (ik denk dus i.v.m. douane). ik heb nog niet meegemaakt dat er wat bij de douane is blijven hangen.
Maar je punt is wel valide hoor. Stel dat het allemaal doorkomt is het het dan waard voor 1,70 die je weer kwijt bent met post binnenland / brandstofkosten... ik denk het niet. Ik kan iig niet voor 1,70 naar nijmegen rijden
edit- voor de mensen die ook last hebben van "dansende" schijven: het is mogelijk om in je mdadm config UUIDs te gebruiken. Wel op een andere manier als in de fstab. Binnen fstab zou je gewoon een regel aan kunnen maken die uuid=<uuid> bevat dat werkt dus niet binnen de mdadm.conf
wat echter wel werkt is het volgende:
code:
1 mdadm /dev/md0 -A /dev/disk/by-uuid/uuiddisk1 /dev/disk/by-uuid/uuiddisk2
Ik was al een aantal dagen aan het zoeken of het inderdaad mogelijk was om UUID's te definen bij het opstellen van een array en na veel zoekwerk eindelijk resultaat. Het is wel wat meer werk indien er een disk failed of iets dergelijks maar het vergroot je stabiliteit wel heel erg indien je (zoals ik atm) last hebt van veranderende devices.
Even niets...
ik ben al een tijdje aan mijn NAS aan het sleutelen en doen,
en vandaag ontdekte ik dit subforum op Tweakers; echt voor elk ICT domein is er hier wel een "Het grote ... topic" - Geweldig!!
Nu dit heb ik gisteren laten lassen door mijn schoonvader,
massief stuk inox met plaats voor 8 3.5inch HDD's.
Het ding weegt wel 10kg zonder HDD's


Ik heb dus vier SATA aansluitingen op het mobo en nog een PCI VIA VT6421 kaartje met 2 interne en 1 externe SATA aansluiting.
Sluit ik een schijf aan op het kaartje dan blijft Windows x64 hangen tijdens het laadscherm.
Zonder HDD aangesloten op het kaartje start Windows x64 goed op.
Ook de juiste drivers zijn op een correcte manier geïnstalleerd.
Als ik FreeNas gebruik dan werkt enkel de poort die intern naar de voorkant gericht is.
Nu zou ik graag willen weten hoe ik verder kan onderzoeken of mijn kaart al dan niet stuk is.
Bijkomstig zou ik jullie mening willen hebben over volgend kaartje op eBay,
het is een PCI to 4 port Sata controller kaartje met een Silicon Image 3114A chip.
Het lijkt me echt té goedkoop...
http://bit.ly/gkw36h
[ Voor 18% gewijzigd door tripkip op 23-12-2010 11:42 ]
Bedankt voor je mening, maar ik ben niet van plan RAID te gebruiken, het is voor opslag van mediaDadona schreef op donderdag 23 december 2010 @ 11:41:
Op PCI, dus verwacht niet de hoogste prestaties. De totale bandbreedte is 133MB/sec en dat is ook nog eens gedeeld. Je gaat dus merken dat harde schijven niet op hun maximale snelheid zullen draaien als je een RAID vorm kiest. Daarnaast heeft de kaart alleen RAID 0 en 1, dus je moet toch met software RAID aan de gang gaan. (Sowieso zou ik dat met dit soort spul doen, vooral niet rekenen op de RAID5 kant als die er wel op zou zitten.)
en ik ga er niet aan dood als er een schijf sterft en ik ben die data kwijt.
Verder heb ik nu geen geld om een nieuwe server in elkaar te steken dus zit ik vast aan PCI.
Ik heb een PERC 6/i met 6x Samsung Ecogreen F2 HD154UI 1.5TB schijven welke ik in RAID6 wil gaan gebruiken en dus TLER wil kunnen instellen. Nog steeds schijnt voor de PERC dit enkel vanuit linux gedaan te kunnen worden. Het liefste wil ik ESXi of anders Windows 2008 als boot gebruiken. Dus dan wordt het linux booten van usb stick. Ik heb echter totaal geen ervaring met linux en weet dus ook niet hoe je dit moet maken. Heeft er iemand nog een image ofzo hiervan kunnen vinden?
Er werd hier ook verder over ESXi gesproken. Heeft iemand ook succesvol een PERC 5 of 6 aan een vm weten te koppelen via VMDirectPath? Ik heb er ook een topic over gestart in de hoop op een reactie van iemand iemand die dit gelukt is.
Out of order...
De kast die ik op het oog had, de Define R3 heeft plek voor 8 schijven. Zit er idd over na te denken om toch ipv 6x gewoon 7x of 8x in RAID6 te doen. Maar met nog 2 extra schijven in RAID0 voor OS dan moet ik wel voor de Define XL kast gaan. Anders past het nietQ schreef op woensdag 22 december 2010 @ 15:30:
[...]
Als het 'growen' van een array stuk kan gaan zou ik het risico zeker niet willen lopen. Ik heb het met mijn huidige machine meerdere keren zonder problemen gedaan, zelfs met 2 disks tegelijk maar nog voordat er data op stond. Maar dat was software RAID, waarvan ik het risico eigenlijk nog groter inschat dat het fout gaat. Ergens een foutje van de kernel developer en het gaat mis.
Stop de zooi voor die 150 euro extra dan lekker vol, is storage geen punt en als het wel een punt gaat worden dan ben je waarschijnlijk al weer een jaar of wat verder.
Je hoeft je nooit zorgen te maken over de mogelijkheid dat je niet genoeg storage heb. Met 12 TB ( 8x2TB in RAID6) kom je echt een heel eind.
[...]
Sure.
Wat er voornamelijk op staat zijn arcade en console rom collecties (No-Intro, TOSEC, REDUMP, etc) met bijbehorende media (voornamelijk EmuMovies). Ben nu met nieuwere generaties bezig zoals XBOX, PS1, etc wat allemaal behoorlijk ruimte gaat vreten. Dit wordt allemaal afgespeeld met de Front-End GameEx wat uiteindelijk op een HTPC in de woonkamer moet gaan draaien.
Out of order...
Oeh erg bedankt voor die Emu tip. Ik ben ook een fervent verzamelaar van roms (weliswaar meer de oude console games) en meer voor de heb. maar het zou leuk zijn als ik dit idd vanuit mijn nieuwe HTPC bakje zou kunnen spelen op mijn tv.X1pheR schreef op donderdag 23 december 2010 @ 12:15:
[...]
De kast die ik op het oog had, de Define R3 heeft plek voor 8 schijven. Zit er idd over na te denken om toch ipv 6x gewoon 7x of 8x in RAID6 te doen. Maar met nog 2 extra schijven in RAID0 voor OS dan moet ik wel voor de Define XL kast gaan. Anders past het niet. Ik heb trouwens geen 2TB schijven maar 1.5TB schijven. Jammer genoeg. Dus dan wordt het 7x met 7.5 TB ruimte of 8x wat 9TB ruimte geeft. Maar is ook wel genoeg denk ik.
Wat er voornamelijk op staat zijn arcade en console rom collecties (No-Intro, TOSEC, REDUMP, etc) met bijbehorende media (voornamelijk EmuMovies). Ben nu met nieuwere generaties bezig zoals XBOX, PS1, etc wat allemaal behoorlijk ruimte gaat vreten. Dit wordt allemaal afgespeeld met de Front-End GameEx wat uiteindelijk op een HTPC in de woonkamer moet gaan draaien.
Ik heb nu mijn game-pc volgepropt met schijven, en ik heb ook nog een stapel oude, kleinere. Dat is niet handig, het verbruikt veel energie, ik moet hem aan laten staan, iedere keer als ik een nieuwe (grotere) schijf koop zit ik een dag te kopiëren om plaats te maken, en ik heb geen fout-tolerantie. Dus als er wat fout gaat maak ik een kopie van alle belangrijke dingen op andere schijven, maar ben ik wel een heleboel kwijt. En backups op tape of DVD zijn voor thuis toch wel heel onpraktisch.
Dus wil ik een NAS, maar wel een beetje een flinke. En goedkoop. Een DIY RAID, dus.
Ik heb dit en het zuinige server topic voor een groot deel doorgelezen (en ge-Googled), maar ik heb nog een paar vraagjes.
1. Kan ik in Linux van een (software) RAID 1 een RAID 5 maken door er een schijf bij te prikken? En natuurlijk zonder dat ik mijn data kwijt ben.
2. Als ik een RAID 5 array maak met 4 oude PATA schijven en er gaat er 1 kapot, kan ik er dan een SATA schijf aan toewijzen ter vervanging? Ik verwacht het wel, maar dat was me niet helemaal duidelijk. Ik kreeg het idee dat er dan nog 1 defecte schijf in je config blijft zitten.
3. Het liefste zou ik 2 RAID 5 arrays samenvoegen tot 1 groot volume (ivm. de schijfgroottes, 1 array van kleine, 250-320GB, en 1 array van grote, 1-1,5TB). Kan dat, en welk fs moet ik dan gebruiken?
4. Is het verstandig om van zo'n array te booten? Anders kan ik waarschijnlijk beter RAID 10 gebruiken voor de kleine schijven en die als systeem- en rommelschijf gebruiken. Of als dat ook niet verstandig is, die schijven configureren als RAID 1 met 2 spares? (Wel lekker veilig
5. Als je een RAID 5 array hebt dat bijvoorbeeld bestaat uit 1 schijf van 1GB en 3 van 1,5GB (netto 3GB), bijvoorbeeld na het vervangen/upgraden/bijplaatsen van schijven, kun je dan je array rebuilden zodat hij alleen de 3 schijven van 1,5 GB gebruikt? Er een schijf uithalen en hem meteen growen?
6. Wat is een goedkope kast waar niet alleen veel schijven in kunnen, maar waarbij je de schijven ook gemakkelijk kunt vervangen? Bij de meeste kasten moet je ze er langs de achterkant insteken, of je moet van die Coolermaster 4in3 bays gebruiken, heb ik het idee.
Het uiterlijk maakt me niet zoveel uit, want ik zet hem toch niet in het zicht, en de rest van de hardware kost maar iets van 100 Euro, dus dan vind ik het zonde om een kast+voeding te kopen die duurder zijn.
Btw, Ik heb nu totaal aan schijven (alleen de 1-1,5GB in gebruik):
4 * 250 GB PATA
2 * 320 GB SATA
3 * 1 TB SATA
2 * 1,5 TB SATA
Ik denk er over om er nog 1 of 2 van 1,5 of 2 TB bij te kopen, en ik heb er natuurlijk 1 of 2 nodig voor in mijn game PC.
Gek genoeg zijn ondertussen al mijn 500 en 750 GB schijven overleden.
[ Voor 6% gewijzigd door SymbolicFrank op 23-12-2010 20:45 ]
Niet direct op zoek, wat is het verschil/voordeel tussen deze en bijvoorbeeld de Intel SASUC8I?FireDrunk schreef op dinsdag 21 december 2010 @ 20:18:
Zijn er nog mensen op zoek naar een LSI 3081 Controller? Ik ben van plan er 2 aan te schaffen bij DealExtreme, maar bij mee krijgen we eventueel korting... Dus hoe meer hoe beter
Dan heb ik het dus over deze: http://www.dealextreme.com/details.dx/sku.51316
Gezien de DX-prijs en vergelijking met laatst bekende pricewatch-prijs geen gekke deal.
Je kunt idd nu beter investeren in een paar dikke jongens van 2Tb. Ik heb ook 2 'oude' Samsungs van 500Gb in mijn systeem zitten en die zijn gewoon merkbaar trager, als in dramatisch trager als de 2Tb. Die 0,5Tb schijven zijn denk ik 3 jaar oud ofzo, maar gewoon retetraag. En volgens mij verbruiken die nieuwerwetsche dingen ook minder prik. Dus uiteindelijk gewoon win-win-win. Weg met die ouwe meuk!SymbolicFrank schreef op donderdag 23 december 2010 @ 19:18:
Ik denk er over om er nog 1 of 2 van 1,5 of 2 TB bij te kopen, en ik heb er natuurlijk 1 of 2 nodig voor in mijn game PC.
Gek genoeg zijn ondertussen al mijn 500 en 750 GB schijven overleden.
Mijn RAID5 array is sneller dan die 2 ouwe dingen in RAID0. Dat zegt genoeg denk ik...
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Die is idd wel heel groot, en je kunt zo te zien makkelijk bij de schijven. Maar wel 90 Euro exclusief voeding, dan zit je toch al gauw op 140 Euro. Een normale prijs voor zo'n kast, maar als het toch wat mag/moet kosten ga ik liever voor een Fractal Design.DJ-Visto schreef op donderdag 23 december 2010 @ 21:30:
Veel schijven in een kast? pricewatch: Chieftec CA-01B-B-SL
Ik wil eigenlijk liever wat goedkopers.
Ja, dat was ook mijn eerste idee.mphilipp schreef op donderdag 23 december 2010 @ 21:41:
[...]
Je kunt idd nu beter investeren in een paar dikke jongens van 2Tb. Ik heb ook 2 'oude' Samsungs van 500Gb in mijn systeem zitten en die zijn gewoon merkbaar trager, als in dramatisch trager als de 2Tb. Die 0,5Tb schijven zijn denk ik 3 jaar oud ofzo, maar gewoon retetraag. En volgens mij verbruiken die nieuwerwetsche dingen ook minder prik. Dus uiteindelijk gewoon win-win-win. Weg met die ouwe meuk!
Mijn RAID5 array is sneller dan die 2 ouwe dingen in RAID0. Dat zegt genoeg denk ik...
Maar dan moet ik eigenlijk die 3 schijven van 1 TB ook afdanken, die 2 van 1,5 TB in mijn game computer stoppen en gewoon een hele set nieuwe van 2 TB kopen. Dat is dan meteen weer 300-400 Euro extra. En ik heb pas geleden al een nieuwe laptop gekocht.
Tot nu toe kocht ik gewoon 1 nieuwe als de ruimte op was of er een oude kapot ging. Als ik een grote array maak met grote schijven kan ik die uitbreiden totdat de bak vol is, maar daarna moet ik ze dan ook allemaal tegelijk vervangen door grotere om weer meer capaciteit te krijgen.
Een paar honderd Euro heb ik altijd wel, maar een heel array vervangen is toch wel een stuk duurder.
je kunt er in principe wel gewoon een schijf bij proppen als ie maar dezelfde grootte is (daarom ook altijd je raid devices partitioneren op mooie ronde getallen omdat schijven vaak net iets verschillen in grootte).SymbolicFrank schreef op donderdag 23 december 2010 @ 22:14:
[...]
Ja, dat was ook mijn eerste idee.
Maar dan moet ik eigenlijk die 3 schijven van 1 TB ook afdanken, die 2 van 1,5 TB in mijn game computer stoppen en gewoon een hele set nieuwe van 2 TB kopen. Dat is dan meteen weer 300-400 Euro extra. En ik heb pas geleden al een nieuwe laptop gekocht.
Tot nu toe kocht ik gewoon 1 nieuwe als de ruimte op was of er een oude kapot ging. Als ik een grote array maak met grote schijven kan ik die uitbreiden totdat de bak vol is, maar daarna moet ik ze dan ook allemaal tegelijk vervangen door grotere om weer meer capaciteit te krijgen.
Een paar honderd Euro heb ik altijd wel, maar een heel array vervangen is toch wel een stuk duurder.
je kunt ook grotere schijven hiervoor gebruiken en als je dan aan x devices zit expanden naar de nieuwe grootte.
dit is echter wel redelijk intensief. je moet je array down brengen en een device toevoegen als hot spare en daarna je array fysiek expanden en je FS expanden. Dit is best intensief en je wilt eigenlijk niet dat daar iets fout gaat.....
echter de tijd dat het duurt voordat je je array vol hebt kun je vast wel wat geld wegleggen voor een hoop disks.
en je kunt die schijven die je over hebt wellicht als raid 1 draaien voor back-up van persoonlijke data of als buffer raid 0 voor je downloads.....mogelijkheden genoeg.
[ Voor 5% gewijzigd door DJ-NaRRa op 23-12-2010 22:43 ]
Maakt het uit?
Even niets...
Ik zou het zou het zo doen:SymbolicFrank schreef op donderdag 23 december 2010 @ 22:14:
[...]
Ja, dat was ook mijn eerste idee.
Maar dan moet ik eigenlijk die 3 schijven van 1 TB ook afdanken, die 2 van 1,5 TB in mijn game computer stoppen en gewoon een hele set nieuwe van 2 TB kopen. Dat is dan meteen weer 300-400 Euro extra. En ik heb pas geleden al een nieuwe laptop gekocht.
Tot nu toe kocht ik gewoon 1 nieuwe als de ruimte op was of er een oude kapot ging. Als ik een grote array maak met grote schijven kan ik die uitbreiden totdat de bak vol is, maar daarna moet ik ze dan ook allemaal tegelijk vervangen door grotere om weer meer capaciteit te krijgen.
Een paar honderd Euro heb ik altijd wel, maar een heel array vervangen is toch wel een stuk duurder.
- boot je systeem van de 1TB HDs in raid0
- bouw je raid5 array met 1.5TB.
Loekie schreef op donderdag 23 december 2010 @ 20:12:
[...]
Niet direct op zoek, wat is het verschil/voordeel tussen deze en bijvoorbeeld de Intel SASUC8I?
Gezien de DX-prijs en vergelijking met laatst bekende pricewatch-prijs geen gekke deal.
Antwoord was al eerder gegevenvargo schreef op woensdag 06 oktober 2010 @ 16:30:
[...]
De Intel SASUC8i is een rebranded LSI SAS3081E-R, maar doorgaans stuk goedkoper (~130eur ipv 200eur+).
Ik ben nog steeds zeer blij met mijn stacker. Ik denk dat dat, naast mijn Dell U2410, de beste investering geweest is op vlak van informatiemateriaal.
Een goede case kost altijd geld. Kijk maar naar de NORCO's of Supermicro chassis. Prachtige dingen, maar duur. You get what you pay for and if you pay peanuts you get monkeys.
m.a.w. de eigenmerk oplossing met de 1068E chip, dan is het zeker een goed alternatief.AlterMann schreef op vrijdag 24 december 2010 @ 12:33:
Antwoord was al eerder gegevenDe dx-prijs is zeker een goede prijs, mits je geduld hebt natuurlijk
In de handleidingen die ik ben tegen gekomen wordt er juist geadviseerd om 1 partitie fd (linux raid autodetect) te maken met een mooie afgeronde grootte. Ik weet dat mdadm ze dan ook kan herkennen metFireDrunk schreef op vrijdag 24 december 2010 @ 11:15:
Hoezo raid devices partitioneren? Ik heb een aantal tutorials bekeken over MDADm en daar gebruiken ze allemaal gewoon raw devices.. en geen partities op devices...
Maakt het uit?
1
| mdadm --detail --scan --verbose > /etc/mdadm.conf |
Of er verder nog voordelen aan zitten weet ik niet. Ik heb het iig maar zo gedaan.
@Firedrunk: ik heb delen van die manual gekopieerd naar een eigen google docs file genaamd debian tipboek
voor de mensen (zoals ik) die nu al een Debian installatie hebben en deze al ingericht hebben maar toch graag dit willen omzetten naar een RAID1 opzet (ik wacht nog op kabels en een hdd) heb ik de volgende tutorials: tutorial 1 tutorial 2
basically de volgende stappen:
1 - kopieer partitie tabellen van je huidige install naar nieuwe disk
2 - nieuwe disk partitioneren
3 - een degraded raid 1 array opzetten
4 - FS aanmaken
5 - zooi overkopieren en fstab e.d. wijzigen
6 - oude disk wipen en toevoegen aan raid 1
[ Voor 43% gewijzigd door DJ-NaRRa op 25-12-2010 00:10 ]
* FireDrunk gaat binnenkort overstappen op ESX + een MDADM VM
Even niets...
Op zich zou ik een paar 5.25->3.5" brackets en een extra SATA-controller kunnen kopen en er nog een aantal schijven bij kunnen prikken, maar dat wordt zo'n rommeltje in de kast. Daarom ben ik ook aan het kijken naar mogelijkheden om buiten de huidige kast om mbv eSATA uit te breiden. Het probleem is echter dat de meeste van dat soort behuizingen complete NAS-oplossingen zijn van honderden euro's, terwijl ik zelf helemaal tevreden ben met mdadm en ik eigenlijk ook gewoon mijn bestaande array wil uitbreiden.
Wat ik eigenlijk het liefste wil is een externe enclosure met een zelfstandige voeding, waar 3, 4 of 5 schijven in passen en die middels een enkele (6Gbit/s) of dubbele (3Gbit/s) eSATA-aansluiting en port multiplication kan worden aangesloten.
Mijn vraag is of er een dergelijke oplossing bestaat, voor een niet al te hoge prijs. Of misschien weet iemand een veel beter idee om mijn capaciteit uit te breiden. Of misschien moet ik er maar gewoon niet aan beginnen en een huge bigtower kopen? Alle suggesties zijn welkom!
[ Voor 48% gewijzigd door HarmoniousVibe op 25-12-2010 00:40 ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
ik heb zelf wel eens gezocht naar de oplossing die jij zoekt. gewoon een enclosure voor een aantal disks.... ik kwam ook veel kant en klare nas oplossingen tegen. Maar ook cases die op zich zelf stonden (evt. met een backplane). De kosten hiervoor waren om en nabij 100 - 200 euro voor alleen de enclosure zonder disks. Deze waren in alle gevallen zonder voeding.LB06 schreef op zaterdag 25 december 2010 @ 00:12:
Ik wil jullie graag mijn probleempje voorleggen. Hopelijk kunnen jullie me helpen met mijn probleemje. Een tijdje geleden heb ik een stil & zuinig, maar ook relatief kleine server gebouwd. Het is namelijk een Sonata Plus 550 met slechts 4 * 3.5" bays. Mijn mobo is een MSI 790XT-G45 met 6 * SATA. Nu ben ik inmiddels zo ver dat ik al mijn bays in gebruik heb genomen en de schijfruimte daarop (mdadm 4 * 1TB raid5) voor 90% in gebruik is. Daarom ben ik aan het kijken naar mogelijkheden om uit te breiden.
Op zich zou ik een paar 5.25->3.5" brackets en een extra SATA-controller kunnen kopen en er nog een aantal schijven bij kunnen prikken, maar dat wordt zo'n rommeltje in de kast. Daarom ben ik ook aan het kijken naar mogelijkheden om buiten de huidige kast om mbv eSATA uit te breiden. Het probleem is echter dat de meeste van dat soort behuizingen complete NAS-oplossingen zijn van honderden euro's, terwijl ik zelf helemaal tevreden ben met mdadm en ik eigenlijk ook gewoon mijn bestaande array wil uitbreiden.
Wat ik eigenlijk het liefste wil is een externe enclosure met een zelfstandige voeding, waar 3, 4 of 5 schijven in passen en die middels een enkele (6Gbit/s) of dubbele (3Gbit/s) eSATA-aansluiting en port multiplication kan worden aangesloten.
Mijn vraag is of er een dergelijke oplossing bestaat, voor een niet al te hoge prijs. Of misschien weet iemand een veel beter idee om mijn capaciteit uit te breiden. Of misschien moet ik er maar gewoon niet aan beginnen en een huge bigtower kopen? Alle suggesties zijn welkom!
Voor dat geld kun je denk ik beter een nieuwe case en controller kopen imo.
1
2
3
| /dev/sda1 * 1 3647 29294496 fd Linux RAID autodetect /dev/sda2 3648 3890 1951897+ fd Linux RAID autodetect /dev/sda3 3891 121601 945513607+ fd Linux RAID autodetect |
Op /dev/sd{a,b,c,d}1 draait mijn OS in raid1 (30G)
Op /dev/sd{a,b,c,d}2 draait mijn swap in raid0 (2G, 8G effectief)
Op /dev/sd{a,b,c,d}3 draait mijn data in raid5 (rest)
Nu zou ik heel graag mijn OS en swap naar een losse schijf verhuizen en die 32G terugwinnen, omdat ik die ruimte anders op elke schijf kwijt ga zijn. Mijn vraag is natuurlijk of dit mogelijk is, het liefst zonder schijf voor schijf mijn array af te gaan breken (1 schijf ontkoppelen, array rebuilen, 1TB verplaatsen, volgende schijf ontkoppelen en bijvoegen bij de eerste schijf, array rebuilen, volgende TB verplaatsen etc).
Is het bijvoorbeeld mogelijk om per disk alle partities te verwijderen en 1 grote partitie aan te maken, en vervolgens de array te growen om tenslotte het (XFS) filesystem te growen met xfs_growfs?
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Graag gedaan. Dat kan dus zeker met GameEx. Er zijn ook nog andere alternatieven zoals bijvoorbeeld Hyperspin. Op emumovies staat op de frontpage wel een overzicht van de bekenste front-ends. Ik zie dat ik je geen PM kan sturen. Stuur mij anders ff een dan reply ik met wat verdere info...DJ-NaRRa schreef op donderdag 23 december 2010 @ 12:21:
[...]
Oeh erg bedankt voor die Emu tip. Ik ben ook een fervent verzamelaar van roms (weliswaar meer de oude console games) en meer voor de heb. maar het zou leuk zijn als ik dit idd vanuit mijn nieuwe HTPC bakje zou kunnen spelen op mijn tv.
Dan kun je nog beter voor de Fractal Design Define R3 gaan welke ook ruimte heeft voor 8x3,5 maar verder 2x5,25 en verder veel kleiner en ook nog eens mooier en stiller is. Voor 10x3,5 en 4x5,25 en nog steeds mooi en stil kun je voor Fractal Design Define XL gaan. Hou je van klein en dus mini-itx dan is Fractal Design Array R2 nog een oplossing en heeft toch nog 6x3,5 en 1x2,5.DJ-Visto schreef op donderdag 23 december 2010 @ 21:30:
Veel schijven in een kast? pricewatch: Chieftec CA-01B-B-SL
bij vmware kunnen de datastores maximaal 2 TB zijn. Krijg je daar dan geen problemen mee?FireDrunk schreef op vrijdag 24 december 2010 @ 17:12:
Dan wil ik graag jou handleiding
* FireDrunk gaat binnenkort overstappen op ESX + een MDADM VM
Out of order...
Stil hoeft hier niet, ik heb een HP 2824 liggen daar kom je moeilijk bovenuit.. En, ik heb nog steeds heel veel ruimten, heb het ding net uitgepaktX1pheR schreef op zaterdag 25 december 2010 @ 01:43:
[...]
Graag gedaan. Dat kan dus zeker met GameEx. Er zijn ook nog andere alternatieven zoals bijvoorbeeld Hyperspin. Op emumovies staat op de frontpage wel een overzicht van de bekenste front-ends. Ik zie dat ik je geen PM kan sturen. Stuur mij anders ff een dan reply ik met wat verdere info...
[...]
Dan kun je nog beter voor de Fractal Design Define R3 gaan welke ook ruimte heeft voor 8x3,5 maar verder 2x5,25 en verder veel kleiner en ook nog eens mooier en stiller is. Voor 10x3,5 en 4x5,25 en nog steeds mooi en stil kun je voor Fractal Design Define XL gaan. Hou je van klein en dus mini-itx dan is Fractal Design Array R2 nog een oplossing en heeft toch nog 6x3,5 en 1x2,5.
[...]
bij vmware kunnen de datastores maximaal 2 TB zijn. Krijg je daar dan geen problemen mee?
Ik heb er zelf ook wel eens naar gezocht een jaar geleden, maar het was allemaal veel te duur. Met een grotere kast, helaas wel minder mooi, ben je veel goedkoper uit.LB06 schreef op zaterdag 25 december 2010 @ 00:12:
Ik wil jullie graag mijn probleempje voorleggen. Hopelijk kunnen jullie me helpen met mijn probleemje. Een tijdje geleden heb ik een stil & zuinig, maar ook relatief kleine server gebouwd. Het is namelijk een Sonata Plus 550 met slechts 4 * 3.5" bays. Mijn mobo is een MSI 790XT-G45 met 6 * SATA. Nu ben ik inmiddels zo ver dat ik al mijn bays in gebruik heb genomen en de schijfruimte daarop (mdadm 4 * 1TB raid5) voor 90% in gebruik is. Daarom ben ik aan het kijken naar mogelijkheden om uit te breiden.
Op zich zou ik een paar 5.25->3.5" brackets en een extra SATA-controller kunnen kopen en er nog een aantal schijven bij kunnen prikken, maar dat wordt zo'n rommeltje in de kast. Daarom ben ik ook aan het kijken naar mogelijkheden om buiten de huidige kast om mbv eSATA uit te breiden. Het probleem is echter dat de meeste van dat soort behuizingen complete NAS-oplossingen zijn van honderden euro's, terwijl ik zelf helemaal tevreden ben met mdadm en ik eigenlijk ook gewoon mijn bestaande array wil uitbreiden.
Wat ik eigenlijk het liefste wil is een externe enclosure met een zelfstandige voeding, waar 3, 4 of 5 schijven in passen en die middels een enkele (6Gbit/s) of dubbele (3Gbit/s) eSATA-aansluiting en port multiplication kan worden aangesloten.
Mijn vraag is of er een dergelijke oplossing bestaat, voor een niet al te hoge prijs. Of misschien weet iemand een veel beter idee om mijn capaciteit uit te breiden. Of misschien moet ik er maar gewoon niet aan beginnen en een huge bigtower kopen? Alle suggesties zijn welkom!
Is het mogelijk dat je een korte handleiding schrijft voor het "Linux Software RAID benchmarking script" ?
Ik ben namelijk van plan om van WHS over te stappen op Debian (Openmediavault) met software RAID6, maar ben nog een beetje een linux noob.
Ik heb een aantal vragen over het draaien van het benchmark script, zoals:
- moet er al een RAID array aangemaakt zijn met mdadm
- waar moet het script zich bevinden
- neem aan dat je ingelogd moet zijn als root
- enz. enz.
Misschien kun je een beknopte stap voor stap handleiding schrijven voor de linux noob onder ons.
Prettige feestdagen.
De documentatie is het script zelfKriss27 schreef op zaterdag 25 december 2010 @ 11:26:
Vraag aan Q.
Is het mogelijk dat je een korte handleiding schrijft voor het "Linux Software RAID benchmarking script" ?
Ik ben namelijk van plan om van WHS over te stappen op Debian (Openmediavault) met software RAID6, maar ben nog een beetje een linux noob.
Ik heb een aantal vragen over het draaien van het benchmark script, zoals:
- moet er al een RAID array aangemaakt zijn met mdadm
- waar moet het script zich bevinden![]()
- neem aan dat je ingelogd moet zijn als root
- enz. enz.
Misschien kun je een beknopte stap voor stap handleiding schrijven voor de linux noob onder ons.
Prettige feestdagen.
Daarin zie je dat het script:
- de array aanmaakt met de verschillende chunk sizes
- de array formatteert met het filesystem xfs (mag je aanpassen naar iets anders maar raad ik af)
- de benchmark test doet
- het aanmaken van de array, het formatteren en testen 5x herhaald ter controle.
- de resultaten in /var/log/raid-test.log plaatst.
Het script hoeft zich nergens te bevinden, het is locatie onafhankelijk.
Wat je voor jezelf goed moet bepalen is wat je precies wil testen. Besef dat het script in de huidige config waarschijnlijk een hele dag nodig heeft. Misschien zijn niet alle tests parameters relevant. Wil je niet alle raid levels testen, of alle chunk sizes.
[ Voor 14% gewijzigd door Q op 25-12-2010 12:49 ]
Koop gewoon een 4-in-3 module van Coolermaster (wat foto's). Die module neemt drie DVD bays in beslag en in die module kun je dan vier harde schijven plaatsen. Er zijn nog wel meer soorten, ik heb ze ook gezien die de schijven een kwartslag draait om nog meer plek te krijgen, maar daar ben ik persoonlijk niet zo'n fan van. (voorbeeld) Ik heb liever dat de harde schijven in een horizontale positie draaien.LB06 schreef op zaterdag 25 december 2010 @ 00:12:
Het is namelijk een Sonata Plus 550 met slechts 4 * 3.5" bays. Mijn mobo is een MSI 790XT-G45 met 6 * SATA. Nu ben ik inmiddels zo ver dat ik al mijn bays in gebruik heb genomen en de schijfruimte daarop (mdadm 4 * 1TB raid5) voor 90% in gebruik is. Daarom ben ik aan het kijken naar mogelijkheden om uit te breiden.
Klopt, daarom 'assemble' ik de array ook in een VM zelf. Dus elke disk is een datastore van 2TB (of 1.5TB in mijn geval) daarop komt een VMDK met een vaste grootte. 1 VM krijgt 8 * een VMDK file aan een geparavirtualiseerde controller geleverd. IN de VM maak ik een MDADM array van alle vDisks die de VM heeft en distribueer dit terug aan de ESX host via NFS.X1pheR schreef op zaterdag 25 december 2010 @ 01:43:
bij vmware kunnen de datastores maximaal 2 TB zijn. Krijg je daar dan geen problemen mee?
OS enzo draait op mijn SSD, en heeft daarom geen last van performance problemen, en data kan gewoon van en naar het array via SMB of NFS.
Even niets...
Waarom niet via Physical RDM zoals ik in mijn post al had aangegeven?FireDrunk schreef op zaterdag 25 december 2010 @ 14:34:
[...]
Klopt, daarom 'assemble' ik de array ook in een VM zelf. Dus elke disk is een datastore van 2TB (of 1.5TB in mijn geval) daarop komt een VMDK met een vaste grootte. 1 VM krijgt 8 * een VMDK file aan een geparavirtualiseerde controller geleverd. IN de VM maak ik een MDADM array van alle vDisks die de VM heeft en distribueer dit terug aan de ESX host via NFS.
OS enzo draait op mijn SSD, en heeft daarom geen last van performance problemen, en data kan gewoon van en naar het array via SMB of NFS.
Daar ben ik nog niet helemaal uit... Ik zit er namelijk over te denken om de data thin te provisionen...redfoxert schreef op zaterdag 25 december 2010 @ 14:41:
[...]
Waarom niet via Physical RDM zoals ik in mijn post al had aangegeven?
Dan kan ik (tot zolang de datastores het vol houden) ook nog een RAID0 array aanmaken om mee te spelen
Maar RDM is zeker een optie. Wel vraag ik me af hoe ESX's SMART omgaat met die LSI controller die ik wil gaan bestellen. Of zit het probleem in SMARTd op linux?
Even niets...
Volgens mij snap ik ´m. Maar als je dus op die manier die raid set opbouwd. Geeft dat geen performanceverlies als elke disk een vmdk is naar de vm toe? En dan heb je dus in je vm een raid set voor storage. Waarom dan nog terugdistribueren naar de ESX host?FireDrunk schreef op zaterdag 25 december 2010 @ 14:34:
[...]
Klopt, daarom 'assemble' ik de array ook in een VM zelf. Dus elke disk is een datastore van 2TB (of 1.5TB in mijn geval) daarop komt een VMDK met een vaste grootte. 1 VM krijgt 8 * een VMDK file aan een geparavirtualiseerde controller geleverd. IN de VM maak ik een MDADM array van alle vDisks die de VM heeft en distribueer dit terug aan de ESX host via NFS.
OS enzo draait op mijn SSD, en heeft daarom geen last van performance problemen, en data kan gewoon van en naar het array via SMB of NFS.
Ik ben wel benieuwd. Want wat ik zelf probeer te doen zal waarschijnlijk nooit gaan lukken. Zie hieronder. Dus wellicht moet ik ook maar softwarematige raid gaan doen en verdiepen in linux. geen simpele taak denk ik
Er was een tijd geleden gesproken over smartmontools gebruiken door Q, nostradamus99 en Quindor. Hebben jullie of iemand anders dit nog succesvol weten te gebruiken?
Ik heb een PERC 6/i met 6x Samsung Ecogreen F2 HD154UI 1.5TB schijven welke ik in RAID6 wil gaan gebruiken en dus TLER wil kunnen instellen. Nog steeds schijnt voor de PERC dit enkel vanuit linux gedaan te kunnen worden. Het liefste wil ik ESXi of anders Windows 2008 als boot gebruiken. Dus dan wordt het linux booten van usb stick. Ik heb echter totaal geen ervaring met linux en weet dus ook niet hoe je dit moet maken. Heeft er iemand nog een image ofzo hiervan kunnen vinden?
Er werd hier ook verder over ESXi gesproken. Heeft iemand ook succesvol een PERC 5 of 6 aan een vm weten te koppelen via VMDirectPath? Ik heb er ook een topic over gestart in de hoop op een reactie van iemand iemand die dit gelukt is.
Out of order...
Xigmatek Asgard 33,80
420 Watt LC-Power LC420H-8 17,50
Asus M4A78LT-M LE 49,98 by MyCom (directe link werkt niet)
Sempron 140 BOX 30,60
1024MB Kingston ValueRAM DDR3 1333MHz 16,90
1500GB Samsung EcoGreen F2 5400rpm * 2 = 127,60
Totaal 276, 68 (waarvan de helft de twee harddisks
Optioneel:
Cooler Master Harde schijf behuizing 4in3 21, 95
Daar gaat dan in (met wat ik nog heb liggen):
2 * 250 GB PATA in RAID 1 als systeemdisk (met 2 handmatig-vervangbare spares)
2 * 320 GB SATA in RAID 1 als swap/temp
4 * 1,5 TB SATA in RAID 5 als datadisk
En ik kan dan de 2 * 320 GB disks tzt. wegdoen, de 4in3 kopen en plaatsen, en mijn array uitbreiden tot 8 * 1,5 TB, met een extra SATA kaartje (dat heb ik, ik weet alleen niet of dat onder Linux gaat werken).
Is dat wat?
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Online Capacity Expansion (OCE)LB06 schreef op zaterdag 25 december 2010 @ 22:41:
Even een andere vraag. Hoe upgraden jullie je raid5 array in ruimte per schijf? Drie nieuwe schijven kopen, daar de nieuwe data op pompen en de kleinere schijven verkopen?
Als energie verbruik niet belangrijk is, gewoon doen maar bezuinig niet op de voeding. De voeding is in dit soort systemen vrij cruciaal. Ten eerste dat hij ook de gewenste spanning kan leveren op boot (dit is belangrijk omdat de schijven bij spinup stiekum best veel amps trekken) en ten tweede dat deze ook stabiel is. Als laatste zou een efficiente (80PLUS) voeding niet misstaan in een systeem dat 24/7 draait.SymbolicFrank schreef op zaterdag 25 december 2010 @ 22:38:
Ok, ik heb even flink zitten googelen, en ik ben tot de volgende specs gekomen:
Daar gaat dan in (met wat ik nog heb liggen):
2 * 250 GB PATA in RAID 1 als systeemdisk (met 2 handmatig-vervangbare spares)
2 * 320 GB SATA in RAID 1 als swap/temp
4 * 1,5 TB SATA in RAID 5 als datadisk
En ik kan dan de 2 * 320 GB disks tzt. wegdoen, de 4in3 kopen en plaatsen, en mijn array uitbreiden tot 8 * 1,5 TB, met een extra SATA kaartje (dat heb ik, ik weet alleen niet of dat onder Linux gaat werken).
Is dat wat?
Ja, dat dacht ik eerst ook, toen ik die prijs zag. Maar er zijn een paar reviews over, die positief zijn, En hij heeft ongeveer twee keer zoveel SATA connectoren als voedingen die ongeveer het dubbele kosten.redfoxert schreef op zaterdag 25 december 2010 @ 22:44:
[...]
Als energie verbruik niet belangrijk is, gewoon doen maar bezuinig niet op de voeding. De voeding is in dit soort systemen vrij cruciaal. Ten eerste dat hij ook de gewenste spanning kan leveren op boot (dit is belangrijk omdat de schijven bij spinup stiekum best veel amps trekken) en ten tweede dat deze ook stabiel is. Als laatste zou een efficiente (80PLUS) voeding niet misstaan in een systeem dat 24/7 draait.
En 10 schijven (< 100 W) + moederbord (< 50 W) + processor (< 45 W) is alles wat er in komt. De rest is te verwaarlozen.
Maar wat zou je dan aanraden als beter PSU?
Ja dat ken ik. Bedoel je daarmee te zeggen dat ik het beste één voor één mijn schijven kan omwisselen voor een grotere versie en op het laatst een mdadm --grow en een filesystem grow kan doen?
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Verwijderd
Daarnaast draait je CPU ook zonder power saving tijdens de boot dus krijg je een flinke piekspanning. Het probleem is dat je wel een 800W 80+ voeding kan kopen, maar dat die voeding in idle stand met 30-40W verbruik (5% van zijn vermogen) erg inefficient wordt en de 80% lang niet haalt en zelfs onder de 70% kan zakken, ook met 80-plus certified voedingen die worden bij min 20% getest. Dus het liefst gebruik je een voeding die juist voor lage loads heel efficient is; zeker niet alle voedingen vallen onder deze categorie.
Een setup met PicoPSU (de meest zuinige PSU voor lage loads) en 2,5" disks valt ook te overwegen, maar dan gebruik je dus 2,5" disks om onder de 140W piekbelasting te blijven aangezien 2,5" maar 4W voor spinup gebruiken en je dus gemakkelijk veel schijven tegelijk kunt opspinnen zelfs met een PicoPSU.
Gister nog gekeken en die Samsung MT2 1TB 2,5" disks zijn best het overwegen waard! Je betaalt per GB wel twee keer zoveel dan een normale 3,5" green disk, maar je hebt dan wel een HDD waar je veel flexibeler mee om kunt gaan; minder ruimte, minder gewicht, minder stroom.
Een modulaire voeding waarbij je extra kabels aan kunt schaffen zodat je aansluitingen kunt toevoegen wanneer je ze nodig hebt vind ik persoonlijk erg handig. Ik heb zelf een CoolerMaster RealPower 520M met daarbij via CoolerMaster zelf een zootje extra kabels. Standaard zitten er op zich al een aantal bij maar dat is een mix van kabels en SATA kwam ik tekort. Je verliest wellicht wat efficiency door het modulaire deel (meer weerstand door de aansluiting) maar ik vond het het risico wel waard.SymbolicFrank schreef op zaterdag 25 december 2010 @ 22:53:
[...]
Ja, dat dacht ik eerst ook, toen ik die prijs zag. Maar er zijn een paar reviews over, die positief zijn, En hij heeft ongeveer twee keer zoveel SATA connectoren als voedingen die ongeveer het dubbele kosten.
En 10 schijven (< 100 W) + moederbord (< 50 W) + processor (< 45 W) is alles wat er in komt. De rest is te verwaarlozen.
Maar wat zou je dan aanraden als beter PSU?
Anderen zullen waarschijnlijk een andere mening toegedaan zijn
Verwijderd
Maar wat nou als je ver onder de 20% load gaat? Sommige voedingen gaan drastisch naar beneden richting de 50% efficiency, waarbij de voeding evenveel gaat verbruiken als de rest van het systeem. Daar moet je dus voor opletten, als je een energiezuinig systeem wilt bouwen met 20-40W idle verbruik. Sommige 500-800W voedingen zijn dan nog steeds heel zuinig, maar zeker niet allemaal. Ook kwaliteitsvoedingen die dan erg slecht presteren, qua efficiency in elk geval.
Ik zou je helaas niet kunnen vertellen welke voedingen dan wel 600W+ leveren en toch erg efficient zijn met lage loads.
Even terug is daar ook over gesproken in het kader van de PicoPSU's. Welke voedingen het precies zijn, weet ik niet meer, maar er was er in ieder geval een van 525W die ook bij lage belasting niet zoveel slechter (dan wel beter of gelijk, ik weet het niet meer) was als de Pico.Verwijderd schreef op zaterdag 25 december 2010 @ 23:55:
Sommige 500-800W voedingen zijn dan nog steeds heel zuinig, maar zeker niet allemaal. Ook kwaliteitsvoedingen die dan erg slecht presteren, qua efficiency in elk geval.
Ik zou je helaas niet kunnen vertellen welke voedingen dan wel 600W+ leveren en toch erg efficient zijn met lage loads.
Ik vraag me af of het daadwerkelijk zo erg is, die vermeende inefficiëntie van die zwaardere voedingen. Waar praten we precies over? Wat ik toen ook al aangaf, moet je er rekening mee houden dat een voeding veroudert (de condensatoren) en daardoor ook minder prik leveren. Ik heb hier een dure voeding liggen die 5 jaar 24/7 heeft gedraaid, en nu echt wel aan zijn eindje is. De spanning is allang niet stabiel meer, en het systeem krijgt ook spontane bluescreens na een poosje... Een voeding die 'net aan' is, is in mijn ogen dan een risico, want die zal eerder niet meer het vereiste vermogen kunnen leveren. Maar goed, dat is mijn theorie, niet gebasseerd op wetenschappelijk onderzoek, maar deels eigen ervaring en deels geleende kennis van het slimme internet. Vooral in een server zou ik niet zo snel een krappe voeding willen steken.
Ik hoor overigens heel veel over disks laten downspinnen bij inactiviteit. Hoe werkt dat bij jullie? Ik heb het even geprobeerd, maar meteen weer uit gezet. Bijzonder irritant, want sommige programma's beginnen meteeen te piepen of lopen zelfs vast. Je moet soms best wel lang wachten voordat de boel weer begint te reageren. Nee, ik vond dat geen succes. Doe ik iets verkeerd? Wat zijn de ervaringen?
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Ik ben het met jullie eens, dat je een voeding moet kiezen die in het juiste vermogensgebied zit. Maar, behalve als die voeding meteen hard afslaat als het gevraagde vermogen eventjes boven het nominale uitkomt, zijn ze er allemaal op gebouwd om kortstondig (tijdens het in- en uitschakelen) even flink wat meer vermogen te leveren.
Het opgegeven vermogen is (of zou moeten zijn): nominaal, wat hij kan leveren over langere termijn. Want een opstartvermogen van 5-10 keer het nominale is heel gewoon.
En juist daar vallen de goedkope voedingen normaal door de mand: het opgegeven vermogen is piekvermogen, in plaats van nominaal vermogen. Maar die voeding die ik heb uitgezocht, kan dat vermogen ook leveren, en kapt er niet mee tijdens het opstarten. (Of in ieder geval niet als dat uitgesmeerd over een paar seconden onder het nominale vermogen zit).
Dus, behalve als je altijd een voeding koopt die ~10 keer het nominale vermogen dat je nodig hebt koopt, verwacht je dat de zaak toch wel opstart.
Efficiëntie is inderdaad een heel interessant item, je gaat dan uitrekenen wat het je per jaar meer kost als je een minder efficiënte voeding koopt.
Natuurlijk wil je er dan 1, die ongeveer 80% van zijn maximale vermogen moet leveren onder gemiddelde belasting, en minder dan 100% tijdens volledige belasting (kopiëren en tegelijkertijd een heftig spelletje spelen).
Je kunt voor de zekerheid een zwaardere kopen, maar dan wordt het rendement lager als hij maar voor een klein gedeelte belast word.
Ergens zit daar een magische grens, die vooral bepaald wordt (naast het goed functioneren van de computer onder alle omstandigheden) door het verschil in verbruik en aanschafprijs.
En dat is aardig lastig van te voren te bepalen!
Maar een voeding die slechts 70% efficiënt is, kan beter presteren dan 1 die 80% is, maar flink overbemeten en 2x zo duur in aanschaf. Want die laatste is niet alleen duurder in aanschaf, maar ook in verbruik.
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Als een voorbeeldje voor de elektronici onder ons: een setje 7805/7812 gaat niet werken, want die gaan plat zodra het vermogen te hoog wordt. Je moet dus redelijk passief gaan monitoren, op temperatuur en elcootjes opladen/ontladen om te kijken of je niet boven de magische zelfdestructiegrens uitkomt. En je moet natuurlijk altijd voorzien in een soft shutdown, whatever.
Je moet dan ook geen stoel wegtrekken waar nog iemand opzit. Met andere woorden, schakel een harde schijf uit die echt inactief is. Zo heb ik tijdenlang een RAID5 array gehad waarop één applicatie data neerzette. Deze applicatie was het grootste deel van de dag idle en voerde slechts een handvol keren per dag een taak uit van maximaal een half uur. De rest van de tijd was de RAID5 array dus echt idle. Met een programma (hdparm) werden de schijven dan ook na een half uur van inactiviteit uitgeschakeld. En ja, het starten duurde iets langer, schijven moesten opspinnen, maar hier ging dat prima.mphilipp schreef op zondag 26 december 2010 @ 00:41:
[...]
Ik hoor overigens heel veel over disks laten downspinnen bij inactiviteit. Hoe werkt dat bij jullie? Ik heb het even geprobeerd, maar meteen weer uit gezet. Bijzonder irritant, want sommige programma's beginnen meteeen te piepen of lopen zelfs vast. Je moet soms best wel lang wachten voordat de boel weer begint te reageren. Nee, ik vond dat geen succes. Doe ik iets verkeerd? Wat zijn de ervaringen?
Hdparm is ook beschikbaar voor Ubuntu.
De meeste fabrikanten geven ook het stroomverbruik in spinup en idle op, dus dat kan ook een goede maatstaf zijn voor het bouwen van een storage bak. Indien je echt VEEL schijven hebt en schrik dat je voeding het niet trekt: staggered spinup.
Ik kan het instellen op de RAID controller waar de disks op aangesloten zijn. Ik had een flinke marge ingesteld, zodat ie niet down spint als ik even zit te sch**tenDadona schreef op zondag 26 december 2010 @ 11:52:
[...]
Je moet dan ook geen stoel wegtrekken waar nog iemand opzit. Met andere woorden, schakel een harde schijf uit die echt inactief is.
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Verwijderd
Als ik schijven via Linux en HDPARM op standby zet, dan gaat het helemaal mis.
Het punt is dat bij het lezen van een stripe iedere schijf afzonderlijk voor ieder blokje wordt aangesproken. Dus als ik dan 1 bestand van een paar meg opvraag, moeten eerst 20 disks stuk voor stuk opspinnen.
Eigenlijk zou de linux kernel dit moeten ondervangen door even alle disks aan te spreken, maar dan piekt wel je belasting op je voeding.
Toegegeven, volgens mij heeft hardware RAID daar geen/minder last van.
[ Voor 11% gewijzigd door Q op 26-12-2010 14:26 ]
Echter heb ik een aantal vragen die jullie hopelijk kunnen beantwoorden. Volgens enkele berichten op het internet zitten de SATA-poorten achter de fan (wtf). Weet iemand of er wel ruimte genoeg is voor de 'rechte' SATA-aansluitingen van mijn SSF-8087 miniSAS breakout kabels? Iemand die toevallig zo'n Lian Li heeft?
Ook ben ik wel benieuwd of de LSI hot-swap ondersteunt. Anders koop in namelijk een interne HDD cage
Tevens nog de vraag of het mogelijk is om van een schijf die aangesloten is op de LSI te booten. Bedankt voor de antwoorden!
[ Voor 6% gewijzigd door HarmoniousVibe op 26-12-2010 14:51 ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Dat past niet. Je krijgt er vier kabels bij met een haakse connector. Misschien een andere sas break-out of een koppelbusje?LB06 schreef op zondag 26 december 2010 @ 14:43:
Echter heb ik een aantal vragen die jullie hopelijk kunnen beantwoorden. Volgens enkele berichten op het internet zitten de SATA-poorten achter de fan (wtf). Weet iemand of er wel ruimte genoeg is voor de 'rechte' SATA-aansluitingen van mijn SSF-8087 miniSAS breakout kabels? Iemand die toevallig zo'n Lian Li heeft?
Je zou ook nog de beugel met de fan er af kunnen schroeven.
[ Voor 5% gewijzigd door jadjong op 26-12-2010 15:42 ]
Dat is inderdaad een mogelijkheid ja. Andere breakout kabels kan ik helaas niet vinden. Ik heb al moeite genoeg om een SFF-8087 breakout cable te vinden met 'gewone' sata-aansluitingen.jadjong schreef op zondag 26 december 2010 @ 15:28:
[...]
Dat past niet. Je krijgt er vier kabels bij met een haakse connector. Misschien een andere sas break-out of een koppelbusje?
Je zou ook nog de beugel met de fan er af kunnen schroeven.
De fan eruit halen kan natuurlijk ook, maar dan zit ik wel met de airflow, of het gebrek daaraan. Heb jij zo'n ding? Hoe dicht zitten die 4 schijven op elkaar? Er komen namelijk alleen maar 'green' HDDs in, dus ik gok dat het niet een heel groot probleem is, maar dat is natuurlijk ook afhankelijk van de afstand tussen de schijven.
Ik heb ook nog gekeken naar de Disk Array van Addonics, maar die is meteen weer een stuk duurder en ik heb gehoord dat de fan die erin zit erg slecht is.
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Huidige config:
2GB CF card met Freenas versie ?
6x 500GB in RaidZ ( ZFS )
Share met Samba naar me Ubuntu desktop
Nieuwe (test) config:
500GB voor Ubuntu 10.04 server
5x500GB in raid5 ( mdadm )
Share met NFS naar me Ubuntu desktop
+ onboard Realtek NIC disabled en losse Intel NIC erin gestopt
Waarom denken jullie
Als alles lekker draait en goed bevalt ga ik de disken inwisselen voor 3x 2TB.
Scheelt me veel stroom en herrie + heb 2 keer zoveel ruimte.
Hij is nu me raid 5 aan het builden ga nu even NFS installeren + config aanpassen.
Snoep van alle disks 10 GB af en maak een RAID 5 of RAID 6 van alle 6 disks met ietsje minder ruimte. Kun je de OS partitie ook meteen RAID 1 draaien.
Dit is meer een test sessie van een paar maanden. Dan gaan er waarschijnlijk 2TB disken in.
Voor het OS neem ik dan 2x 2,5 diskjes in RAID 1.
Ik heb mijn OS juist liever op een losse drive staan, omdat het OS dan niet traag wordt van veel activiteit op mijn raid-array.Q schreef op zondag 26 december 2010 @ 19:56:
Wel zonde dat je 1 hele 500 GB opoffert voor je OS.
Snoep van alle disks 10 GB af en maak een RAID 5 of RAID 6 van alle 6 disks met ietsje minder ruimte. Kun je de OS partitie ook meteen RAID 1 draaien.
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Performanceverlies zal er wel zijn, maar een RDM is niet heel veel sneller dan een VMDK hoor. Verschil zit hem vooral in dat je het device direct kan uitlezen (SMART enzo) het is er in principe om VM's directe access te geven op SAN's om zo hun 'speciale' tools uit te kunnen voeren. Het verlies zal misschien een paar procent zijn.X1pheR schreef op zaterdag 25 december 2010 @ 16:01:
Volgens mij snap ik ´m. Maar als je dus op die manier die raid set opbouwd. Geeft dat geen performanceverlies als elke disk een vmdk is naar de vm toe? En dan heb je dus in je vm een raid set voor storage. Waarom dan nog terugdistribueren naar de ESX host?
Ik ben wel benieuwd. Want wat ik zelf probeer te doen zal waarschijnlijk nooit gaan lukken. Zie hieronder. Dus wellicht moet ik ook maar softwarematige raid gaan doen en verdiepen in linux. geen simpele taak denk ik
Grote voordeel is, dat ik gewoon disks live kan omruilen zonder mijn array te laten werken..
Namelijk gewoon een Storage vMotion uitvoeren
* helaas kan dit alleen met vCenter, dus het kan niet Live aangezien ik niet van plan ben om een vCenter VM in te richten
Dus je schijven vervangen met nieuwe schijven werkt heel simpel
[ Voor 5% gewijzigd door FireDrunk op 26-12-2010 22:03 ]
Even niets...
Ben benieuwd of die disk nog goed is. Zijn al oude disken die al een tijd gedraait hebben voordat ik ze had vandaar dat ik 3x2TB wil inplaats van 6 oude disken.
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.