Voor 10 HDDs heb je toch niet zo'n grote kast nodig? Kan prima met een mini-ITX kastjeFireDrunk schreef op donderdag 20 december 2012 @ 09:00:
Zojuist mijn nieuwe aanwinst in gebruik genomen
Nieuwe case voor mijn server, het is na lang zoeken een Fractal Define XL (Met USB 3.0) geworden.
Voorkant
Zijkant
Eigenlijk een top kast voor een DIY RAID NAS, alleen moet je goed opletten met welke voeding je neemt, want een L7 300W zoals ik heb, is niet echt tof, omdat de moederbord / CPU kabels eigenlijk te kort zijn.
Het past echt precies... Ze hadden geen 4mm korter moeten zijn...
Lijkt mij een goede manier om te kijken hoe goed ZFS bestand is tegen dode schijven. Zo heb je toch 0,0 airflow in je kast..onox schreef op donderdag 20 december 2012 @ 13:40:
[...]
Voor 10 HDDs heb je toch niet zo'n grote kast nodig? Kan prima met een mini-ITX kastje![]()
![]()
Mja, ik heb een mATX bord, dus ITX zou het toch niet worden. Bovendien heb ik ook nog 2 SSD's en die moeten ook een plekje hebben 
Daarbij is deze kast voorzien van stille fans, kabelmanagement, fan control, EN geluidsdempende matten
Daar kan zo'n ITX prul ding niet tegenop...
Daarbij is deze kast voorzien van stille fans, kabelmanagement, fan control, EN geluidsdempende matten
Daar kan zo'n ITX prul ding niet tegenop...
Even niets...
Ik ga na veel lezen over ZFS de knoop doorhakken. Ik ga ook mijn eigen huisservertje bouwen.
Ik heb zelf nog een Brazos bordje liggen, waar ik 16 Gb RAM op kan doen. Ik heb een ssd voor L2ARC (weet merk ff niet meer) en De harde schijven worden Seagates Barracuda 7200.14 3 keer 2 Tb schijven.
k twijfel nog tussen de cases. Ik wil niet meer dan rond 50 euro uitgeven. Ik dacht zelf aan Fractal Design Core 3000 of Antec One .
Fractal heeft 6x 3.5" plus 2x 5.25" en Antec heeft 5x 3.5" plus 3x 5.25". Antec heeft nog 2 usb 3.0 poorten voorop. Ik weet niet hoe de kwaliteit van Fractal ten opzichte van Antec staat. Mij lijkt dat het gelijk opgaat. Wat vinden jullie. Weet iemand nog een goed alternatief in deze prijsklasse?
Ik heb zelf nog een Brazos bordje liggen, waar ik 16 Gb RAM op kan doen. Ik heb een ssd voor L2ARC (weet merk ff niet meer) en De harde schijven worden Seagates Barracuda 7200.14 3 keer 2 Tb schijven.
k twijfel nog tussen de cases. Ik wil niet meer dan rond 50 euro uitgeven. Ik dacht zelf aan Fractal Design Core 3000 of Antec One .
Fractal heeft 6x 3.5" plus 2x 5.25" en Antec heeft 5x 3.5" plus 3x 5.25". Antec heeft nog 2 usb 3.0 poorten voorop. Ik weet niet hoe de kwaliteit van Fractal ten opzichte van Antec staat. Mij lijkt dat het gelijk opgaat. Wat vinden jullie. Weet iemand nog een goed alternatief in deze prijsklasse?
Ik heb zelf deze. Heb deze gekozen vanwege prijs en ruimte. Voor de prijs een prima kast.
Voor die prijs is het zeker OK!
Even niets...
De HD's zijn misschien niet zo makkelijk erin te zetten als bij een fractal met sledes/rails (ik kom even niet op de naam van die dingen). Maar het is nou ook niet bijzonder moeilijk en genoeg ruimte om alles kwijt te kunnen, is ook nog een beetje mogelijkheid aan kabelmanagement.
Die ja;) Maar om nou te zeggen dat ik daarvoor 25E meer zou uitgeven. Zo vaak verwissel ik geen schijven in mijn kast.
Alleen beetje jammer dat er extra's bij doet
Dat "kastje" is me net iets te duur.. Jammer, want ik heb nog een heel mooi, werkloos Ikea tafeltje..
Maar ik twijfel of zo'n waaibomenhouten tafeltje zo'n monster wel kan houden.
[ Voor 11% gewijzigd door _Eend_ op 21-12-2012 10:53 ]
Zo, definitief knoop doorgehakt. Zo is het besteld/reeds in bezit:
Thuis heb ik nog een niet nader genoemde SSD (weet merk niet meer) voor L2ARC. En dan nog een 4 pin molex- 7 pin SATA van startech besteld, omdat die voeding maar 3 keer SATA voeding heeft. En nog 3 keer startech 49 cm SATA 7 pins kabels voor de Seagates besteld.
Waarschijnlijk ga ik met FreeNAS 8 starten hoewel ZFSGuru me ook wel aantrekt. Ik ben helaas nog een grote BSD noob itt linux/mac/windows.
| # | Product | Prijs | Subtotaal |
| 1 | Asus E35M1-I DELUXE | β¬ 152,95 | β¬ 152,95 |
| 3 | Seagate Barracuda 7200.14 ST2000DM001, 2TB | β¬ 83,40 | β¬ 250,20 |
| 1 | Antec One | β¬ 49,- | β¬ 49,- |
| 2 | Kingston ValueRAM KVR1333D3N9K2/8G | β¬ 33,85 | β¬ 67,70 |
| 1 | Antec VP350P | β¬ 34,- | β¬ 34,- |
| Bekijk collectie Importeer producten | Totaal | β¬ 553,85 | |
Thuis heb ik nog een niet nader genoemde SSD (weet merk niet meer) voor L2ARC. En dan nog een 4 pin molex- 7 pin SATA van startech besteld, omdat die voeding maar 3 keer SATA voeding heeft. En nog 3 keer startech 49 cm SATA 7 pins kabels voor de Seagates besteld.
Waarschijnlijk ga ik met FreeNAS 8 starten hoewel ZFSGuru me ook wel aantrekt. Ik ben helaas nog een grote BSD noob itt linux/mac/windows.
Is er trouwens iemand die een unRAID systeem wil gaan bouwen die interesse heeft om gezamenlijk keys te kopen?
[ Voor 1% gewijzigd door Earzz op 22-12-2012 18:31 . Reden: typo ]
XboxLive: Dave 130R
Na alle forums afgestruind te hebben heb ook ik een server samengesteld.
Deze samenstelling is nog iets te hoog voor mijn budget en ik wil er wat "overkill" uithalen.
Gebruik:
XMBC database er op draaien benaderbaar door alle systemen in huis.
Opslag en afspelen via XMBC van mijn blu-ray/dvd/muziek collectie en foto's word documenten e.d.
Besturing: ZFSGuru / Raidz
Nu denk ik dat er vooral met het intern/ssd geheugen wat te bezuinigen valt.
Mijn gedachte nu:
- de 64 Gb SSD gebruiken voor L2ARC
- ongeveer 30Gb van de 128Gb gebruiken voor systeem en de overige ruimte gebruiken voor extra backup belangrijke data (foto's, documenten)
Grootste zorg:
Geen ervaring met zfs, wel met linux. vraag me af of xmbc database hier op kan draaien en benadering documenten alleen via Samba o.i.d.
UPDATE: Zorgen al wat minder. Lees in het zfs guru forum dat mysql er op draait. XMBC database draaien op systeem is geen probleem
| # | Product | Prijs | Subtotaal |
| 1 | Intel Celeron G530 Boxed | β¬ 37,90 | β¬ 37,90 |
| 1 | ASRock B75 Pro3-M | β¬ 57,90 | β¬ 57,90 |
| 4 | Seagate Barracuda 7200.14 ST3000DM001, 3TB | β¬ 119,50 | β¬ 478,- |
| 1 | Fractal Design Core 3000 | β¬ 54,90 | β¬ 54,90 |
| 1 | Corsair XMS3 CMX32GX3M4A1333C9 | β¬ 125,50 | β¬ 125,50 |
| 1 | Asus DVD-E818A6T Zwart | β¬ 16,45 | β¬ 16,45 |
| 1 | be quiet! Straight Power E9 400W | β¬ 67,51 | β¬ 67,51 |
| 1 | Crucial m4 CT064M4SSD2 64GB | β¬ 61,- | β¬ 61,- |
| 1 | Crucial m4 CT128M4SSD2 128GB | β¬ 89,50 | β¬ 89,50 |
| Bekijk collectie Importeer producten | Totaal | β¬ 988,66 | |
Deze samenstelling is nog iets te hoog voor mijn budget en ik wil er wat "overkill" uithalen.
Gebruik:
XMBC database er op draaien benaderbaar door alle systemen in huis.
Opslag en afspelen via XMBC van mijn blu-ray/dvd/muziek collectie en foto's word documenten e.d.
Besturing: ZFSGuru / Raidz
Nu denk ik dat er vooral met het intern/ssd geheugen wat te bezuinigen valt.
Mijn gedachte nu:
- de 64 Gb SSD gebruiken voor L2ARC
- ongeveer 30Gb van de 128Gb gebruiken voor systeem en de overige ruimte gebruiken voor extra backup belangrijke data (foto's, documenten)
Grootste zorg:
Geen ervaring met zfs, wel met linux. vraag me af of xmbc database hier op kan draaien en benadering documenten alleen via Samba o.i.d.
UPDATE: Zorgen al wat minder. Lees in het zfs guru forum dat mysql er op draait. XMBC database draaien op systeem is geen probleem
Ik denk dat als je voor thuis met een beperkt aantal gebruikers op de ssd's het snelste kunt bezuinigen, die kun je, desgewenst, altijd later nog toevoegen en voegen voor zo'n gebruikers scenario maar weinig toe.edmanh schreef op zondag 23 december 2012 @ 22:22:
Na alle forums afgestruind te hebben heb ook ik een server samengesteld.
Deze samenstelling is nog iets te hoog voor mijn budget en ik wil er wat "overkill" uithalen.
Gebruik:
XMBC database er op draaien benaderbaar door alle systemen in huis.
Opslag en afspelen via XMBC van mijn blu-ray/dvd/muziek collectie en foto's word documenten e.d.
- raid does not fix stupid -
idd, de SSD kan in theorie weg, maar bedenk je wel, dat als je daar ook van boot, dat dat een aanzienlijke stroombesparing oplevert, omdat je disks down kunnen spinnen. En juist de combinatie met boot + L2ARC is lekker zuinig!
Ik heb gemerkt dat zoeken en browsen door je pool echt véél sneller gaat met een L2ARC. En dan staat die van mij alleen nog maar op metadata only volgens mij.
Ik heb gemerkt dat zoeken en browsen door je pool echt véél sneller gaat met een L2ARC. En dan staat die van mij alleen nog maar op metadata only volgens mij.
Even niets...
Ik zou 1 ssd met partities gebruiken onder zfsguru. Voor deze build is 16gb denk meer dan genoeg. Daar kan je wat geld besparen
en je kan ook voor 3x3tb raidz1 gaan als je daar genoeg aan heb.
NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM
Ik ben er uit.
Bedankt voor de antwoorden.
Ik heb ook nog een hoop aan de ZFS-WiKi gehad.
Staat veel nuttige informatie samengevat op.
Ben uiteindelijk toch voor AMD gegaan mede om de 8 Sata-600 poorten (Thanx DaCoTa)
Heb uit kostenoverweging een ssd er uit gedaan en geheugen gehalveerd (Thanx victorb e.a.)
Ik heb nu nog 2 geheugensloten over voor uitbreiding.
Ga een 128Gb SSD gebruiken met 20G systeempartitie, 50G L2ARC en 50G Belangrijke documenten opslag.
Een externe ZIL heb ik laten varen omdat dit "gevaarlijk" kan zijn en de snelheidwinst voor mijn toepassing waarschijnlijk niet groot is.
Mijn grootste bezuiniging is om van 3 naar 2Tb schijven te gaan.
Voor de komende maanden is dit voor mij meer dan genoeg opslag.
Ik heb genoeg poorten en voedingsmogelijkheden over om later nog een aparte pool met drie 3 of 4Tb schijven te maken.
Hopelijk komt deze week alles nog binnen.
Zal foto's posten van de voortgang van het project.
Bedankt voor de antwoorden.
Ik heb ook nog een hoop aan de ZFS-WiKi gehad.
Staat veel nuttige informatie samengevat op.
| # | Product | Prijs | Subtotaal |
| 1 | AMD A4-5300 Boxed | β¬ 42,45 | β¬ 42,45 |
| 1 | Gigabyte GA-F2A85X-D3H | β¬ 80,30 | β¬ 80,30 |
| 3 | Seagate Barracuda 7200.14 ST2000DM001, 2TB | β¬ 82,50 | β¬ 247,50 |
| 1 | Fractal Design Core 3000 | β¬ 54,90 | β¬ 54,90 |
| 1 | Kingston ValueRAM KVR13N9K2/16 | β¬ 66,95 | β¬ 66,95 |
| 1 | Samsung SH-224BB Zwart | β¬ 15,45 | β¬ 15,45 |
| 1 | be quiet! Straight Power E9 500W | β¬ 85,30 | β¬ 85,30 |
| 1 | Crucial m4 CT128M4SSD2 128GB | β¬ 89,50 | β¬ 89,50 |
| Bekijk collectie Importeer producten | Totaal | β¬ 682,35 | |
Ben uiteindelijk toch voor AMD gegaan mede om de 8 Sata-600 poorten (Thanx DaCoTa)
Heb uit kostenoverweging een ssd er uit gedaan en geheugen gehalveerd (Thanx victorb e.a.)
Ik heb nu nog 2 geheugensloten over voor uitbreiding.
Ga een 128Gb SSD gebruiken met 20G systeempartitie, 50G L2ARC en 50G Belangrijke documenten opslag.
Een externe ZIL heb ik laten varen omdat dit "gevaarlijk" kan zijn en de snelheidwinst voor mijn toepassing waarschijnlijk niet groot is.
Mijn grootste bezuiniging is om van 3 naar 2Tb schijven te gaan.
Voor de komende maanden is dit voor mij meer dan genoeg opslag.
Ik heb genoeg poorten en voedingsmogelijkheden over om later nog een aparte pool met drie 3 of 4Tb schijven te maken.
Hopelijk komt deze week alles nog binnen.
Zal foto's posten van de voortgang van het project.
Ziet er als een nette gebalanceerde build uit!
Tof mobo met 8x sata!
NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM
@edmanh Je zou nog 40,- euro kunnen besparen op de voeding door een L7 300Watt versie te nemen van BeQuiet. 500Watt is wat overkill.
EDIT: Ik lees net dat je het spul al besteld hebt. Ik zie graag je build tegemoet!
EDIT: Ik lees net dat je het spul al besteld hebt. Ik zie graag je build tegemoet!
[ Voor 25% gewijzigd door Birdie_NL op 26-12-2012 12:27 ]
Ook bij mijn moet er en nieuw ZFS server komen.
Momenteel kom ik uit op deze build:
Als behuizing ben nog erg aan zoeken wil niet te veel uitgeven, ik zacht bij CFI wel erg leuk server case staan de CFI-A5000 iemand ervaring met deze case?
ook de fractal design arc midi of Fractal Design Define Mini lijk me leuke case.
iemand tips voor goede behuizing liefst ook niet te veel?
Ook nog even over asrock moederbord deze beschik over 6x sata poorts wie door de intel chipset aangestuurd worden en twee stuks door asmedia controller, werk dit probleemloos onder nas4free met ZFS?
Ik ga eerst met 3x 2TB shuifjes in RAID-z beginnen wat momenteel meer dan voldoende is, in de toekomst zal er nog wel en extra storage pool er bij kommen.
Verder nog iemand suggesties op deze build voor dat ik het bestel.
Momenteel kom ik uit op deze build:
| # | Product | Prijs | Subtotaal |
| 1 | Intel Celeron G540 Boxed | β¬ 35,45 | β¬ 35,45 |
| 1 | ASRock B75 Pro3-M | β¬ 57,90 | β¬ 57,90 |
| 3 | Seagate Barracuda 7200.14 ST2000DM001, 2TB | β¬ 82,50 | β¬ 247,50 |
| 1 | Corsair CMV16GX3M2A1600C11 | β¬ 60,50 | β¬ 60,50 |
| 1 | Cooler Master Silent Pro M2 420W | β¬ 54,95 | β¬ 54,95 |
| Bekijk collectie Importeer producten | Totaal | β¬ 456,30 | |
Als behuizing ben nog erg aan zoeken wil niet te veel uitgeven, ik zacht bij CFI wel erg leuk server case staan de CFI-A5000 iemand ervaring met deze case?
ook de fractal design arc midi of Fractal Design Define Mini lijk me leuke case.
iemand tips voor goede behuizing liefst ook niet te veel?
Ook nog even over asrock moederbord deze beschik over 6x sata poorts wie door de intel chipset aangestuurd worden en twee stuks door asmedia controller, werk dit probleemloos onder nas4free met ZFS?
Ik ga eerst met 3x 2TB shuifjes in RAID-z beginnen wat momenteel meer dan voldoende is, in de toekomst zal er nog wel en extra storage pool er bij kommen.
Verder nog iemand suggesties op deze build voor dat ik het bestel.
[ Voor 3% gewijzigd door Jonny55 op 27-12-2012 00:55 ]
Arc Midi is geweldig
Ik heb hem zelf ook. (Check de link onder dit bericht voor filmpje) Je kan een veel lichtere voeding nemen met 3 schijven
NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM
Zo, in de kerstvakantie aan de custom power kabels kunnen werken van mijn build.
Oorspronkelijk was het de bedoeling om de drie SSD's in het voorste gedeelte te plaatsen, maar daar kon ik ze jammer genoeg niet mooi vastmaken. Ze zijn dus in het HDD rek terecht gekomen voorlopig.
Kabels moeten nog netjes weggewerkt worden als de behuizing afgemaakt wordt. Een tweede sata power kabel komt er ook nog bij voor de rechtse 6 hdd's.

Volgende project staat alweerklaar, een behuizing voor minimaal 20 disks.
Oorspronkelijk was het de bedoeling om de drie SSD's in het voorste gedeelte te plaatsen, maar daar kon ik ze jammer genoeg niet mooi vastmaken. Ze zijn dus in het HDD rek terecht gekomen voorlopig.
Kabels moeten nog netjes weggewerkt worden als de behuizing afgemaakt wordt. Een tweede sata power kabel komt er ook nog bij voor de rechtse 6 hdd's.

Volgende project staat alweerklaar, een behuizing voor minimaal 20 disks.
Zou iemand mij advies kunnen geven of ik van 16 TB beter één partitie maak of deze opsplits in partities van 2TB? Deze ruimte dient alleen om iso's, mkv's enzovoort op te slagen.
Ik gebruik een revodrive als bootdisc en een ARC-1222 met bbu waar 8 WD Red 3TB mee verbonden zijn.
Het OS is Win 7.
Hoe organizeren jullie een volume + 10TB voor puur data opslag?
Ik gebruik een revodrive als bootdisc en een ARC-1222 met bbu waar 8 WD Red 3TB mee verbonden zijn.
Het OS is Win 7.
Hoe organizeren jullie een volume + 10TB voor puur data opslag?
Verwijderd
ESXi/ZFS server gaan bouwen ? SUPERMICRO MOBO+PROC
en UPSje nodig
en UPSje nodig
[ Voor 38% gewijzigd door Verwijderd op 01-01-2013 21:23 ]
Ikzelf heb nu losse harde schijven als partitie (gewone pc's). Mijn NAS daartegen heeft met RaidZ2 gewoon 12TB als 1 partitie. Ik zie het voordeel niet in meerdere partities hebben. De enige manier om meerdere partities te hebben, is als windows ook op de schijf staat. Een herinstallatie zorgt er dus niet direct voor dat mijn bestanden verwijderd worden.Jamesc schreef op donderdag 27 december 2012 @ 11:00:
Zou iemand mij advies kunnen geven of ik van 16 TB beter één partitie maak of deze opsplits in partities van 2TB? Deze ruimte dient alleen om iso's, mkv's enzovoort op te slagen.
Ik gebruik een revodrive als bootdisc en een ARC-1222 met bbu waar 8 WD Red 3TB mee verbonden zijn.
Het OS is Win 7.
Hoe organizeren jullie een volume + 10TB voor puur data opslag?
Als je een LVM group hebt met daarin meerdere devices, als 1 device eruit valt. Ben je de data kwijt van heel je groep. Enkel wat ik niet kan vinden. Kan je de overige data. Die als het ware op 1 deel van je group staat nog terug halen? Hoe wordt de data opgeslagen als het ware? Van begin tot eind, of worden de bits net zoals op een Raid set verdeeld over meerdere schijven?

Dit is wat ik deze dagen even wil realiseren.
Zou eventueel ook nog een extra 2TB kunnen kopen en met Raid5 beginnen.
Maar erg nuttig acht ik dat niet meer na het 'rebuild verhaal' Dan ben ik al mijn data kwijt.

Dit is wat ik deze dagen even wil realiseren.
Zou eventueel ook nog een extra 2TB kunnen kopen en met Raid5 beginnen.
Maar erg nuttig acht ik dat niet meer na het 'rebuild verhaal' Dan ben ik al mijn data kwijt.
[ Voor 14% gewijzigd door Dennisik op 27-12-2012 16:32 ]
Wat is het voordeel van zo'n ingewikkelde setup boven een enkele RAIDz2 volume, eventueel onderverdeeld in verschillende datasets ?
Waarom zou je nog RAID5 of 6 willen gebruiken met dergelijke setups ?
http://www.zdnet.com/blog...stops-working-in-2019/805
Waarom zou je nog RAID5 of 6 willen gebruiken met dergelijke setups ?
http://www.zdnet.com/blog...stops-working-in-2019/805
Omdat ik al veel data heb staan, met RAIDz2 kan ik hem niet laten groeien.Phuncz schreef op donderdag 27 december 2012 @ 16:58:
Wat is het voordeel van zo'n ingewikkelde setup boven een enkele RAIDz2 volume, eventueel onderverdeeld in verschillende datasets ?
Waarom zou je nog RAID5 of 6 willen gebruiken met dergelijke setups ?
http://www.zdnet.com/blog...stops-working-in-2019/805
ZFS is heel mooi systeem, maar heb al 4TB aan data staan. Dus dat wordt hem helaas niet.
Raid 6 is enkel voor belangrijke documenten, zie ook de grootte.
Het is slechts 200GB aan effectieve opslag. Voor de rest staat er niks redundant.
De reden voor een iets complexere setup, is dat het zo kwa grootte en hiΓ«rarchie voor mij perfect uitkomt.
Ik heb bijna 3TB aan hdtv staan, vandaar dat ik op LVM uitkom met 4x2TB.
Zo de eerste onderdelen zijn al binnen vandaag. De harde schijven, de voeding, de RAM latjes en de kabels. Het enige waarop ik nog wacht, is de kast. Deze was niet in magazijn en dit wordt half januariTrunksmd schreef op vrijdag 21 december 2012 @ 11:58:
Zo, definitief knoop doorgehakt. Zo is het besteld/reeds in bezit:
# Product Prijs Subtotaal 1 Asus E35M1-I DELUXE β¬ 152,95 β¬ 152,95 3 Seagate Barracuda 7200.14 ST2000DM001, 2TB β¬ 83,40 β¬ 250,20 1 Antec One β¬ 49,- β¬ 49,- 2 Kingston ValueRAM KVR1333D3N9K2/8G β¬ 33,85 β¬ 67,70 1 Antec VP350P β¬ 34,- β¬ 34,- Bekijk collectie
Importeer productenTotaal β¬ 553,85
Thuis heb ik nog een niet nader genoemde SSD (weet merk niet meer) voor L2ARC. En dan nog een 4 pin molex- 7 pin SATA van startech besteld, omdat die voeding maar 3 keer SATA voeding heeft. En nog 3 keer startech 49 cm SATA 7 pins kabels voor de Seagates besteld.
Na drie koningen hoop ik aan de slag te kunnen.
Misschien niet helemaal het juiste topic, maar ik vraag het toch maar hier, gezien het doel. Ik ben van plan om mijn servertje (zie onder "Server"), die momenteel eigenlijk gewoon een NAS is, wat te upgraden. Voornamelijk omdat ik meer dan 2 harddisks erin wil hebben, en dat kan niet op het huidige moederbord.
Ik heb een kleine behuizing, die ik graag wil blijven gebruiken omdat die prima aan mijn eisen voldoet (deze lijkt er nog het meeste op). Voor de upgrade ben ik van plan om de full-size dvd-drive eruit te halen en te vervangen voor zoiets, eventueel aangevuld met deze, voor als ik meer dan 4 harddisks wil.
Mijn doel is altijd geweest om m'n server enigszins zuinig te houden, vandaar dat er momenteel ook voornamelijk "laptop componenten" inzitten (chipset, cpu, 2,5" harddisks), en een mini-ITX moederbord met 80 watt FlexATX voeding.
Als moederbord heb ik deze in gedachten, met een intel core i3 3220T (35 watt tdp). Probleem wat ik alleen heb is de combinatie tussen moederbord en voeding. Waarschijnlijk zal ik een andere voeding moeten hebben, omdat mijn huidige alleen een 20-pins connector heeft, en niet meerdere 4-pins ATX aansluitingen erbij. Echter, de flexATX voedingen die ik heb gevonden hebben ook maar maximaal 1 4-pins aansluiting, terwijl het moederbord een 24+4 pins aansluiting heeft. Andere vergelijkbare miniITX moederborden hebben hetzelfde.
Dus... wat te doen? Werkt een moederbord zonder 1 van de 4-pins aansluitingen met deze voedingen, of moet ik een andere oplossing zoeken (pico voeding?). Ik wil graag alles in de behuizing houden, dus zonder losse adapter ernaast... Is dat mogelijk? Prijs is geen criterium.
Ik heb een kleine behuizing, die ik graag wil blijven gebruiken omdat die prima aan mijn eisen voldoet (deze lijkt er nog het meeste op). Voor de upgrade ben ik van plan om de full-size dvd-drive eruit te halen en te vervangen voor zoiets, eventueel aangevuld met deze, voor als ik meer dan 4 harddisks wil.
Mijn doel is altijd geweest om m'n server enigszins zuinig te houden, vandaar dat er momenteel ook voornamelijk "laptop componenten" inzitten (chipset, cpu, 2,5" harddisks), en een mini-ITX moederbord met 80 watt FlexATX voeding.
Als moederbord heb ik deze in gedachten, met een intel core i3 3220T (35 watt tdp). Probleem wat ik alleen heb is de combinatie tussen moederbord en voeding. Waarschijnlijk zal ik een andere voeding moeten hebben, omdat mijn huidige alleen een 20-pins connector heeft, en niet meerdere 4-pins ATX aansluitingen erbij. Echter, de flexATX voedingen die ik heb gevonden hebben ook maar maximaal 1 4-pins aansluiting, terwijl het moederbord een 24+4 pins aansluiting heeft. Andere vergelijkbare miniITX moederborden hebben hetzelfde.
Dus... wat te doen? Werkt een moederbord zonder 1 van de 4-pins aansluitingen met deze voedingen, of moet ik een andere oplossing zoeken (pico voeding?). Ik wil graag alles in de behuizing houden, dus zonder losse adapter ernaast... Is dat mogelijk? Prijs is geen criterium.
@Anton: Ik heb hier nog een 20->24 pin ATX adapter liggen, zijn 2 stekkers en wat kabel. Het mag AFAIK geen probleem zijn om zo'n adapter te gebruiken. Ding ligt hier alleen maar stof te happen. Bij interesse, stuur even een DM 
*gemompel over een IBM M1015 die niet in alle hardware geflashed wilt worden*
EDIT: Aargh... Mijn IBM M1015 wil niet gezien worden in mijn AMD systeem (Asus M3N-HT Mempipe/Deluxe met AMD Phenom II X4 940) en geeft PAL errors in mijn Intel systeem (Intel DH77DF met Intel Xeon E3-1265LV2). Verder heb ik eigenlijk geen systemen staan die ik hiervoor kan gebruiken, of toch in ieder geval niets met een PCIe slot... Iemand een idee of ik hier iets aan kan doen, of dat ik toch een andere PC moet zien te vinden?
EDIT2: En sas2flsh lijkt dus wΓ©l te draaien op mijn AMD systeem... Ik vind dit een vreemde kaart
Maar, so far so good 
EDIT3: Uiteindelijk lijkt alles het te doen, inclusief het LSI BIOS (wat natuurlijk niet nodig is, maargoed). Een vreemd geval, en ik hoop het dan ook niet (gauw) nogmaals te moeten doen.
*gemompel over een IBM M1015 die niet in alle hardware geflashed wilt worden*
EDIT: Aargh... Mijn IBM M1015 wil niet gezien worden in mijn AMD systeem (Asus M3N-HT Mempipe/Deluxe met AMD Phenom II X4 940) en geeft PAL errors in mijn Intel systeem (Intel DH77DF met Intel Xeon E3-1265LV2). Verder heb ik eigenlijk geen systemen staan die ik hiervoor kan gebruiken, of toch in ieder geval niets met een PCIe slot... Iemand een idee of ik hier iets aan kan doen, of dat ik toch een andere PC moet zien te vinden?
EDIT2: En sas2flsh lijkt dus wΓ©l te draaien op mijn AMD systeem... Ik vind dit een vreemde kaart
EDIT3: Uiteindelijk lijkt alles het te doen, inclusief het LSI BIOS (wat natuurlijk niet nodig is, maargoed). Een vreemd geval, en ik hoop het dan ook niet (gauw) nogmaals te moeten doen.
[ Voor 57% gewijzigd door Xudonax op 28-12-2012 18:49 ]
Alle moederborden zouden het met alleen die 20pins stekker gewoon moeten doen. Voor zover ik weet zijn die 4 pinnen alleen bedoeld voor de 75W die de pcie poort moet kunnen leveren.
Even niets...
Hmm, en die gebruik ik niet, dus dat zou waarschijnlijk wel moeten gaan. Maar er is ook nog een 4-pins cpu power aansluiting, en ik las al berichten dat sommige moederborden niet booten als die niet is aangesloten. Dus ik ga het gewoon proberen met de kabel van Xudonax (je hebt een berircht) en dan zien we wel.FireDrunk schreef op vrijdag 28 december 2012 @ 18:07:
Alle moederborden zouden het met alleen die 20pins stekker gewoon moeten doen. Voor zover ik weet zijn die 4 pinnen alleen bedoeld voor de 75W die de pcie poort moet kunnen leveren.
Ik heb uiteindelijk ook deze gevonden, en die heeft wel 20+4+4 pins connectoren, dus als mijn 85 watt voeding niet genoeg is (voor een i3 3220T, 2x WD Green 2,5", 2x Samsung 2,5" en een intel X25E SSD
Die is wel verplicht inderdaad. Daar word de CPU direct door gevoed, dat gebeurd dus niet meer via de 20/24 pins ATX stekker.
Even niets...
Waarom een 3220T? Je weet dat de non-T uitvoering net zo zuinig in idle is als een gewone T? Het enige dat gemaximeerd is, is de maximale klokfrequentie om makkelijkere koeling mogelijk te maken. Qua prijs en besparing maakt het namelijk verder geen bal uit. Je beperkt er alleen jezelf mee uiteindelijk als je hier geen beperkingen in hebt (koeling, ruimte voor koeling).Anton schreef op vrijdag 28 december 2012 @ 19:02:
[...]
Ik heb uiteindelijk ook deze gevonden, en die heeft wel 20+4+4 pins connectoren, dus als mijn 85 watt voeding niet genoeg is (voor een i3 3220T, 2x WD Green 2,5", 2x Samsung 2,5" en een intel X25E SSD) kan ik die altijd nog kopen...
Verwijderd
Vergeet niet dat de T en S modellen een ruimere Turbo Core marge hebben van tot 1GHz speling, wat veel meer is dan de 400MHz die de normale topmodellen krijgen. De single-threaded performance is vrijwel gelijk. Alleen multi-threaded lever je in en wellicht grafische prestaties wat voor een NAS niet zo spannend zal zijn. Niet alle Xeons hebben ook een grafische core, omdat toch vaak IPMI enzo gebruikt wordt op serverbordjes.Het enige dat gemaximeerd is, is de maximale klokfrequentie om makkelijkere koeling mogelijk te maken.
Zoals je in zijn post kon lezen heeft hij een voeding met een beperkt wattage. Dat is ook vanwege de zuinigheid zo vermoed ik. Als je een model hebt met maximaal wattage moet je dat wel kunnen leveren en je voeding moet afdoende zijn. Bovendien moet je dan ook koeling hebben die dat kan afvoeren, dus passief gekoeld wordt dan ook veel lastiger. Kortom, de voordelen in de praktijk van een T model kunnen prima opwegen tegen de nadelen van net iets mindere SMP/multithreaded performance en eventueel grafische prestaties.
Bekijk dit kaartje van Hawell eens, wat vrijwel gelijk is aan Ivy Bridge, en zie dat de T modellen erg weinig single threaded clock inleveren, maar wel een 1GHz aan multicore performance. 2.5GHz ipv 3.5GHz. Daar bespaar je dus 50% TDP mee, grof gezegd. Dat vind ik best interessant.
[ Voor 27% gewijzigd door Verwijderd op 28-12-2012 20:51 ]
Mocht er nog iemand op zoek zijn naar harde schijven met een goede β¬/GB verhouding, bij de MM hebben ze nu een externe 3TB schijf in de aanbieding voor β¬ 115,-
Eigenlijk te gek dat deze goedkoper is dan een losse interne schijf maar ja. Op Amazon stond bij het 2 TB model vermeld dat er oa Samsung of Seagate schijven in kunnen zetten.
Eigenlijk te gek dat deze goedkoper is dan een losse interne schijf maar ja. Op Amazon stond bij het 2 TB model vermeld dat er oa Samsung of Seagate schijven in kunnen zetten.
Dat heeft ook zijn redenen: zodra je de schijf uit de behuizing haalt, vervalt de garantie op de externe schijf en op die interne OEM-schijf krijg je geen garantie. Het is een risico dat je neemt.
Heeft er eigenlijk nog iemand naar me nieuwe build gekeken? paar berichten terug.
ik zou graag het volgende willen weten:
het ASRock B75 Pro3-M heeft in totaal 8x sata poorts en twee daarvan zijn van en andere controller de asmedia. gaat dit zonderprobleem werken met harde schijven in ZFS?
ik zou graag het volgende willen weten:
het ASRock B75 Pro3-M heeft in totaal 8x sata poorts en twee daarvan zijn van en andere controller de asmedia. gaat dit zonderprobleem werken met harde schijven in ZFS?
Vraag dit eventueel in ZFS topic, het hangt van waarop je ZFS gaat draaien, onlinux werkt, illumos niet (nexenta+openindiana en al hun derivaten).Jonny55 schreef op zaterdag 29 december 2012 @ 01:37:
Heeft er eigenlijk nog iemand naar me nieuwe build gekeken? paar berichten terug.
ik zou graag het volgende willen weten:
het ASRock B75 Pro3-M heeft in totaal 8x sata poorts en twee daarvan zijn van en andere controller de asmedia. gaat dit zonderprobleem werken met harde schijven in ZFS?
voor 4 euro meer, heb je een interne schijf.Nielson schreef op vrijdag 28 december 2012 @ 20:57:
Mocht er nog iemand op zoek zijn naar harde schijven met een goede β¬/GB verhouding, bij de MM hebben ze nu een externe 3TB schijf in de aanbieding voor β¬ 115,-
Eigenlijk te gek dat deze goedkoper is dan een losse interne schijf maar ja. Op Amazon stond bij het 2 TB model vermeld dat er oa Samsung of Seagate schijven in kunnen zetten.
En das zeker met het oog op de garantie wel zo makkelijk
Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d
Is snelle datatransfer via Intel 10GbE AF DA (twinax) mogelijk?
Situatie schets:
Server: ESXI 5.1 met een opendindiana / nappit virtual machine
Workstation: windhoos 7 ultimate
Beide machines hebben deze 10 GbE kaart en via iperf met 4 parallele streams krijg ik 5 gbps over de kabel.
Nu wil ik ook graag via bv iscsci of op een andere manier vanuit de workstation een dataverbinding hebben met meerdere 100 megabytes per seconde. Helaas lukt mij dit niet goed. Bv multipathio is een lastig probleem.
Vraagjes
Is dit uberhaupt mogelijk met deze kaarten? Zo ja, hoe precies?
Zo nee, wat is een alternatief ? (Femme (in topic zfs/comstar) had gezegd dat het goed ging met infinniband, maar daar lees ik ook slechte berichten over.)
Situatie schets:
Server: ESXI 5.1 met een opendindiana / nappit virtual machine
Workstation: windhoos 7 ultimate
Beide machines hebben deze 10 GbE kaart en via iperf met 4 parallele streams krijg ik 5 gbps over de kabel.
Nu wil ik ook graag via bv iscsci of op een andere manier vanuit de workstation een dataverbinding hebben met meerdere 100 megabytes per seconde. Helaas lukt mij dit niet goed. Bv multipathio is een lastig probleem.
Vraagjes
Is dit uberhaupt mogelijk met deze kaarten? Zo ja, hoe precies?
Zo nee, wat is een alternatief ? (Femme (in topic zfs/comstar) had gezegd dat het goed ging met infinniband, maar daar lees ik ook slechte berichten over.)
Zoals eerder beloofd de Foto's



| # | Product | Prijs | Subtotaal |
| 1 | AMD A4-5300 Boxed | β¬ 42,45 | β¬ 42,45 |
| 1 | Gigabyte GA-F2A85X-D3H | β¬ 80,50 | β¬ 80,50 |
| 3 | Seagate Barracuda 7200.14 ST2000DM001, 2TB | β¬ 82,50 | β¬ 247,50 |
| 1 | Fractal Design Core 3000 | β¬ 54,90 | β¬ 54,90 |
| 1 | Kingston ValueRAM KVR13N9K2/16 | β¬ 66,95 | β¬ 66,95 |
| 1 | Samsung SH-224BB Zwart | β¬ 15,45 | β¬ 15,45 |
| 1 | be quiet! Straight Power E9 500W | β¬ 80,20 | β¬ 80,20 |
| 1 | Crucial m4 CT128M4SSD2 128GB | β¬ 89,90 | β¬ 89,90 |
| Bekijk collectie Importeer producten | Totaal | β¬ 677,85 | |



[ Voor 6% gewijzigd door edmanh op 30-12-2012 18:44 ]
Toffe build!
NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM
Ga nog een paar kleine dingen aanpassen en dan zal ik het van de week meten......
Wordt wel volgend jaar
Leuke topic 
Ik was op zoek naar een vervanger van mijn bejaarde conceptronic nasje en ben vanwege de prijzen van complete appliances maar gaan kijken naar een DIY. En er is voldoende keus qua software - er ging een wereld voor me open.
In eerste instantie had ik een boodschappenlijstje klaar met hardware componenten zoals moederbord, voeding enzovoorts, maar stuite op de HP microserver. Wat een geschikte en vooral belachelijk goedkope oplossing.
Een dilemma: ik wil het meeste halen uit de setup aangezien het een 24/7 servertje wordt en dacht aan virtualisatie:
Hardware:
* HP N40L (8 of 16GB geheugen)
* 2x SSD 120GB (Voor het OS)
* 3x 2TB Green HDD's
Software:
* OS (het dilemma): Proxmox (Debian/RHEL kernel met OpenVZ en KVM)
* ZFS
* NAS applicance of GUI voor ZFS wordt ZFSGuru (vooral vanwege support virtio FBSD9)
Set-up:
- De 2 SSD schijven in mirror voor de host O/S en VM storage
(Lijkt me zonde en misschien is het beter (ook voor ZIL en mogelijk L2ARC) de tweede SSD als standby backup schijf voor de VM's in te richten).
- ZFSGuru als VM (KVM) met block en ethernet devices para-viruteel met virtio. Las dat de AMD in de HP server enkel AMD-V ondersteund en geen AMD-Vi (wat host devices direct kan benaderen - ik zie virtio als oplossing voor dit gebrek).
- De 3 HDD's in een RAIDZ voor opslag
Met bovenstaande opzet verwacht ik een voordelige, flexibele en goed presterend (voor thuisgebruik) nas/vm server. Voor de overige VM's dacht ik aan een klein webserver/mailserver, een sabnzbd/sickbeard download server en een opencloud server. Allen als OpenVZ partitie.
Ik ben zeer benieuwd naar ervaringen/advies van diegene die gevirtualiseerd hebben met kvm, openvz of xen.
groet, spectator..
Ik was op zoek naar een vervanger van mijn bejaarde conceptronic nasje en ben vanwege de prijzen van complete appliances maar gaan kijken naar een DIY. En er is voldoende keus qua software - er ging een wereld voor me open.
In eerste instantie had ik een boodschappenlijstje klaar met hardware componenten zoals moederbord, voeding enzovoorts, maar stuite op de HP microserver. Wat een geschikte en vooral belachelijk goedkope oplossing.
Een dilemma: ik wil het meeste halen uit de setup aangezien het een 24/7 servertje wordt en dacht aan virtualisatie:
Hardware:
* HP N40L (8 of 16GB geheugen)
* 2x SSD 120GB (Voor het OS)
* 3x 2TB Green HDD's
Software:
* OS (het dilemma): Proxmox (Debian/RHEL kernel met OpenVZ en KVM)
* ZFS
* NAS applicance of GUI voor ZFS wordt ZFSGuru (vooral vanwege support virtio FBSD9)
Set-up:
- De 2 SSD schijven in mirror voor de host O/S en VM storage
(Lijkt me zonde en misschien is het beter (ook voor ZIL en mogelijk L2ARC) de tweede SSD als standby backup schijf voor de VM's in te richten).
- ZFSGuru als VM (KVM) met block en ethernet devices para-viruteel met virtio. Las dat de AMD in de HP server enkel AMD-V ondersteund en geen AMD-Vi (wat host devices direct kan benaderen - ik zie virtio als oplossing voor dit gebrek).
- De 3 HDD's in een RAIDZ voor opslag
Met bovenstaande opzet verwacht ik een voordelige, flexibele en goed presterend (voor thuisgebruik) nas/vm server. Voor de overige VM's dacht ik aan een klein webserver/mailserver, een sabnzbd/sickbeard download server en een opencloud server. Allen als OpenVZ partitie.
Ik ben zeer benieuwd naar ervaringen/advies van diegene die gevirtualiseerd hebben met kvm, openvz of xen.
groet, spectator..
Verwijderd
Als je dit gaat proberen, dus ZFSguru onder een KVM virtualisatie gooien, ben ik erg benieuwd naar je bevindingen. Bedenk wel dat dat dit een exotische setup is waar je soms tegen vervelende issues kunt aanlopen. Virtualisatie en FreeBSD is nog niet als een vis in het water wat voor Linux bijvoorbeeld toch anders ligt.
Zelf denk ik: waarom die extra complexiteit? Waarom niet gewoon ZFSguru als basis houden en met Virtualbox klooien voor wat extra operating systems die je wilt draaien. Je kunt denk ik een heleboel al native op ZFSguru/FreeBSD draaien. Uit veiligheidsoverwegingen doe je dat liever in een jail of virtual machine. Maar beide opties zijn mogelijk. Door ZFSguru als host te draaien heb je niet de problemen die kunnen opduiken.
Bijvoorbeeld; hoe gaat zo'n setup met Proxmox als host en ZFSguru als guest VM om met bad sectors? Is het dan FreeBSD die bepaalt wat er gebeurt? Of is het dan de Debian/RHEL kernel die bepaalt wat er gebeurt? Je snapt mijn punt, door ZFSguru als host te houden, hoef je met dit soort vraagstukken geen rekening te houden.
In de toekomst zal FreeBSD Xen dom0 ondersteuning krijgen, daar wordt nu aan gewerkt. Geloof nog niet gecommit naar 10-CURRENT.
Voor minder ingewijden: Xen dom0 betekent dat ZFSguru zelf 'host' operating system is en andere operating systems virtualiseert binnen de Xen hypervisor. Dit zou mogelijk zelfs een configuratie mogelijk kunnen maken waarbij je ZFSguru als host draait en een Windows guest met native toegang tot de videokaart/IGP om ook gamen mogelijk te maken. Niet dat ik zo snel zou willen gamen op mijn server, maar voor mensen die een all-in-one computer willen hebben waar meerdere operating systems op draaien, lijkt het mij fijn als je de host een stabiel UNIX systeem hebt die gelijk ook de opslag doet zodat die in elk geval veilig is. Kortom, Xen dom0 gaat veel meer flexibiliteit betekenen voor FreeBSD platforms zoals ZFSguru. Nu ondersteunt FreeBSD alleen Xen domU (guest) en 64-bit nog met beperkingen. Niet ideaal dus.
Verder je twee SSDs zou je dan in ZFSguru kunnen gebruiken als een mirror partitie voor je systeem/boot pool en een partitie voor L2ARC en eventueel SLOG/dedicated ZIL. En een gedeelte wat je vrij laat voor overprovisioning. Als je SLOG wilt, moet je wel een beveiligde SSD nemen zoals Intel 320. De SLOG in mirror draaien op twee onbeschermde SSDs is nog steeds onvoldoende. Je zult dan regelmatig een transactiegroup terugdraaien, dus verder terug in de tijd. Ik kan dat niet aanraden. De L2ARC cache partitie kun je in RAID0 gebruiken, dus twee partities op twee SSDs die je toevoegt als cache.
Zelf denk ik: waarom die extra complexiteit? Waarom niet gewoon ZFSguru als basis houden en met Virtualbox klooien voor wat extra operating systems die je wilt draaien. Je kunt denk ik een heleboel al native op ZFSguru/FreeBSD draaien. Uit veiligheidsoverwegingen doe je dat liever in een jail of virtual machine. Maar beide opties zijn mogelijk. Door ZFSguru als host te draaien heb je niet de problemen die kunnen opduiken.
Bijvoorbeeld; hoe gaat zo'n setup met Proxmox als host en ZFSguru als guest VM om met bad sectors? Is het dan FreeBSD die bepaalt wat er gebeurt? Of is het dan de Debian/RHEL kernel die bepaalt wat er gebeurt? Je snapt mijn punt, door ZFSguru als host te houden, hoef je met dit soort vraagstukken geen rekening te houden.
In de toekomst zal FreeBSD Xen dom0 ondersteuning krijgen, daar wordt nu aan gewerkt. Geloof nog niet gecommit naar 10-CURRENT.
Voor minder ingewijden: Xen dom0 betekent dat ZFSguru zelf 'host' operating system is en andere operating systems virtualiseert binnen de Xen hypervisor. Dit zou mogelijk zelfs een configuratie mogelijk kunnen maken waarbij je ZFSguru als host draait en een Windows guest met native toegang tot de videokaart/IGP om ook gamen mogelijk te maken. Niet dat ik zo snel zou willen gamen op mijn server, maar voor mensen die een all-in-one computer willen hebben waar meerdere operating systems op draaien, lijkt het mij fijn als je de host een stabiel UNIX systeem hebt die gelijk ook de opslag doet zodat die in elk geval veilig is. Kortom, Xen dom0 gaat veel meer flexibiliteit betekenen voor FreeBSD platforms zoals ZFSguru. Nu ondersteunt FreeBSD alleen Xen domU (guest) en 64-bit nog met beperkingen. Niet ideaal dus.
Verder je twee SSDs zou je dan in ZFSguru kunnen gebruiken als een mirror partitie voor je systeem/boot pool en een partitie voor L2ARC en eventueel SLOG/dedicated ZIL. En een gedeelte wat je vrij laat voor overprovisioning. Als je SLOG wilt, moet je wel een beveiligde SSD nemen zoals Intel 320. De SLOG in mirror draaien op twee onbeschermde SSDs is nog steeds onvoldoende. Je zult dan regelmatig een transactiegroup terugdraaien, dus verder terug in de tijd. Ik kan dat niet aanraden. De L2ARC cache partitie kun je in RAID0 gebruiken, dus twee partities op twee SSDs die je toevoegt als cache.
Bij KVM heb je al heel lang 'RDM', je kan via VirtIO gewoon een hele disk doorgeven.
Het lijkt mij dus logisch dat je hetzelfde gedrag krijgt wat een Linux kernel normaal doet.
http://wiki.freebsd.org/FreeBSD/Xen
http://xenbits.xen.org/pe...opers_summit_XEN_2012.ppt
TLDR;
In de 2e link staat dat ze eerst Guest support 100% af moeten hebben voordat ze van DomU naar Dom0 kunnen upgraden. Dat kost dan weer wat werk in drivers en wat kernel ringen (ring0 hebben ze het over).
Dus ik verwacht het niet binnen een jaar.
Het lijkt mij dus logisch dat je hetzelfde gedrag krijgt wat een Linux kernel normaal doet.
http://wiki.freebsd.org/FreeBSD/Xen
http://xenbits.xen.org/pe...opers_summit_XEN_2012.ppt
TLDR;
In de 2e link staat dat ze eerst Guest support 100% af moeten hebben voordat ze van DomU naar Dom0 kunnen upgraden. Dat kost dan weer wat werk in drivers en wat kernel ringen (ring0 hebben ze het over).
Dus ik verwacht het niet binnen een jaar.
[ Voor 52% gewijzigd door FireDrunk op 02-01-2013 20:25 ]
Even niets...
Zijn er eigenlijk mensen hier die met hun DIY NAS dezelfde functionaliteit hebben als mensen met een Synology? Dan doel ik vooral op het gebruik van Android/iOS Apps om je apparaat te kunnen benaderen
Wellicht niet altijd via een flashy app. Maar voorlopig kan ik vanaf mijn android handy/tablet mbv putty via ssh inloggen op de management vm en dan door ssh-en de andere servers in. Dingen zoals sabnzb/Sickbeard kun je via de browser doen of met een app als unity welke zowel sabnzb/SickBeard aan kan (couchpotato en headphones geloof ik ook, maar die gebruik ik niet). Notify My Android (NMA) is wel leuk als SickBeard zijn werk heeft laten doen door sabnzb, jammer genoeg kan t aantal free meldingen (10 stuks) te beperkt zijn).De_Bastaard schreef op donderdag 03 januari 2013 @ 12:39:
Zijn er eigenlijk mensen hier die met hun DIY NAS dezelfde functionaliteit hebben als mensen met een Synology? Dan doel ik vooral op het gebruik van Android/iOS Apps om je apparaat te kunnen benaderen
Vanmiddag nog vanuit een cafe (chai'ne loska in St Petersburg RU) met gratis wifi internet de boel gecontroleerd en liep als een tierlier.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Ik lees al een tijdje 'het grote ZFS topic' en ben nu op het moment aangekomen om zelf over te stappen naar ZFS. Voordat ik begin is één ding me niet duidelijk. Ik was van plan deze vraag te stellen op het grote ZFS topic, totdat ik de melding zag dat het voor hardware vragen beter was in dit topic te posten. Ik hoop dat ik nu goed zit
Ik heb een bescheiden server die nu met 2 x 2TB Samsung Spinpoint F4 HD204UI in Raid0 draait. Dit wil ik vervangen en uitbreiden naar 5 x 2TB in ZFS RaidZ1. Ik heb op dit moment 4 x 2TB Samsung F4 HD204UI schijven in bezit. Deze worden voor zover ik weet niet meer verkocht ivm overname van Seagate. Ik heb nog 1x een 2TB schijf nodig. Kan ik ivm ZFS en RaidZ gewoon een willekeurige 2TB schijf gebruiken of is het beter een Seagate of Samsung F4 HD204UI schijf aan te schaffen, eventueel tweede hands?
Ik heb een bescheiden server die nu met 2 x 2TB Samsung Spinpoint F4 HD204UI in Raid0 draait. Dit wil ik vervangen en uitbreiden naar 5 x 2TB in ZFS RaidZ1. Ik heb op dit moment 4 x 2TB Samsung F4 HD204UI schijven in bezit. Deze worden voor zover ik weet niet meer verkocht ivm overname van Seagate. Ik heb nog 1x een 2TB schijf nodig. Kan ik ivm ZFS en RaidZ gewoon een willekeurige 2TB schijf gebruiken of is het beter een Seagate of Samsung F4 HD204UI schijf aan te schaffen, eventueel tweede hands?
Als de schijf ongeveer even snel is, en Advanced Format is, gaat het allemaal prima.
Dan kan je een 4k-optimized array maken.
Dan kan je een 4k-optimized array maken.
Even niets...
Bedankt voor het snelle antwoord! Ik neem aan dat je met de snelheid alleen de rotatiesnelheid van 5400 rpm bedoelt?FireDrunk schreef op vrijdag 04 januari 2013 @ 20:51:
Als de schijf ongeveer even snel is, en Advanced Format is, gaat het allemaal prima.
Dan kan je een 4k-optimized array maken.
Meer de algemene snelheid van de disk, dus cache, rotatiesnelheid, platter dichtheid en latentie. Om een gigabit verbinding vol te trekken maakt het weinig uit of je 2e hands nog een harde schijf zoekt of eentje van seagate neemt. Hou er wel rekening mee dat RaidZ1 de snelheid aanhoudt van de langzaamste disk.casss schreef op vrijdag 04 januari 2013 @ 21:16:
[...]
Bedankt voor het snelle antwoord! Ik neem aan dat je met de snelheid alleen de rotatiesnelheid van 5400 rpm bedoelt?
Dat dus, neem dus niet een F3 2TB ofzo, die oude krengen worden warmer, verbruiken meer stroom, en zijn een stuk trager.
Elke recente 2TB schijf is prima (ook SATA600 is geen probleem).
Elke recente 2TB schijf is prima (ook SATA600 is geen probleem).
Even niets...
Duidelijk, ik ga op zoek naar een recente 2TB schijf die overeen komt met mijn F4's. Een nieuwe schijf heeft toch mijn voorkeur of het prijsverschil met 2de hands moet flink zijn. Een snelle blik in de pricewatch laat niet veel 2TB schijven a 5400rpm zien. Alleen een aantal van Western Digital. Ik zal er morgen eens rustig voor gaan zitten.
De F4 schijven heb ik een aantal jaar geleden genomen na het volgen van 'Nieuwe Zuinige Server' topic.
De F4 schijven heb ik een aantal jaar geleden genomen na het volgen van 'Nieuwe Zuinige Server' topic.
Ik heb er hier 6, maar die draaien in een RAIDZ2 array
Even niets...
Daar heb ik ook aan gedacht maar verwacht dat RAIDZ1 voor mij als ZFS beginner voldoende zal zijn. RAIDZ2 kost toch weer een extra schijf.
Ze bevallen mij prima, nu ik me er weer in verdiep zie ik dat ik geluk heb gehad ivm corrupte firmware. Is helemaal aan me voorbij gegaan.
Ik heb ze okt 2010 aangeschaft. Zal voor de nieuwe installatie toch ook maar een firmware update uitvoeren. Beter laat dan nooit.
Ze bevallen mij prima, nu ik me er weer in verdiep zie ik dat ik geluk heb gehad ivm corrupte firmware. Is helemaal aan me voorbij gegaan.
RAIDZ1 of Z2 heeft weinig met ervaring te maken maar vooral met betrouwbaarheid: je array mag gerust één defecte schijf hebben, maar vergeet niet dat rebuilding lang kan duren (dagen) met meerdere terabytes en dan kan elke falende schijf het einde van al je data betekenen.
Mijn advies is ofwel een RAIDZ2 (even aantal drives) ofwel een mirrored RAIDZ1 dus (2x "3-disk RAIDZ1").
Mijn advies is ofwel een RAIDZ2 (even aantal drives) ofwel een mirrored RAIDZ1 dus (2x "3-disk RAIDZ1").
Ja is mogelijk. Zelf heb iets vergelijkbaars opgezet middels een tweetal Brocade 10GB kaartjes (welke overigens te koop zijn, mocht je geinteresseerd zijn) link naar de oude advertentie:groen-geel schreef op zaterdag 29 december 2012 @ 13:42:
Is dit uberhaupt mogelijk met deze kaarten? Zo ja, hoe precies?
Zo nee, wat is een alternatief ? (Femme (in topic zfs/comstar) had gezegd dat het goed ging met infinniband, maar daar lees ik ook slechte berichten over.)
V&A aangeboden: 10GbE netwerk set (2x Brocade 1020, 10GbE adapter set + SFP's & 1m fibre kabel)
DM maar als je meer wilt weten.
Deel 3 van mijn ZFS NAS Homeserver serie is nu ook online!
Ik ben van 5x3tb naar 6x3tb gegaan want raidz2 met 4k sector is toch het beste met 6 disken inplaats van 5
Als OS heb ik weer ZFSguru geinstaleerd. De disk management bevalt me er goed en met een regel in de /etc/rc.conf onthoud zfsguru en transmission netjes de download locatie! De snelheid is perfect 110+ over nfs en 100+ over samba
Wat ik ook heb gedaan is per onderdeel het idle verbruik gemeten. De resultaten zitten in het filmpje. Ik heb het systeem opgebouwd en steeds de onderdelen die ik toe heb gevoegt gemeten. Zo is er een goed overzicht onstaan waar het verbruik zit.
Ook heb ik weer wat benchmarks resultaten toegevoegt en laat ik mijn UPS zien.
Deel1: http://www.youtube.com/watch?v=kBYMVUNrvDY
Deel2: http://www.youtube.com/watch?v=AyXasKDtcFQ
NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM
Leuk filmpje weer
Zou het niet nog wat schelen in stroomverbruik als je in plaats van de 500GB schijven hier 2.5 inch schijfjes voor zou gebruiken?
Je brengt me aan het twijfelen. Ik snap je punt en het voordeel daarvan. Het nadeel is dat ik maar 6 SATA poorten heb. 1 voor SSD en dan blijven er nog maar 5 over voor de 2TB hdd's. Tevens is het minimaal β¬ 80,- duurder. Zat daarom op RAIDZ1. De echt belangrijke data staat ook op een externe hdd. Ik zal eens gaan overleggen.Phuncz schreef op zaterdag 05 januari 2013 @ 09:59:
RAIDZ1 of Z2 heeft weinig met ervaring te maken maar vooral met betrouwbaarheid: je array mag gerust één defecte schijf hebben, maar vergeet niet dat rebuilding lang kan duren (dagen) met meerdere terabytes en dan kan elke falende schijf het einde van al je data betekenen.
Mijn advies is ofwel een RAIDZ2 (even aantal drives) ofwel een mirrored RAIDZ1 dus (2x "3-disk RAIDZ1").
Ga je die SSD gebruiken voor caching of enkels als boot ? Anders gebruik je gewoon een USB stick om van te booten. Maar ik begrijp als 6 SATA-poorten je limiet zijn met een SSD als cache dat je niet veel opties hebt. Dan zou ik nog steeds overwegen om een "off-site" backup te zetten ergens in het huis, al is het maar voor de belangrijkste data.
Zelf ben ik dat in de toekomst ook van plan: NAS en 2de backup ergens aan beide kanten van het huis, zelfs als er dan brand uit breekt of er wordt ingebroken, is de kans zeer reeΓ«l dat de 2de storage (uit het zicht, aan een buitendeur) wel gered kan worden. Dat is misschien heel extreem voor thuisgebruik maar ik heb al op teveel manieren mijn data verloren zelf
Zelf ben ik dat in de toekomst ook van plan: NAS en 2de backup ergens aan beide kanten van het huis, zelfs als er dan brand uit breekt of er wordt ingebroken, is de kans zeer reeΓ«l dat de 2de storage (uit het zicht, aan een buitendeur) wel gered kan worden. Dat is misschien heel extreem voor thuisgebruik maar ik heb al op teveel manieren mijn data verloren zelf
RAIDZ1 is in principe goed genoeg, op het moment dat er een schijf faalt draai je eerst nog een extra backup richting externe schijf en start daarna pas een eventuele resilver.
Als je die externe schijf offsite bewaard heb je echt geen RAIDZ2 nodig.
Als je die externe schijf offsite bewaard heb je echt geen RAIDZ2 nodig.
Even niets...
In mijn huidige situatie gebruik ik mijn SSD als boot schijf met OS Ubuntu erop. Ben het caching gedeelte tegengekomen maar nog niet echt ingelezen. Weet het dus nog niet. Het is geen spectaculaire SSD, een OCZ Onyx SATA II 2.5" SSD 64GB. Gaat me dit veel performance opleveren? Ik dacht de SSD als boot schijf te gebruiken met OS en overige software erop en dan de RAIDZ voor alle data.
Na overleg en wat denken heb ik besloten voor RAIDZ1 te gaan. Is voor mij voldoende, kan zo 1 falende schijf opvangen. De belangrijkste data staat ook extern. Goeie tip om het off-site te bewaren, ga dit in het vervolg doen.
Na overleg en wat denken heb ik besloten voor RAIDZ1 te gaan. Is voor mij voldoende, kan zo 1 falende schijf opvangen. De belangrijkste data staat ook extern. Goeie tip om het off-site te bewaren, ga dit in het vervolg doen.
Ik zou geen L2ARC op die SSD zetten... Een Onyx is zo ongeveer de meest budget SSD die er is.
Dat ding is dus in een paar weken/maanden doorgesleten.
Voordeel van je OS op een SSD is ook vooral dat je harde schijfen in standby kunnen
Scheelt een hoop stroom.
Dat ding is dus in een paar weken/maanden doorgesleten.
Voordeel van je OS op een SSD is ook vooral dat je harde schijfen in standby kunnen
Scheelt een hoop stroom.
Even niets...
Verwijderd
Waar anders moet die Onyx nuttig dienst voor doen? Ik zelf denk juist dat dit soort budget SSDs uitstekend geschikt zijn voor L2ARC om de simpele redenen dat deze SSDs te onbetrouwbaar zijn om als systeemdisk te gebruiken op een onbeveiligd platform (NTFS, Ext4). Maar als L2ARC cache kan de SSD nog wel degelijk nuttig werk doen en de corruptie is opeens geen probleem meer.
Kortom, juist die slechte SSDs lekker opstoken als L2ARC dan heb je er tenminste nog iets nut van over gehad, en je betere SSDs zoals Intel 320, Crucial M4 en Samsung 830 lekker in je Windows PC steken dat zijn uitstekende systeemdisks.
Zelfs een USB stick kan nuttig zijn als L2ARC, al is het enkel voor de metadata.
Kortom, juist die slechte SSDs lekker opstoken als L2ARC dan heb je er tenminste nog iets nut van over gehad, en je betere SSDs zoals Intel 320, Crucial M4 en Samsung 830 lekker in je Windows PC steken dat zijn uitstekende systeemdisks.
Zelfs een USB stick kan nuttig zijn als L2ARC, al is het enkel voor de metadata.
Ja heb ik wel aan gedacht alleen had deze disken nog liggen. Dus waarom niet gebruikenB2 schreef op zaterdag 05 januari 2013 @ 14:12:
Leuk filmpje weerZou het niet nog wat schelen in stroomverbruik als je in plaats van de 500GB schijven hier 2.5 inch schijfjes voor zou gebruiken?
NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM
Verwijderd
Heb je DIPM al geprobeerd, victor? Zie de /boot/loader.conf voor DIPM (vanaf 9.1-004) en je kunt die regels uncommenten. Dat kan op onboard controllers zoals ASMedia/Intel enzo. Scheelt ook weer iets. 
Het mooie is dat mijn Intel SSDs in combinatie met Intel onboard controller minder dan 0,1 watt verbruikt met DIPM. Het mooie is: zelfs met helemaal geen disks op de Intel controller, had DIPM nut; zo was het stroomverbruik van de Intel SATA controller niet meer te meten en gaf uitschakelen in BIOS dus dezelfde waarde als inschakelen + DIPM. Erg gaaf!
Het mooie is dat mijn Intel SSDs in combinatie met Intel onboard controller minder dan 0,1 watt verbruikt met DIPM. Het mooie is: zelfs met helemaal geen disks op de Intel controller, had DIPM nut; zo was het stroomverbruik van de Intel SATA controller niet meer te meten en gaf uitschakelen in BIOS dus dezelfde waarde als inschakelen + DIPM. Erg gaaf!
[ Voor 46% gewijzigd door Verwijderd op 05-01-2013 20:25 ]
Wait, what??? Je wil een el-cheapo SSD die een overboekingsfactor (qua cellen) heeft van lik-me-vestje inzetten voor L2ARC en dus binnen een paar maanden (letterlijk) door de cellen heen zijn? Niet echt goed advies.Verwijderd schreef op zaterdag 05 januari 2013 @ 16:32:
Waar anders moet die Onyx nuttig dienst voor doen? Ik zelf denk juist dat dit soort budget SSDs uitstekend geschikt zijn voor L2ARC om de simpele redenen dat deze SSDs te onbetrouwbaar zijn om als systeemdisk te gebruiken op een onbeveiligd platform (NTFS, Ext4). Maar als L2ARC cache kan de SSD nog wel degelijk nuttig werk doen en de corruptie is opeens geen probleem meer.
Kortom, juist die slechte SSDs lekker opstoken als L2ARC dan heb je er tenminste nog iets nut van over gehad, en je betere SSDs zoals Intel 320, Crucial M4 en Samsung 830 lekker in je Windows PC steken dat zijn uitstekende systeemdisks.
Zelfs een USB stick kan nuttig zijn als L2ARC, al is het enkel voor de metadata.
En een 'onveilig' platform als een OS is helemaal niet erg. Er veranderd zeer weinig aan je OS data dus kan je gewoon een paar bitflips hebben. Lekker belangrijk, dan installeer je opnieuw, en/of je restored van je backup.
Even niets...
Verwijderd
Als je hem inzet voor metadata only valt dat slijten nog wel mee hoor. Ik gebruik ook een JMicron sl*tje voor metadata cache in een van mijn backup servers, voor de gein. Maakt het rsync syncen iets sneller omdat hij sneller door de dirtree loopt bij het aanmaken van de lijst voor de bestandsoverdracht. Doet zo toch nog nuttig werk.
Het punt is, waar anders kun je zo'n SSD nog voor gebruiken? Voor je desktop? Performance is niet eens het probleem; betrouwbaarheid wel. Daarom dat ik denk: spendeer hem aan L2ARC en als hij inderdaad na 8-15 maanden versleten is.. nouja hij heeft zijn nut in elk geval deels bewezen. Je betrouwbare/betere/nieuwere SSDs hou je dan in je desktop systeem.
Of zie jij nog een eervollere taak weggelegd voor dat Onyx dingetje?
Het punt is, waar anders kun je zo'n SSD nog voor gebruiken? Voor je desktop? Performance is niet eens het probleem; betrouwbaarheid wel. Daarom dat ik denk: spendeer hem aan L2ARC en als hij inderdaad na 8-15 maanden versleten is.. nouja hij heeft zijn nut in elk geval deels bewezen. Je betrouwbare/betere/nieuwere SSDs hou je dan in je desktop systeem.
Of zie jij nog een eervollere taak weggelegd voor dat Onyx dingetje?
Gewoon plain OS files bewaren voor je server? Zo veel is dat nou ook weer niet... En je zou eventueel zelfs een Embedded distro erop kunnen zetten.
L2ARC voor alleen metadata is inderdaad leuk, maar nou ook weer niet zΓ³ leuk
* FireDrunk heeft het ook hoor, en het is wel fijn, want je array hoeft niet eens op te spinnen tot je data benaderd die niet gecached is op L2ARC.
L2ARC voor alleen metadata is inderdaad leuk, maar nou ook weer niet zΓ³ leuk
* FireDrunk heeft het ook hoor, en het is wel fijn, want je array hoeft niet eens op te spinnen tot je data benaderd die niet gecached is op L2ARC.
Even niets...
Wait..
Stel, je hebt 4 disks als JBOD die in spindown gaan. Op elke disk heb je een samba share naar je clients. Met een goedkope SSD als L2ARC te configureren kan je de inhoud van al je data zien via samba zonder dat je schijf hoeft up te spinnen?
Stel, je hebt 4 disks als JBOD die in spindown gaan. Op elke disk heb je een samba share naar je clients. Met een goedkope SSD als L2ARC te configureren kan je de inhoud van al je data zien via samba zonder dat je schijf hoeft up te spinnen?
Je kan de share inderdaad benaderen en door de directories heen bladeren, maar zodra je windows bak ook maar iets opent, spinnen je disks op. (denk bijvoorbeeld aan een plaatje openen voor een thumbnail).
Even niets...
Of de inhoud van de file hangt ook nog in de cache. Bij mij kan ik vaak zonder disk-spinup de eerste paar minuten van de tv-episodes die ik vorige avond heb bekeken zien. Wat voor disk spindown waardes gebruiken jullie want met 15minuten stoppen ze altijd halverwege een 20 minuten episode (wat eerder vanwege buffering her&der), wat dus elke keer opspinnen betekend zodra ik de volgende opzet.FireDrunk schreef op zaterdag 05 januari 2013 @ 21:48:
Je kan de share inderdaad benaderen en door de directories heen bladeren, maar zodra je windows bak ook maar iets opent, spinnen je disks op. (denk bijvoorbeeld aan een plaatje openen voor een thumbnail).
Werkt het ook met een AMD A75 FCH (Hudson D3) chipset? Moet ik dan met 6x sata hint.ahcich.0.pm_level="5" 0 t/m 5 uncommenten?Verwijderd schreef op zaterdag 05 januari 2013 @ 20:23:
Heb je DIPM al geprobeerd, victor?
-------
In mijn filmpje laat ik zien dat het verbruik van de volgende onderdelen is:
cpu mem mobo psu 33 watt
amd a6 3500 apu, 2x8gb 1333mhz, asus F1A75-M, Corsair CS500 watt
3x 14cm casefan 10 watt
HP N364T 7 watt
IBM M1015 7 watt
2x 500gb 7200rpm Samsung SpinPoint T166 HD501LJ 23 watt (eerste meting met sata aangesloten)
6x 3tb seagate 7200rpm + ssd 36 watt
Totaal 110 watt idle
Het is gemeten met een 17 euro goedkope meter
Mij valt op dat de 2x samsung 23 watt idle verbruiken. Op http://www.anandtech.com/show/2269/2 kom ik tegen dat die 7.1W idle zou moeten zijn. Dus mijn vermoeden is dat een deel van het verbruik misschien in de sata kanalen op het mobo zit.
De fabrieks specs van de seagate's zijn 5.8w idle (6x5.8=34.8w) + de ssd volgens samsung 0.127w idle dus de 36 watt zou ongeveer wel moeten kloppen.
De N364T en de IBM M1015 zijn server hardware dus niet perse low power dus 7 watt is naar mijn idee normaal.
Wat wel opvalt is dat casefans best veel stroom verbruiken!
Heeft iemand een overzicht wat andere cpu mem mobo psu combinaties idle verbruiken? Dan kunnen we dat ook vergelijken.
Ik vind de 2x samsung en de 23 watt echt niet zo goed te verklaren
Ok wat valt jullie op?
NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM
Dat is wel heel erg handig zegFireDrunk schreef op zaterdag 05 januari 2013 @ 21:48:
Je kan de share inderdaad benaderen en door de directories heen bladeren, maar zodra je windows bak ook maar iets opent, spinnen je disks op. (denk bijvoorbeeld aan een plaatje openen voor een thumbnail).
Zou een pricewatch: Crucial v4 SSD 2.5" 64GB volstaan om deze als L2ARC en ZFSGuru bootdrive te gebruiken?
Eventueel beter een tientje meer uit te geven en een pricewatch: Samsung 830 series SSD 64GB te kopen aangezien de sequential read hiervan flink hoger is (520 vs 230MB/s)?
Het is voor m'n Asus C60M1-I systeempje die sata 6 Gbit poorten zou hebben, waardoor je in theorie hier wel verschil van merkt?
_anlog: ik gebruik momenteel 3 uur, wat vrij lang is/lijkt maar met volgende motivatie. Hier gebeurd het wel vaak dat ik wat I/O op een disk heb, gevolgd door een periode rust. Daarna maak ik vaak wel weer gebruik van die disk. Met een wachttijd van 3 uur probeer ik dit gedrag zo goed mogelijk op te vangen om te veel spindown's op 1 dag te vermijden.
[ Voor 15% gewijzigd door sloth op 05-01-2013 22:34 ]
Dat sowieso, maar dat is L1 ARC, en geen L2 ARCanalog_ schreef op zaterdag 05 januari 2013 @ 22:01:
[...]
Of de inhoud van de file hangt ook nog in de cache. Bij mij kan ik vaak zonder disk-spinup de eerste paar minuten van de tv-episodes die ik vorige avond heb bekeken zien. Wat voor disk spindown waardes gebruiken jullie want met 15minuten stoppen ze altijd halverwege een 20 minuten episode (wat eerder vanwege buffering her&der), wat dus elke keer opspinnen betekend zodra ik de volgende opzet.
Mijn bord + CPU doen 19W (Intel DQ77MK + i5-3550), en dat is met 16GB geheugen.victorb schreef op zaterdag 05 januari 2013 @ 22:10:
[...]
Werkt het ook met een AMD A75 FCH (Hudson D3) chipset? Moet ik dan met 6x sata hint.ahcich.0.pm_level="5" 0 t/m 5 uncommenten?
-------
In mijn filmpje laat ik zien dat het verbruik van de volgende onderdelen is:
cpu mem mobo psu 33 watt
amd a6 3500 apu, 2x8gb 1333mhz, asus F1A75-M, Corsair CS500 watt
3x 14cm casefan 10 watt
HP N364T 7 watt
IBM M1015 7 watt
2x 500gb 7200rpm Samsung SpinPoint T166 HD501LJ 23 watt (eerste meting met sata aangesloten)
6x 3tb seagate 7200rpm + ssd 36 watt
Totaal 110 watt idle
Het is gemeten met een 17 euro goedkope meter![]()
Mij valt op dat de 2x samsung 23 watt idle verbruiken. Op http://www.anandtech.com/show/2269/2 kom ik tegen dat die 7.1W idle zou moeten zijn. Dus mijn vermoeden is dat een deel van het verbruik misschien in de sata kanalen op het mobo zit.
De fabrieks specs van de seagate's zijn 5.8w idle (6x5.8=34.8w) + de ssd volgens samsung 0.127w idle dus de 36 watt zou ongeveer wel moeten kloppen.
De N364T en de IBM M1015 zijn server hardware dus niet perse low power dus 7 watt is naar mijn idee normaal.
Wat wel opvalt is dat casefans best veel stroom verbruiken!
Heeft iemand een overzicht wat andere cpu mem mobo psu combinaties idle verbruiken? Dan kunnen we dat ook vergelijken.
Ik vind de 2x samsung en de 23 watt echt niet zo goed te verklaren
Ok wat valt jullie op?
Ik heb verder nog 6 * F4EG, 4 * WD EADS, 2 * Intel 80GB SSD's en een M1015.
Dat alles op een Be Quiet L7 300W.
23W voor die 2 schijven is behoorlijk, zitten ze misschien aan andere SATA kabel waardoor je voeding een 2e 12V rail activeert?
@Sloth,
Wanneer wil jij >250MB/s op je OS driver schrijven?
Anders gezegd, welke bron gaat 250MB/s genereren op je OS drive?
Die v4 is wel een stuk meer budget dan de 830. De cellen zijn volgens mij van een wat lagere kwaliteit. Hoewel Crucial er om bekend staat dat ze hun zaakjes netjes op orde hebben.
[ Voor 71% gewijzigd door FireDrunk op 05-01-2013 22:33 ]
Even niets...
Ik heb een vraag: ben zelf ook aan t kijken naar een dedicaded nas (heb nu een oude laptop met usb schijven, maar dat is niet echt te doen qua uitbreiding etc)
en denk aan deze setup:
het enige wat ik mij nog afvraag is: zou deze voeding genoeg zijn voor een 7-tal schijven?
en denk aan deze setup:
| # | Product | Prijs | Subtotaal |
| 1 | Intel Pentium G860 Boxed | β¬ 55,95 | β¬ 55,95 |
| 1 | ASRock B75 Pro3-M | β¬ 58,77 | β¬ 58,77 |
| 1 | Fractal Design Define Mini | β¬ 82,- | β¬ 82,- |
| 1 | Corsair CMV8GX3M1A1333C9 | β¬ 32,49 | β¬ 32,49 |
| 1 | be quiet! Pure Power L7 300W | β¬ 38,40 | β¬ 38,40 |
| Bekijk collectie Importeer producten | Totaal | β¬ 267,61 | |
het enige wat ik mij nog afvraag is: zou deze voeding genoeg zijn voor een 7-tal schijven?
android since G1.
Ik ben geen expert maar dat zou makkelijk moeten kunnen volgens mij.
Speed limits are like herpes.
Zoals hierboven staat, doet FireDrunk 10 3,5" HDD aan dezelfde voeding.
Zelf heb ik er nu 6 aan hangen, gaat prima.
Wat ik mezelf af vraag, is een hogere temperatuur (35 t/m 40) erger dan een temperatuur die erg fluctueert voor HDD's?
Heb nu fan aan de voorkant van de schijven, dat houdt het redelijk koel.
Al zijn de temps niet zoals ik ze eerst had.
Nu is het 40 (OS) 30, 36, 37, 34 en 42.
Zelf heb ik er nu 6 aan hangen, gaat prima.
Wat ik mezelf af vraag, is een hogere temperatuur (35 t/m 40) erger dan een temperatuur die erg fluctueert voor HDD's?
Heb nu fan aan de voorkant van de schijven, dat houdt het redelijk koel.
Al zijn de temps niet zoals ik ze eerst had.
Nu is het 40 (OS) 30, 36, 37, 34 en 42.
42 is wat aan de hoge kant, maar nog niet kritisch.
Boven de 50 wil je nooit komen heb ik ooit eens gehoord.
(bovendien geeft SMART dan al waarschuwingen vaak.)
Boven de 50 wil je nooit komen heb ik ooit eens gehoord.
(bovendien geeft SMART dan al waarschuwingen vaak.)
Even niets...
Waarom een ARC mini met 7 schijven ik zou voor de ARC midi gaan!
NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM
Na een paar jaar een openfiler VM zonder redundantie op mijn ESXi servertje te hebben gedraaid heb ik een aantal maanden geleden besloten een dedicated NAS hiervoor in te gaan zetten.
Omdat ik de kant-en-klaar oplossingen nogal duur en hardware matig nogal mager vond ben ik op zoek gegaan naar zelfbouw componenten.
Zodoende ben ik in dit topic beland en heb ik de afgelopen maand flink zitten bladeren door dit topic en daardoor heb ik ook het ZFS virus gekregen. Vandaar deze eerste post in dit forum.
Na veel wikken en wegen heb ik besloten na meer dan 10 jaar Intel toch weer eens een AMD systeem te nemen op basis van een A85X chipset met 8 native SATA porten. Zodoende hoeft er geen extra IBM M1015 o.i.d. bij te komen.
Hierbij de config die ik heb aangeschaft en mijn eerste ervaringen:
Als OS heb ik op dit moment NAS4free embedded op een USB stick geΓ―nstalleerd, met daarop een RAIDZ2 array van de 6 Seagate disks en een L2ARC op de Samsung 830.
Netwerk is m.b.v. LACP aangesloten op een Cisco SG-300.
Daarnaast heb ik nog een apart iSCSI VLAN aangemaakt voor wat testjes met ESXi.
Dit draait nu een weekje in test en de performance is zoals de waardes die ik in dit topic voorbij heb zien komen.
Geen problemen dus, MAAR wat mij een opviel dat het systeem toch wel meer stroom verbruikt dan ik had gehoopt. Alle onnodige componenten heb in de BIOS al uitgeschakeld (Onboard LAN, Audio, COM port, etc).
Gigabyte GA-F2A85X-D3H i.c.m. AMD A6-5400k
Spin-up: 230W
Tijdens Boot: 120W
Idle: gemiddeld 85W
Load: 135W gemiddeld met uitschieters naar 150W
De idle waarde is dacht ik ongeveer gelijk aan de waarde van victorbin zijn part 2 filmpje, dus op zich lijkt dit normaal voor een AMD platform met 6 disks en een SSD.
Maar het stroomverbruik kon mij toch niet loslaten, dus…
Een aantal maanden geleden had ik een HTPC in elkaar gezet met een Intel i3-3225 op een ASRock H77 Pro4-M bordje. Toen die aan de Cresta hing (met alleen een SSD natuurlijk) zat die idle op zo’n 30W…
Dus… Vergelijkende stroomverbruik test:
Gigabyte GA-F2A85X-D3H uit de ARC Midi geschroefd en de ASRock erin.
Geheugen even overgeprikt.
Voor de test SATA kabels willekeurig in de beschikbare SATA porten op de Asrock aangesloten (dus verdeeld over Native SATA3, SATA2 en ASMedia ASM1061 SATA3.
BIOS even aanpassen (Audio en Onboard LAN uit) en booten maar.
Mooi, NAS4free boot zonder problemen van de USB stick en alles inclusief ZFS is gelijk weer beschikbaar.
ASRock H77 Pro4-M i.c.m. Intel i3-3225
Spin-up: 190W
Tijdens Boot: 90W
Idle: gemiddeld 70W
Load: 95W gemiddeld met uitschieters naar 110W
In idle niet zo heel veel dus (zo’n 15W of nog geen β¬25,- p/j), maar vooral onder load vind ik het verschil nogal groot.
Zit nu toch weer te twijfelen of ik de AMD weer de deur uit zal doen en een Intel G860 of een G2120 met een B75 bordje en een IBM ServeRAID M1015 daarvoor in de plaats te nemen.
Maar met zo’n extra controller zal ook weer 7W extra stroom kosten, dus…. Twijfel…
Tot slot heb ik nog een vraagje m.b.t. ZIL.
Ik wil wat iSCSI testjes met m’n ESXi bak gaan doen, met en zonder ZIL.
Zonder ZIL is wel gelukt, maar weet iemand hoe ik met NAS4free m’n Samsung 830 kan partitioneren, zodat ik ook de rest (tot zo’n 70%) nog voor L2ARC kan gebruiken?
Met de GUI kan je zover ik weet alleen hele disks selecteren voor L2ARC, ZIL etc en als ik het via de command line doe, ziet NAS4free de Samsung SSD in de GUI als een XFS disk, maar in de zpool status staat er netjes ada0s1 voor logs en ada0s2 voor cache.
Is het nu goed geconfigureerd of niet?
Omdat ik de kant-en-klaar oplossingen nogal duur en hardware matig nogal mager vond ben ik op zoek gegaan naar zelfbouw componenten.
Zodoende ben ik in dit topic beland en heb ik de afgelopen maand flink zitten bladeren door dit topic en daardoor heb ik ook het ZFS virus gekregen. Vandaar deze eerste post in dit forum.
Na veel wikken en wegen heb ik besloten na meer dan 10 jaar Intel toch weer eens een AMD systeem te nemen op basis van een A85X chipset met 8 native SATA porten. Zodoende hoeft er geen extra IBM M1015 o.i.d. bij te komen.
Hierbij de config die ik heb aangeschaft en mijn eerste ervaringen:
| # | Product | Prijs | Subtotaal |
| 1 | AMD A6-5400K Boxed | β¬ 61,70 | β¬ 61,70 |
| 1 | Gigabyte GA-F2A85X-D3H | β¬ 80,- | β¬ 80,- |
| 6 | Seagate Barracuda 7200.14 ST3000DM001, 3TB | β¬ 117,50 | β¬ 705,- |
| 1 | Fractal Design Arc Midi Tower | β¬ 75,90 | β¬ 75,90 |
| 2 | Intel Gigabit CT Desktop Adapter | β¬ 24,50 | β¬ 49,- |
| 1 | Corsair Vengeance CMZ16GX3M2A1600C10 | β¬ 68,90 | β¬ 68,90 |
| 1 | be quiet! Pure Power L7 300W | β¬ 38,40 | β¬ 38,40 |
| 1 | Samsung 830 series SSD 128GB | β¬ 99,95 | β¬ 99,95 |
| Bekijk collectie Importeer producten | Totaal | β¬ 1.178,85 | |
Als OS heb ik op dit moment NAS4free embedded op een USB stick geΓ―nstalleerd, met daarop een RAIDZ2 array van de 6 Seagate disks en een L2ARC op de Samsung 830.
Netwerk is m.b.v. LACP aangesloten op een Cisco SG-300.
Daarnaast heb ik nog een apart iSCSI VLAN aangemaakt voor wat testjes met ESXi.
Dit draait nu een weekje in test en de performance is zoals de waardes die ik in dit topic voorbij heb zien komen.
Geen problemen dus, MAAR wat mij een opviel dat het systeem toch wel meer stroom verbruikt dan ik had gehoopt. Alle onnodige componenten heb in de BIOS al uitgeschakeld (Onboard LAN, Audio, COM port, etc).
Gigabyte GA-F2A85X-D3H i.c.m. AMD A6-5400k
Spin-up: 230W
Tijdens Boot: 120W
Idle: gemiddeld 85W
Load: 135W gemiddeld met uitschieters naar 150W
De idle waarde is dacht ik ongeveer gelijk aan de waarde van victorbin zijn part 2 filmpje, dus op zich lijkt dit normaal voor een AMD platform met 6 disks en een SSD.
Maar het stroomverbruik kon mij toch niet loslaten, dus…
Een aantal maanden geleden had ik een HTPC in elkaar gezet met een Intel i3-3225 op een ASRock H77 Pro4-M bordje. Toen die aan de Cresta hing (met alleen een SSD natuurlijk) zat die idle op zo’n 30W…
Dus… Vergelijkende stroomverbruik test:
Gigabyte GA-F2A85X-D3H uit de ARC Midi geschroefd en de ASRock erin.
Geheugen even overgeprikt.
Voor de test SATA kabels willekeurig in de beschikbare SATA porten op de Asrock aangesloten (dus verdeeld over Native SATA3, SATA2 en ASMedia ASM1061 SATA3.
BIOS even aanpassen (Audio en Onboard LAN uit) en booten maar.
Mooi, NAS4free boot zonder problemen van de USB stick en alles inclusief ZFS is gelijk weer beschikbaar.
ASRock H77 Pro4-M i.c.m. Intel i3-3225
Spin-up: 190W
Tijdens Boot: 90W
Idle: gemiddeld 70W
Load: 95W gemiddeld met uitschieters naar 110W
In idle niet zo heel veel dus (zo’n 15W of nog geen β¬25,- p/j), maar vooral onder load vind ik het verschil nogal groot.
Zit nu toch weer te twijfelen of ik de AMD weer de deur uit zal doen en een Intel G860 of een G2120 met een B75 bordje en een IBM ServeRAID M1015 daarvoor in de plaats te nemen.
Maar met zo’n extra controller zal ook weer 7W extra stroom kosten, dus…. Twijfel…
Tot slot heb ik nog een vraagje m.b.t. ZIL.
Ik wil wat iSCSI testjes met m’n ESXi bak gaan doen, met en zonder ZIL.
Zonder ZIL is wel gelukt, maar weet iemand hoe ik met NAS4free m’n Samsung 830 kan partitioneren, zodat ik ook de rest (tot zo’n 70%) nog voor L2ARC kan gebruiken?
Met de GUI kan je zover ik weet alleen hele disks selecteren voor L2ARC, ZIL etc en als ik het via de command line doe, ziet NAS4free de Samsung SSD in de GUI als een XFS disk, maar in de zpool status staat er netjes ada0s1 voor logs en ada0s2 voor cache.
Is het nu goed geconfigureerd of niet?
Eindelijk mijn brazos configuratie draaiend, 3 keer 2Tb Seagate in RAIDZ en 16 Gb RAM, verder oude OCZ vertex 3 als L2ARC. Het booten van mijn usb stick (2.0) duurt wel 5 min. Eens geladen gaat het goed en de webinterface reageert snappy.. Alles functioneert goed. Snelheid op dit moment gemeten (ben wel vanaf een externe usb 2.0 schijf zonder voeding (dus voeding over usb) aan het kopieren via samba naar FREENAS 8.3 Server is ongeveer 50-70plus Mb/s (1 kabel is Cat5E, rest is Cat6 en router is ook 1Gb). Lezen heb ik nog niet getest.
Die 42 is ook wat aan de hoge kant. Al zag ik in een studie, van volgens mij google. Dat hogere temperaturen naarmate de leeftijd vordert van een HDD de levensduur kan vergroten. Enkel een hoge temperatuur in het eerste jaar van levensloop gevaarlijk zijn.FireDrunk schreef op zondag 06 januari 2013 @ 17:40:
42 is wat aan de hoge kant, maar nog niet kritisch.
Boven de 50 wil je nooit komen heb ik ooit eens gehoord.
(bovendien geeft SMART dan al waarschuwingen vaak.)
/dev/sda: WDC WD1600BPVT-00JJ5T0: 42ΓΒ°C
/dev/sdb: SAMSUNG HD204UI: 30ΓΒ°C
/dev/sdc: ST2000DL003-9VT166: 36ΓΒ°C
/dev/sdd: ST2000DL003-9VT166: 38ΓΒ°C
/dev/sde: WDC WD20EARS-22MVWB0: 35ΓΒ°C
/dev/sdf: Hitachi HDT721010SLA360: 42ΓΒ°C
SDA is OS disk, rest is allemaal losse disk. Waarop boven wel LVM + RAID6 draait met bepaalde partities.
De 2TB disks hebben allemaal nog nette waardes. Dat is het belangrijkste. OS Disk is redelijk warm, en de 1TB Hitachi is altijd al beetje warm geweest merk ik de laatste tijd.
Studie:
http://static.googleuserc...archive/disk_failures.pdf
Hitachi staat er ook wel een tikkie bekend om dat ze warm worden, niet druk over maken.
Even niets...
Dat is mooi. Ik hoop dat het dan werkt met de yadis files die door mijn hdi dune aangesproken worden in de cache komen te staan. Dat moet nu elke keer blijkbaar vn een hdd gelezen worden als ik door de lijst met films scroll (op mijn unraid server)FireDrunk schreef op zaterdag 05 januari 2013 @ 21:48:
Je kan de share inderdaad benaderen en door de directories heen bladeren, maar zodra je windows bak ook maar iets opent, spinnen je disks op. (denk bijvoorbeeld aan een plaatje openen voor een thumbnail).
8x330 NO12.5Β°, 8x330 ZW12.5Β°, 8x350 ZW60Β°, 8x325 NO10Β°, SE8K, P500. 6x410 ZW10Β° Enphase
Ik zie mijn 4 tb hitatchis snel 8 a10 graden warmer opgeven bij systeemstart van mijn huidige unraid server dan de 2.0 tb seagate, of de 1.5 tb samsungs. Bij gebruik blijft dat verschil.FireDrunk schreef op zondag 06 januari 2013 @ 21:06:
Hitachi staat er ook wel een tikkie bekend om dat ze warm worden, niet druk over maken.
8x330 NO12.5Β°, 8x330 ZW12.5Β°, 8x350 ZW60Β°, 8x325 NO10Β°, SE8K, P500. 6x410 ZW10Β° Enphase
Juist om die reden heb ik een SSD in mijn XBMC HTPC zitten... De lokale database is nu tenminste snel...
Even niets...
Ik zie het licht wat aan de late kant. Unraid heeft me veel uren en ook wat desinvesteringen gekost.
Ik moet 3 stuks supermicro SAS2LP-MV8 kaarten gaan vervangen door m1015 omdat ze niet werken onder bsd. Verder de licentie kosten. Maar ik hoop dan de sata controllers en de licenties te verkopen via het unraid forum
Ik moet 3 stuks supermicro SAS2LP-MV8 kaarten gaan vervangen door m1015 omdat ze niet werken onder bsd. Verder de licentie kosten. Maar ik hoop dan de sata controllers en de licenties te verkopen via het unraid forum
8x330 NO12.5Β°, 8x330 ZW12.5Β°, 8x350 ZW60Β°, 8x325 NO10Β°, SE8K, P500. 6x410 ZW10Β° Enphase
Om nog even verder te gaan over mijn SSD (Onyx Sata II 64GB) en caching. Ik heb de start post van 'Het grote ZFS topic' doorgenomen mbt L2ARC. Ik lees dat het mogelijk is om de schijf te partitioneren.
- 1 voor OS en overige software
- 1 voor L2ARC.
Ik wil mijn OS niet op de array (vdev toch?) hebben. Het downspinnen van de hdd's ga ik gebruiken en maak een clone van mijn OS schijf/partitie. Zo kan ik deze gemakkelijk vervangen wanneer nodig. Het is toch mogelijk om de array opnieuw te 'mounten'? Ook als ik bijv. van OS verwissel? Op deze manier kan ik van mijn data afblijven. Zo hoef ik niets tijdelijk over te zetten op andere disks bij een eventuele nieuwe installatie. Zou veel werk en ellende schelen.
Is het mogelijk om de L2ARC schijf/partitie, vrijwillig danwel bij defect, weer te verwijderen of later extra toevoegen aan de array?
Heeft het nut om bijv. 10GB van mijn SSD voor L2ARC te gebruiken of is een andere verhouding beter voor performance? Ik zie dat ik wat ruimte moet vrijlaten voor overprovisioning. Wil in de toekomst ook niet te kort komen op de partitie met OS en software.
- 1 voor OS en overige software
- 1 voor L2ARC.
Ik wil mijn OS niet op de array (vdev toch?) hebben. Het downspinnen van de hdd's ga ik gebruiken en maak een clone van mijn OS schijf/partitie. Zo kan ik deze gemakkelijk vervangen wanneer nodig. Het is toch mogelijk om de array opnieuw te 'mounten'? Ook als ik bijv. van OS verwissel? Op deze manier kan ik van mijn data afblijven. Zo hoef ik niets tijdelijk over te zetten op andere disks bij een eventuele nieuwe installatie. Zou veel werk en ellende schelen.
Is het mogelijk om de L2ARC schijf/partitie, vrijwillig danwel bij defect, weer te verwijderen of later extra toevoegen aan de array?
Heeft het nut om bijv. 10GB van mijn SSD voor L2ARC te gebruiken of is een andere verhouding beter voor performance? Ik zie dat ik wat ruimte moet vrijlaten voor overprovisioning. Wil in de toekomst ook niet te kort komen op de partitie met OS en software.
Ja, je kan je OS partitie los maken (is wat mij betreft zelfs aan te raden), maar je moet wel een beetje oppassen met switchen van OS, sommige OSen (IllumOS volgens mij) ondersteunen een zogenaamde versie 5000 van ZFS. Zodra je die hebt, kan je niet meer terug naar FreeBSD.
L2ARC kan je live toevoegen en weer verwijderen zonder enige reboot / unmount... Kan allemaal online.
Hoe meer L2ARC hoe beter, maar als de performance van je SSD er onder lijdt, kan je beter onderpartitioneren inderdaad. Ik heb geen idee hoeveel dat bij die Onyx zou moeten zijn.
L2ARC kan je live toevoegen en weer verwijderen zonder enige reboot / unmount... Kan allemaal online.
Hoe meer L2ARC hoe beter, maar als de performance van je SSD er onder lijdt, kan je beter onderpartitioneren inderdaad. Ik heb geen idee hoeveel dat bij die Onyx zou moeten zijn.
Even niets...
Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.