hoewel de 2x Norco 4224 bij mij nu probleemloos draaien zou ik dat nu ook doen. Voor mij zou het matige soldeerwerk op de Norco backplanes de voornaamste reden zijn. Tussen de regels door lees ik dat, in de aanbeveling voor hun eigen lijn, dat Rivier dat ook vindt.
Als zelfs de Europese distri vind dat een product niet deugdelijk is, is het dan niet beter om gewoon een keer een bericht naar Norco te doen en te zeggen dat hun kwaliteit zo slecht is dat mensen het niet meer willen kopen?
Als een distri dat zegt, gaat zo'n bedrijf wel even achter zijn oren krabben denk ik zo...
Als een distri dat zegt, gaat zo'n bedrijf wel even achter zijn oren krabben denk ik zo...
Even niets...
Die zijn ook in Nl te koop hoor.HyperBart schreef op woensdag 12 juni 2013 @ 22:25:
met een 2 x 5,25inch to 3 x 3,5 + 1 x 5,25 to 3,5 OF met http://www.newegg.com/Pro...aspx?Item=N82E16817121405
pricewatch: Raidsonic Icy Box 5bay trayless Dual Channel SATA/SAS HDD Backplane
pricewatch: Raidsonic IB-555SSK
pricewatch: Raidsonic Icy Box IB-544SSK
pricewatch: Icydock MB454SPF-B
Wanneer heb je het laatst je wachtwoord verandert? Er word op T.net de laatste tijd regelmatig misbruikt gemaakt van accounts met gelekte wachtwoorden om andere gebruikers op te lichten. Verander je wachtwoord, geef oplichters geen kans!
nu deze zijn eigen kasten verkoopt zie ik dat niet meer zo gauw gebeuren. Denk zelf dat het goed is dat er meer keuze is.FireDrunk schreef op zaterdag 15 juni 2013 @ 12:23:
Als een distri dat zegt, gaat zo'n bedrijf wel even achter zijn oren krabben denk ik zo...
Dat is ook waar... Ik ben wel benieuwd naar de kwaliteit van hun 'eigen' merk!
Even niets...
Van die Intel backplanes mag je toch wel kwaliteit verwachten?
Ik was in ieder geval snel klaar met mijn Norco. Ik ontken dat ik die ooit gekocht heb
Ik was in ieder geval snel klaar met mijn Norco. Ik ontken dat ik die ooit gekocht heb
Welke voeding zouden jullie aanraden voor onderstaande config?
# | Product | Prijs | Subtotaal |
1 | Intel Xeon E3-1230V2 Boxed | € 202,90 | € 202,90 |
1 | Supermicro X9SCM-F | € 169,52 | € 169,52 |
1 | Toshiba MK2576GSX, 250GB | € 51,85 | € 51,85 |
12 | Western Digital Green WD20EARX, 2TB | € 80,01 | € 960,12 |
4 | Kingston KVR1333D3E9S/8G | € 65,- | € 260,- |
2 | IBM ServeRAID M1015 SAS/SATA Controller for System x | € 118,58 | € 237,16 |
1 | Intel Ephraim X25-E SSDSA2SH064G101 64GB | € 664,98 | € 664,98 |
Bekijk collectie Importeer producten | Totaal | € 2.546,53 |
Is 450W wel genoeg? Als ik uit ga van een 25 tot 30W per disk bij spinup zit je al aan ongeveer 350W. Dan zitten het moederbord, cpu e.d. en de M1015 kaarten er nog niet bij.FireDrunk schreef op maandag 17 juni 2013 @ 08:34:
Seasonic G450.
Klopt, en die pieken niet bij startup. Bovendien kan een voeding bij eerste startup wel iets meer hebben dan zijn totale vermogen, hij klapt er dan niet meteen uit.
[ Voor 62% gewijzigd door FireDrunk op 17-06-2013 08:47 ]
Even niets...
Wat is trouwens de reden om specifiek voor die Seasonic te gaan? Ipv een corsair? Ik lees hier wel dat de Seasonic kwalitatief de beste zijn, maar is een Corsair niet goed genoeg?FireDrunk schreef op maandag 17 juni 2013 @ 08:47:
Klopt, en die pieken niet bij startup. Bovendien kan een voeding bij eerste startup wel iets meer hebben dan zijn totale vermogen, hij klapt er dan niet meteen uit.
Ligt heel erg aan de specifieke serie volgens mij, Seasonic heeft gewoon geen slechte voedingen, dus elke keuze die je maakt is goed. Bij corsair wisselt het volgens mij nogal bij de budget voedingen, en zelfs bij de duurdere.
Specifieke modellen moet je mij niet vragen, dat moet je even hier: [BBG aanschaf] Voedingen - Deel 29
vragen...
Specifieke modellen moet je mij niet vragen, dat moet je even hier: [BBG aanschaf] Voedingen - Deel 29
vragen...
Even niets...
Seasonic komt er stevast als een van de betere uit bij vergelijkingstesten. Veel serverPSU's zijn Seasonic.
Momenteel zit ik te kijken of ik voor in mijn vsphere systeem, waar ik mijn zfs in heb draaien, een IBM M1015, of een Cisco - Storage controller (RAID) - 8 Channel - SATA 3Gb/s / SAS - RAID 0, 1, 5, 10 - for UCS C240, zal aanschaffen.Verwijderd schreef op zaterdag 24 september 2011 @ 16:05:
Het is puur een kwestie van firmware; SAS kaarten kennen IT (Initiator Target) of IR (Integrated RAID) firmware. De prijzen verschillen inderdaad ook. Bijvoorbeeld de SuperMicro USAS2-L8e (dus niet i maar e op het einde) is standaard al IT mode en kan volgens mij ook geen IR mode aan.
Een IBM M1015 kopen en flashen naar IT mode is ook een veelgehoord alternatief, en waarschijnlijk goedkoper dan Intel of LSI kaarten.
Deze laatste is prijstechnisch veel voordeliger, of is dit echt niet aan te bevelen?
Wie kan mij hier een goed advies in geven?
[ Voor 7% gewijzigd door Goudduif op 20-06-2013 10:08 ]
Heb je een productlinkje van die Cisco?
Even niets...
Supermicro moederborden draaien alleemaal goed met SeaSonic bij mij.
Dat was aangeraden door mensen op unraid forum (veel Amerikanen met Supermicro/seasonic)
De service van Seasonic is geweldig goed, althans dat is mijn ervaring. Beter dan dat heb ik nog niet gezien. Zou haast in mijn gewone pc de monster silent power PSU gaan vervangen, maar dat is kapaitaal vernietiging..
Dat was aangeraden door mensen op unraid forum (veel Amerikanen met Supermicro/seasonic)
De service van Seasonic is geweldig goed, althans dat is mijn ervaring. Beter dan dat heb ik nog niet gezien. Zou haast in mijn gewone pc de monster silent power PSU gaan vervangen, maar dat is kapaitaal vernietiging..
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Het gaat mij vooral er om dat er stabiele lijnen voor de harde schijven op zitten. Met opspinnen e.d. Maar de seasonic gaan we proberen.
Eens, support van Supermicro is ook top!jacovn schreef op donderdag 20 juni 2013 @ 12:42:
Supermicro moederborden draaien alleemaal goed met SeaSonic bij mij.
Dat was aangeraden door mensen op unraid forum (veel Amerikanen met Supermicro/seasonic)
De service van Seasonic is geweldig goed, althans dat is mijn ervaring. Beter dan dat heb ik nog niet gezien. Zou haast in mijn gewone pc de monster silent power PSU gaan vervangen, maar dat is kapaitaal vernietiging..
Nee Seasonic is sowieso maar klein en veel server voedingen hebben ze ook niet. Server voedingen van Seasonic zijn eerder een zeldzaamheid.Jormungandr schreef op maandag 17 juni 2013 @ 23:17:
Seasonic komt er stevast als een van de betere uit bij vergelijkingstesten. Veel serverPSU's zijn Seasonic.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik gebruik platinum serie x-760 voor 20 hdds en dat gaat prima.B2 schreef op donderdag 20 juni 2013 @ 12:56:
Het gaat mij vooral er om dat er stabiele lijnen voor de harde schijven op zitten. Met opspinnen e.d. Maar de seasonic gaan we proberen.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Ik snap sowieso niet wat het uitmaakt of een fabrikant zich bezig houdt met corporate IT en consumer IT, het is niet omdat HP en Dell heel leuke rackspulletjes hebben dat ze ook direct goede apparatuur over de gehele consumer-lineup leveren.
Ik ben aan het oriënteren naar het bouwen van mijn eigen nas.. Heb het nooit zo gehad op die kant en klare oplossingen en vind het leuk om te doen.
De opstelling zal in een thuis situatie gebruikt worden. Voornamelijk:
- Data opslag
- iscsi virtuele machines (5 max)
- Streaming 1080p content
- Time Machine Backup device
- sabnzbd server
Als OS zal ik Freenas gaan draaien. Dit heb ik in het verleden al eens gedaan en heb hier goede ervaringen bij.
Onderdelen:
Lian Li PC-Q25B
Seasonic SSR-360GP 360W 80PLUS Gold ATX
4GB sandisk cruzer fit
moederbord 6x sata 600
ram 16gb
intel 1000GB dual port PCI adapter
wd red 2tb (4-5x)
Ik ben er echter nog niet over uit welk moederbord ik wil gebruiken en welk geheugen. Ik wil er 16GB in zetten en niet ieder mobo ondersteund dat. Het is de bedoeling dat de server "zuinig" word.
Tevens twijfel ik nog of ik er een ssd in wil zetten en/of een aparte raid controller.
Het streven is met de kabel +-100MB te halen
De opstelling zal in een thuis situatie gebruikt worden. Voornamelijk:
- Data opslag
- iscsi virtuele machines (5 max)
- Streaming 1080p content
- Time Machine Backup device
- sabnzbd server
Als OS zal ik Freenas gaan draaien. Dit heb ik in het verleden al eens gedaan en heb hier goede ervaringen bij.
Onderdelen:
Lian Li PC-Q25B
Seasonic SSR-360GP 360W 80PLUS Gold ATX
4GB sandisk cruzer fit
moederbord 6x sata 600
ram 16gb
intel 1000GB dual port PCI adapter
wd red 2tb (4-5x)
Ik ben er echter nog niet over uit welk moederbord ik wil gebruiken en welk geheugen. Ik wil er 16GB in zetten en niet ieder mobo ondersteund dat. Het is de bedoeling dat de server "zuinig" word.
Tevens twijfel ik nog of ik er een ssd in wil zetten en/of een aparte raid controller.
Het streven is met de kabel +-100MB te halen
pricewatch: Asus P8-H77-I
Dit bordje heeft standaard 4x SATA-300 en 2x SATA-600 (SATA-600 is nutteloos voor HDD's) en met de 3de generatie Core-i CPU's kan je ook een zuinige oplossing creëeren, van Celeron tot Core i7.
Naargelang je VM eisen, is het misschien verstandig een SSD te gebruiken, aangezien je toch één poort minimaal zal vrijhouden. Een RAID-controller heeft géén énkel nut met FreeNAS, aangezien je je schijven rechtstreeks wil aanspreken en niet via een RAID-controller. >100MB/s zou geen probleem moeten zijn voor max throughput maar hou rekening ermee dat als je VM's veel random read/write doen, je deze snelheid niet altijd zal kunnen halen, daarmee dat ik ook aanhaal dat je misschien een SSD voor de VM's moet overwegen.
Dit bordje heeft standaard 4x SATA-300 en 2x SATA-600 (SATA-600 is nutteloos voor HDD's) en met de 3de generatie Core-i CPU's kan je ook een zuinige oplossing creëeren, van Celeron tot Core i7.
Naargelang je VM eisen, is het misschien verstandig een SSD te gebruiken, aangezien je toch één poort minimaal zal vrijhouden. Een RAID-controller heeft géén énkel nut met FreeNAS, aangezien je je schijven rechtstreeks wil aanspreken en niet via een RAID-controller. >100MB/s zou geen probleem moeten zijn voor max throughput maar hou rekening ermee dat als je VM's veel random read/write doen, je deze snelheid niet altijd zal kunnen halen, daarmee dat ik ook aanhaal dat je misschien een SSD voor de VM's moet overwegen.
Je zegt niet alle moederborden ondersteunen 16GB? Maar ik ken geen moderne borden die het niet ondersteunen?
Elk socket 1155 bord heeft 16GB support, alle AMD borden vanaf AM2+ hebben 16GB support, en Brazos heeft ondanks dat ze zeggen van niet, bij 99% van de bordjes gewoon ondersteuning voor 8GB DIMM's.
En inderdaad, wat Phuncz zegt, SATA600 is (nog) onzin voor harde schijven.
Elk socket 1155 bord heeft 16GB support, alle AMD borden vanaf AM2+ hebben 16GB support, en Brazos heeft ondanks dat ze zeggen van niet, bij 99% van de bordjes gewoon ondersteuning voor 8GB DIMM's.
En inderdaad, wat Phuncz zegt, SATA600 is (nog) onzin voor harde schijven.
Even niets...
Ik zoek meer een bord met een onboard cpu/apu.... ik dacht voorheen aan Asus C60M1-I maar deze is niet meer leverbaar...
Waarom zou je dat willen? je levert enorm in op flexibiliteit en dan kan je net zo goed een kant en klare NAS kopen met een mediaplayer los erbij.Spuitelf schreef op zaterdag 22 juni 2013 @ 09:29:
Ik zoek meer een bord met een onboard cpu/apu.... ik dacht voorheen aan Asus C60M1-I maar deze is niet meer leverbaar...
Prijs technisch scheelt me dat 100-150 euro.. Maar ok, stel ik zou voor bovenstaand mobo gaan, een i5 zou toch meer dan moeten voldoen voor mijn taken?redfoxert schreef op zaterdag 22 juni 2013 @ 09:31:
[...]
Waarom zou je dat willen? je levert enorm in op flexibiliteit en dan kan je net zo goed een kant en klare NAS kopen met een mediaplayer los erbij.
Mijn observaties rond de onboard CPU/APU mobo's is dat ze serieus tekortschieten op het performance-gedeelte. Als je dan ook nog meer dan 4 SATA-poorten nodig hebt, wordt de keuze al helemaal beperkt: pricewatch: Asus E2KM1-I Deluxe
Voor die prijs koop je ook dat H77 moederbord met een betere pricewatch: Intel Core i3 3210 Boxed of pricewatch: Intel Pentium G2130 Boxed
Voor die prijs koop je ook dat H77 moederbord met een betere pricewatch: Intel Core i3 3210 Boxed of pricewatch: Intel Pentium G2130 Boxed
[ Voor 5% gewijzigd door Phuncz op 22-06-2013 09:47 ]
Je hebt echt geen i3 nodig om een beetje performance te halen, een G1610 is al vele malen sneller dan een C60.
Pak deze twee:
pricewatch: Intel Celeron G1610 Boxed
pricewatch: MSI B75MA-P45
Voor dat geld heb je echt geen C60 alternatief...
De grootste kostenpost die je je zelf aandoet is je form factor... En waarom wel zoveel geld uitgeven aan een kast en niet aan de binnenkant?
Dat is pas zonde
Pak deze twee:
pricewatch: Intel Celeron G1610 Boxed
pricewatch: MSI B75MA-P45
Voor dat geld heb je echt geen C60 alternatief...
De grootste kostenpost die je je zelf aandoet is je form factor... En waarom wel zoveel geld uitgeven aan een kast en niet aan de binnenkant?
Dat is pas zonde
Even niets...
Sorry een i5?Spuitelf schreef op zaterdag 22 juni 2013 @ 09:32:
[...]
Prijs technisch scheelt me dat 100-150 euro.. Maar ok, stel ik zou voor bovenstaand mobo gaan, een i5 zou toch meer dan moeten voldoen voor mijn taken?

Wat jij wil kan al met een simpele G2020
Hell, met een G1610 ook wel hoor 
Alternatieve kast:
pricewatch: Lian Li PC-V355
Alternatieve kast:
pricewatch: Lian Li PC-V355
[ Voor 65% gewijzigd door FireDrunk op 22-06-2013 09:51 ]
Even niets...
Ik kijk uit principe niet naar Celerons
[ Voor 9% gewijzigd door redfoxert op 22-06-2013 10:18 ]
Alleen vanwege de naam? Dat is niet erg... slim. Celerons zijn nagenoeg precies dezelfde hardware als i3's, i5's, i7's, alleen met wat meuk gedisablet.
Heb wat dingen aangepast aan de setup en ben tot het volgende gekomen:
Behuizing: Lian Li PC-Q25B
Moederbord: ASUS P8H77-I
CPU: Intel BX80637G2130 processor
Geheugen: Kingston HyperX KHX1600C10D3B1K2/16G
USB voor OS: Sandisk Cruzer Fit 4GB Zwart | SDCZ33-004G-B35
Disks: Western Digital RE4, 2TB | WD2003FYYS 3x
Sata kabel: Akasa PROSLIM SATA 3.0 15cm | AK-CBSA05-15BK 3x
Zouden jullie nog wat wijzigen of zo laten? Eventueel over een half jaar komen er nog 3 disks bij.
Ik mis alleen nog een voeding, enige suggesties?
Behuizing: Lian Li PC-Q25B
Moederbord: ASUS P8H77-I
CPU: Intel BX80637G2130 processor
Geheugen: Kingston HyperX KHX1600C10D3B1K2/16G
USB voor OS: Sandisk Cruzer Fit 4GB Zwart | SDCZ33-004G-B35
Disks: Western Digital RE4, 2TB | WD2003FYYS 3x
Sata kabel: Akasa PROSLIM SATA 3.0 15cm | AK-CBSA05-15BK 3x
Zouden jullie nog wat wijzigen of zo laten? Eventueel over een half jaar komen er nog 3 disks bij.
Ik mis alleen nog een voeding, enige suggesties?
pricewatch: Seasonic G-Serie 360Watt deze word allom geprezen in DIY servers topics
[ Voor 17% gewijzigd door ThinkPad op 22-06-2013 11:35 ]
en met het zicht op toekomst (6x hdd) moet dit voldoende zijn?
Dat weet ik zo niet, daarvoor moet je even de reactie van iemand anders afwachten. Weet wel dat die voeding onderdelen van goede kwaliteit gebruikt, en dus goed geschikt is om 24/7 te draaien.
Ik heb acht harde schijven + SSD aan die voeding hangen. Werkt goed.
Deze voedingen zijn niet gemaakt om als NAS voeding te dienen. Ze zijn gemaakt om een systeem met videokaart aan te drijven.
Daardoor heb je wel wat power splitters nodig. Er zitten standaard ~4 SATA voedingskabels aan.
Deze voedingen zijn niet gemaakt om als NAS voeding te dienen. Ze zijn gemaakt om een systeem met videokaart aan te drijven.
Daardoor heb je wel wat power splitters nodig. Er zitten standaard ~4 SATA voedingskabels aan.
Lenovo W520 - i7 2720QM - 8GB DDR3 1333Mhz - 1080p - Nvidia 1000M - 9 cell accu
Ik heb nu twee verschillende systemen gekozen:
wenslijst: Thuisserver
en
Behuizing: Lian Li PC-Q25B
Moederbord: ASUS P8H77-I
CPU: Intel BX80637G2130 processor
Geheugen: Kingston HyperX KHX1600C10D3B1K2/16G
USB voor OS: Sandisk Cruzer Fit 4GB Zwart | SDCZ33-004G-B35
Disks: Western Digital RE4, 2TB | WD2003FYYS 3x
Voeding: Season 360W
Scheelt me 300 euro, ga ik dit merken in performance?
wenslijst: Thuisserver
en
Behuizing: Lian Li PC-Q25B
Moederbord: ASUS P8H77-I
CPU: Intel BX80637G2130 processor
Geheugen: Kingston HyperX KHX1600C10D3B1K2/16G
USB voor OS: Sandisk Cruzer Fit 4GB Zwart | SDCZ33-004G-B35
Disks: Western Digital RE4, 2TB | WD2003FYYS 3x
Voeding: Season 360W
Scheelt me 300 euro, ga ik dit merken in performance?
I know ... heb net de G1610 en de G2020 naast elkaar gezet bij Intel. Enige verschil is de max clockspeed. Ben zelf aan het orienteren om mobo/cpu/mem van mn huidige fileserver te vervangen en had initieel de G2020 op het oog. Ik denk nu dat ik met de G1610 ook wel uit de voeten kan. Hij gaat een C2D E8400 vervangen.mux schreef op zaterdag 22 juni 2013 @ 10:31:
Alleen vanwege de naam? Dat is niet erg... slim. Celerons zijn nagenoeg precies dezelfde hardware als i3's, i5's, i7's, alleen met wat meuk gedisablet.
Aan die G360 durf ik wel 20 disks te hangen, mits je staggered spinup gebruikt maakt dat allemaal niet zoveel uit hoor. Een harddisk verbruikt nou niet echt noemenswaardig veel...
Even niets...
Mmh not gud. Ik zag na een reboot dat een lvm partitie volledig leeg is, terwijl dat niet de bedoeling was.
Ik kan in de syslog niks terug vinden over mijn logical volume. Ook smartctl geeft passed. Overige logical volume's doen het nog wel van dezelfde volume group. Testdisk gerund op de LV, geeft geen linux partities terug. Kan hem zonder problemen mounten/umounten en bereiken, maar alle data is foetsie.
Draait nu nog een testdisk op de hdd zelf, eens kijken wat dat oplevert.
Enige wat ik zag is dat in mijn samba config hij open stond om files/folders te verwijderen. Kan haast niet dat, dat het is. Iemand dit eerder meegemaakt of tips?
Ik kan in de syslog niks terug vinden over mijn logical volume. Ook smartctl geeft passed. Overige logical volume's doen het nog wel van dezelfde volume group. Testdisk gerund op de LV, geeft geen linux partities terug. Kan hem zonder problemen mounten/umounten en bereiken, maar alle data is foetsie.
Draait nu nog een testdisk op de hdd zelf, eens kijken wat dat oplevert.
Enige wat ik zag is dat in mijn samba config hij open stond om files/folders te verwijderen. Kan haast niet dat, dat het is. Iemand dit eerder meegemaakt of tips?
Ik heb op dit moment een IBM M1015 in mijn mini ITX storage server hangen, welke nu 6 schijven (van de 8 maximaal) aanstuurt. Binnenkort komen hier twee ZFS caching SSDs bij. Echter, ik wil graag deze ZFS pool uitbreiden of een nieuwe ZFS pool toevoegen bestaande uit 6 schijven. Hierdoor kom ik 2 SATA poorten te kort (mijn moederbord heeft er 4+mSATA).
Wat is nu de goedkoopste manier om dit op te lossen?
Het eenvoudigste is natuurlijk om de M1015 te vervangen door iets als de LSI SAS 9201-16i, maar dat kost me wel grofweg €400 (kaart + 2x SFF8087 => 4x SATA kabel). Dat moet toch goedkoper kunnen?
Ik kom bijvorbeeld de HP SAS Expander Card tegen, maar deze heeft weer een PCIe x4 slot nodig (wat ik niet heb, want mini ITX). ZEn een oplossing om van mPCIe naar PCIe 1x te gaan is ook al gauw €100, waardoor de oplossing met een nieuwe controller wel erg interessant word. Sowieso, waarom zou een "simpele" expander een x4 slot nodig hebben?
Mijn huidige systeem:
EDIT: En natuurlijk kom je dan nog geen 5 minuten later de ideale oplossing tegen
De Intel RAID Expander Card RES2SV240 (PW). Kost iets meer dan de bovengenoemde HP adapter, maar heeft een molex connector voor power naast het PCIe slot. Dat levert me een "besparing" van ~€100 op voor de adapter die ik anders had moeten hebben
Wat is nu de goedkoopste manier om dit op te lossen?
Het eenvoudigste is natuurlijk om de M1015 te vervangen door iets als de LSI SAS 9201-16i, maar dat kost me wel grofweg €400 (kaart + 2x SFF8087 => 4x SATA kabel). Dat moet toch goedkoper kunnen?
Ik kom bijvorbeeld de HP SAS Expander Card tegen, maar deze heeft weer een PCIe x4 slot nodig (wat ik niet heb, want mini ITX). ZEn een oplossing om van mPCIe naar PCIe 1x te gaan is ook al gauw €100, waardoor de oplossing met een nieuwe controller wel erg interessant word. Sowieso, waarom zou een "simpele" expander een x4 slot nodig hebben?
Mijn huidige systeem:
# | Product | Prijs | Subtotaal |
1 | Intel Xeon E3-1265LV2 Boxed | € 272,40 | € 272,40 |
1 | Intel DH77DF | € 104,50 | € 104,50 |
6 | Hitachi Travelstar 5K1000, 1TB | € 61,99 | € 371,94 |
1 | BitFenix Prodigy Wit | € 65,15 | € 65,15 |
2 | 3Ware 3Ware Multi-lane SATA cable CBL-SFF8087OCF-05M | € 16,40 | € 32,80 |
2 | Kingston KVR1333D3N9/8G | € 42,16 | € 84,32 |
1 | IBM ServeRAID M1015 SAS/SATA Controller for System x | € 118,58 | € 118,58 |
1 | Super Flower Golden Green SF-400P14XE | € 72,78 | € 72,78 |
1 | Crucial m4 mSATA CT032M4SSD3 32GB | € 48,04 | € 48,04 |
Bekijk collectie Importeer producten | Totaal | € 1.170,51 |
EDIT: En natuurlijk kom je dan nog geen 5 minuten later de ideale oplossing tegen

De Intel RAID Expander Card RES2SV240 (PW). Kost iets meer dan de bovengenoemde HP adapter, maar heeft een molex connector voor power naast het PCIe slot. Dat levert me een "besparing" van ~€100 op voor de adapter die ik anders had moeten hebben
[ Voor 5% gewijzigd door Xudonax op 22-06-2013 22:27 ]
https://tweakers.net/pric...highpoint-rocket-620.html
Draai nu hem aantal dagen onder linux, werkt prima was plug and play.
Draai nu hem aantal dagen onder linux, werkt prima was plug and play.
@Dennisik: Ik heb geen PCIe poorten meer beschikbaar
Daarnaast is dit een RAID kaart, met Marvell controller. Ik heb één keer eerder een Marvell controller onder Linux geprobeerd (dezelfde serie, maar dan zonder RAID) en mijn schijven gingen vrolijk op hun bek, dus ik denk niet dat ik dat nogmaals wil proberen
Als je dan toch een nieuwe controller nodig hebt, kan je net zo goed een andere kast en moederbord nemen en nog een M1015 pakken
Daar zit ook wel iets in, maar dan moet ik ook een nieuwe kast hebbenredfoxert schreef op zaterdag 22 juni 2013 @ 22:28:
Als je dan toch een nieuwe controller nodig hebt, kan je net zo goed een andere kast en moederbord nemen en nog een M1015 pakken
Maar natuurlijk kom je nog geen 5 minuten na het posten de ideale oplossing tegen

De Intel RAID Expander Card RES2SV240 (PW). Kost iets meer dan de bovengenoemde HP adapter, maar heeft een molex connector voor power naast het PCIe slot. Dat levert me een "besparing" van ~€100 op voor de adapter die ik anders had moeten hebben
Interessant ding inderdaad ... hoe sluit je die aan op de M1015? Gewoon doorlussen met de juiste kabels op een van de SFF poorten ?
Ja, je sluit 1 (of 2) SFF8087 poorten aan op de Intel kaart, en vanaf daar door naar je schijven. Met 2 kabels heb je de volle bandbreedte van je M1015 naar je expander, anders de helft. Persoonlijk ga ik alles doorlussen (als dit inderdaad mogelijk is!) en dan alles vanaf de expander draaien 
EDIT: En de Intel kaart is SAS2.0/SATA 3.0 compatible, dus je SATA apparaten lopen ook gewoon op SATA 3.0 (6Gbit/s) als je controller dat ondersteund. Daarnaast zit er een LSI SAS2x24 onder de koeler, waardoor ik de kans groot acht dat het werkt met andere LSI chips
EDIT2: Volgens de LSI product brief is het mogelijk om twee inputs te gebruiken, maar zij laten het zien vanaf twee verschillende SAS2008 controllers... Zie pagina 2 van het gelinkte document
EDIT: En de Intel kaart is SAS2.0/SATA 3.0 compatible, dus je SATA apparaten lopen ook gewoon op SATA 3.0 (6Gbit/s) als je controller dat ondersteund. Daarnaast zit er een LSI SAS2x24 onder de koeler, waardoor ik de kans groot acht dat het werkt met andere LSI chips
EDIT2: Volgens de LSI product brief is het mogelijk om twee inputs te gebruiken, maar zij laten het zien vanaf twee verschillende SAS2008 controllers... Zie pagina 2 van het gelinkte document
[ Voor 56% gewijzigd door Xudonax op 22-06-2013 22:49 ]
Daar ga je bij gewoon NAS gebruik geen verschil tussen merken. Ik heb zelf grotendeels de setup die in je wenslijstje staat (zelfs dezelfde USB als boot partitieSpuitelf schreef op zaterdag 22 juni 2013 @ 13:05:
Ik heb nu twee verschillende systemen gekozen:
wenslijst: Thuisserver
en
Behuizing: Lian Li PC-Q25B
Moederbord: ASUS P8H77-I
CPU: Intel BX80637G2130 processor
Geheugen: Kingston HyperX KHX1600C10D3B1K2/16G
USB voor OS: Sandisk Cruzer Fit 4GB Zwart | SDCZ33-004G-B35
Disks: Western Digital RE4, 2TB | WD2003FYYS 3x
Voeding: Season 360W
Scheelt me 300 euro, ga ik dit merken in performance?
Ik zou persoonlijk voor de Intel G2130 ipv de G860, puur omdat de G2130 een Ivy Bridge CPU is en hierdoor waarschijnlijk zuiniger is. Dat is ook wat waard lijkt me 
Heeft iemand trouwens enig idee wat je ongeveer aan throughput kunt verwachten met een RAID-Z2 op basis van 8 Western Digital VelociRaptors? Die dingen doen elk 210MBps/164MBps/115MBps max/avg/min (read én write schijnbaar), dus als ik dat even heel lomp uitreken kom ik uit op 1680Mbps/1312MBps/920MBps max/avg/min door simpelweg de getallen te vermenigvuldigen met 8.
Zeg nu even dat er ~70% van die performance overblijft na de parity e.d. (waardoor ik dus al 2 schijven "mis" aan read performance t.o.v. RAID0) dan kom ik op 1176MBps/918,4MBps/644MBps. Durft iemand in te schatten in hoeverre dit overeenkomt met de realiteit? Het zou namelijk wel héél leuk zijn om grofweg 1GByte/s te kunnen verstouwen op m'n videostore
Heeft iemand trouwens enig idee wat je ongeveer aan throughput kunt verwachten met een RAID-Z2 op basis van 8 Western Digital VelociRaptors? Die dingen doen elk 210MBps/164MBps/115MBps max/avg/min (read én write schijnbaar), dus als ik dat even heel lomp uitreken kom ik uit op 1680Mbps/1312MBps/920MBps max/avg/min door simpelweg de getallen te vermenigvuldigen met 8.
Zeg nu even dat er ~70% van die performance overblijft na de parity e.d. (waardoor ik dus al 2 schijven "mis" aan read performance t.o.v. RAID0) dan kom ik op 1176MBps/918,4MBps/644MBps. Durft iemand in te schatten in hoeverre dit overeenkomt met de realiteit? Het zou namelijk wel héél leuk zijn om grofweg 1GByte/s te kunnen verstouwen op m'n videostore
Heb via tweakers van iemand een thuisserver gekocht (identieke setup als eerder aangegeven). Dit zonder disks.
Ik wil nog altijd freenas op de usb drive zetten aangezien dat toch in het geheugen gelaad word en de usb drive zelf weinig zal gebruiken.
Ik twijfel alleen nog tussen 2+1 in raidz of 4+2 in raidz2.
Ik heb gekozen voor WD red 2TB drives. Ik zit er eventueel aan te denken om een samsung 840pro 128GB als cache in te stellen op mijn zfs pool tegen die tijd. Ik neem aan dat 128GB voor caching meer dan voldoende is?
Ik wil nog altijd freenas op de usb drive zetten aangezien dat toch in het geheugen gelaad word en de usb drive zelf weinig zal gebruiken.
Ik twijfel alleen nog tussen 2+1 in raidz of 4+2 in raidz2.
Ik heb gekozen voor WD red 2TB drives. Ik zit er eventueel aan te denken om een samsung 840pro 128GB als cache in te stellen op mijn zfs pool tegen die tijd. Ik neem aan dat 128GB voor caching meer dan voldoende is?
Let wel op dat de WD Red schijven TLER standaard aan hebben staan. Dit is voor ZFS niet nuttig. Zelf doe ik een RAIDZ2 setup met 6 el-cheapo notebook disks en dat werkt gewoon goed (~300MB/s schrijven, ~350MB/s lezen).Op het netwerk is read caching niet héél interessant (als je het bij AF{/CIFS/FTP houd), ik heb dit geprobeerd in combinatie met een iSCSI store maar dit had weinig tot geen zichtbaar nut.
EDIT: Het voordeel is wel dat je disks pas hoeven op te spinnen zodra je daadwerkelijk bestanden gaat openen ipv dat ze al moeten opspinnen zodra je de share opent en bestandsnamen wilt bekijken. En natuurlijk blijven je disks ook uit zolang je regelmatig/recent gebruike bestanden opent. Of dat het waard is moet je voor jezelf inschatten
EDIT: Het voordeel is wel dat je disks pas hoeven op te spinnen zodra je daadwerkelijk bestanden gaat openen ipv dat ze al moeten opspinnen zodra je de share opent en bestandsnamen wilt bekijken. En natuurlijk blijven je disks ook uit zolang je regelmatig/recent gebruike bestanden opent. Of dat het waard is moet je voor jezelf inschatten
[ Voor 29% gewijzigd door Xudonax op 23-06-2013 10:47 ]
Ik wacht eerder dat je rond de 900MB/s lezen zit, en 500MB/s schrijven. Je hebt nog een write penalty omdat je een niet optimaal aantal schijven in RAIDZ2 stopt.Xudonax schreef op zondag 23 juni 2013 @ 00:46:
Ik zou persoonlijk voor de Intel G2130 ipv de G860, puur omdat de G2130 een Ivy Bridge CPU is en hierdoor waarschijnlijk zuiniger is. Dat is ook wat waard lijkt me
Heeft iemand trouwens enig idee wat je ongeveer aan throughput kunt verwachten met een RAID-Z2 op basis van 8 Western Digital VelociRaptors? Die dingen doen elk 210MBps/164MBps/115MBps max/avg/min (read én write schijnbaar), dus als ik dat even heel lomp uitreken kom ik uit op 1680Mbps/1312MBps/920MBps max/avg/min door simpelweg de getallen te vermenigvuldigen met 8.
Zeg nu even dat er ~70% van die performance overblijft na de parity e.d. (waardoor ik dus al 2 schijven "mis" aan read performance t.o.v. RAID0) dan kom ik op 1176MBps/918,4MBps/644MBps. Durft iemand in te schatten in hoeverre dit overeenkomt met de realiteit? Het zou namelijk wel héél leuk zijn om grofweg 1GByte/s te kunnen verstouwen op m'n videostore
Bovendien reken je verkeerd, je mist niet twee schijven bij lezen, je mist juist 2 schijven bij schrijven.
Er kunnen bij ZFS gewoon 8 schijven tegelijk data lezen, en zolang de checksums kloppen hoeft de pariteit niet ingelezen te worden.
Bij schrijven heb je wel maar 6 schijven. En die doen ongeveer 70% van hun max als je mazzel hebt. Dan gaat daar nog eens een write penalty overheen vanwege niet optimaal aantal schijven.
6 * (148*0.7) * 90% = ~550-600MB/s
[ Voor 16% gewijzigd door FireDrunk op 23-06-2013 11:00 ]
Even niets...
Dan is het misschien wel interessant om de disk bays van mijn Bitfenix Prodigy te gaan modden zodat ik daar fatsoenlijk 12+ 2.5" disks in kwijt kan. Nu nog kijken hoe ik dat ga doen...
Je zal zeker een vette performance halen, maar heb je ook een netwerkaansluiting om die 1GB/s nuttig te besteden?Xudonax schreef op zondag 23 juni 2013 @ 00:46:
<...>
Het zou namelijk wel héél leuk zijn om grofweg 1GByte/s te kunnen verstouwen op m'n videostore
"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!
Last but not least; het word dus ssd voor caching...
Moet ik deze SSD mirroren (en dus 2 ssd's kopen) of is een single ssd goed? Gaat mijn pool niet kapot indien de ssd het begeeft als ik er maar 1 heb?
Ik zat bijvoorbeeld te denken aan:
5x2TB Seagate 3 platter 4k ondersteuning > raid-z2
2x crucial 120SSD voor cache (mirror) (of enkel) en dan de disk in 2 partities te maken, 1 voor log, 1 voor cache.
Daarnaast compressie inschakelen.
Uitgaand van:
- Macbook time machine
- 2 Mediacenters streamen
- data toegang vanaf 2 computers
Is het nog nodig om de ssd in mirror te zetten of niet? Wijselijk om je log weg te laten schrijven naar een andere ssd? Of puur voor cache naar ssd te laten gaan?
Ook zat ik eraan te denken een extra gbit netwerkkaart erin te stoppen. Beide media center + time machine te laten backuppen over 1 netwerkkaart, en al het andere over de andere.
Moet ik deze SSD mirroren (en dus 2 ssd's kopen) of is een single ssd goed? Gaat mijn pool niet kapot indien de ssd het begeeft als ik er maar 1 heb?
Ik zat bijvoorbeeld te denken aan:
5x2TB Seagate 3 platter 4k ondersteuning > raid-z2
2x crucial 120SSD voor cache (mirror) (of enkel) en dan de disk in 2 partities te maken, 1 voor log, 1 voor cache.
Daarnaast compressie inschakelen.
Uitgaand van:
- Macbook time machine
- 2 Mediacenters streamen
- data toegang vanaf 2 computers
Is het nog nodig om de ssd in mirror te zetten of niet? Wijselijk om je log weg te laten schrijven naar een andere ssd? Of puur voor cache naar ssd te laten gaan?
Ook zat ik eraan te denken een extra gbit netwerkkaart erin te stoppen. Beide media center + time machine te laten backuppen over 1 netwerkkaart, en al het andere over de andere.
[ Voor 11% gewijzigd door Aapje! op 23-06-2013 13:36 ]
Dat komt daarna, ik heb een mPCIe slot op PCIe 3.0, dus dat levert krap 1GByte/s op. Als ik daar nu een 10GE kaart op aansluit...webfreakz.nl schreef op zondag 23 juni 2013 @ 13:15:
Je zal zeker een vette performance halen, maar heb je ook een netwerkaansluiting om die 1GB/s nuttig te besteden?
Onderhand heb ik mijn idee aangepast, ik denk dat het slimmer (in ieder geval goedkoper) is om te gaan voor 20 goedkope 1TB schijven op 5200rpm, welke gemiddeld krap 100MByte/s doen. Als ik dat in 2 RAIDZ2 arrays plaats dan houd ik ~16TB aan beschikbare ruimte over samen met een praktisch even hoge doorvoer. Moet ik alleen een kleine casemod doen in mijn Bitfenix Prodigy, en dat gaat ook nog wat moeite kosten. Ik ben niet al te best in CAD tekeningen en aanverwante zaken
Als het caching (L2ARC) SSDs zijn, dan hoef je ze niet per sé te stripen (L2ARC kun je AFAIK niet mirroren, alleen ZIL). Voor je vraag over een ZIL SSD, dit kan, maar ik merk met mijn array niet dat ik tegen de limiet van mijn schijven aanloop. Ik heb ook Time Machine op mijn ZFS lopen, en dit gaat gewoon vrolijk tegen de limiet van het netwerk, oftewel 110Mbyte/s.Spuitelf schreef op zondag 23 juni 2013 @ 13:35:
Last but not least; het word dus ssd voor caching...
Moet ik deze SSD mirroren (en dus 2 ssd's kopen) of is een single ssd goed? Gaat mijn pool niet kapot indien de ssd het begeeft als ik er maar 1 heb?
Dus eigenlijk raad je aan:Xudonax schreef op zondag 23 juni 2013 @ 13:38:
[...]
Dat komt daarna, ik heb een mPCIe slot op PCIe 3.0, dus dat levert krap 1GByte/s op. Als ik daar nu een 10GE kaart op aansluit...Moet ik alleen nog mijn Mac een 10GbE kaart zien te geven, maar dat kan vast via Thunderbolt.
Onderhand heb ik mijn idee aangepast, ik denk dat het slimmer (in ieder geval goedkoper) is om te gaan voor 20 goedkope 1TB schijven op 5200rpm, welke gemiddeld krap 100MByte/s doen. Als ik dat in 2 RAIDZ2 arrays plaats dan houd ik ~16TB aan beschikbare ruimte over samen met een praktisch even hoge doorvoer. Moet ik alleen een kleine casemod doen in mijn Bitfenix Prodigy, en dat gaat ook nog wat moeite kosten. Ik ben niet al te best in CAD tekeningen en aanverwante zakenMaar dat is meer iets voor het casemodding forum en niet voor hier
[...]
Als het caching (L2ARC) SSDs zijn, dan hoef je ze niet per sé te stripen (L2ARC kun je AFAIK niet mirroren, alleen ZIL). Voor je vraag over een ZIL SSD, dit kan, maar ik merk met mijn array niet dat ik tegen de limiet van mijn schijven aanloop. Ik heb ook Time Machine op mijn ZFS lopen, en dit gaat gewoon vrolijk tegen de limiet van het netwerk, oftewel 110Mbyte/s.
ZIL te laten zoals het is, l2arc over ssd. En maar 1 ssd te nemen ipv 2. Correct?
Eigenlijk zou ik zelfs aanraden om zonder SSDs in het algemeen te beginnen, en te kijken of je ze nodig hebt, maar een L2ARC is altijd handig omdat het zorgt dat je disks langer/vaker in spindown kunnen blijven. Maar de mensen met de echte kennis hievan vind je toch in Het grote ZFS topic denk ikSpuitelf schreef op zondag 23 juni 2013 @ 13:46:
Dus eigenlijk raad je aan:
ZIL te laten zoals het is, l2arc over ssd. En maar 1 ssd te nemen ipv 2. Correct?
Ik ben op zoek naar een behuizing om een aantal disks in te stoppen (ca 10). Deze wil ik het liefst hotswappable hebben, maar ik kan eigenlijk niet echt een handige case vinden.
Er zijn een aantal nassen, maar dat is geen DIY, en zijn ook redelijk prijzig.
Ik had wel het volgende gevonden, zodat ik "maar" 2x3 = 6 x 5.25" bays nodig heb:
http://www.newegg.com/Pro...aspx?Item=N82E16816133030
Heeft iemand nog suggesties?
Er zijn een aantal nassen, maar dat is geen DIY, en zijn ook redelijk prijzig.
Ik had wel het volgende gevonden, zodat ik "maar" 2x3 = 6 x 5.25" bays nodig heb:
http://www.newegg.com/Pro...aspx?Item=N82E16816133030
Heeft iemand nog suggesties?
Ennnnnnnnnn laat losssssssss.... https://github.com/jrz/container-shell (instant container met chroot op current directory)
De Codegen 4U-55,
http://gistron.nl/info/45400/info.html
Daar zitten al 10 hotswap bays in maar is niet erg praktisch als je geen rack hebt.
Daarnaast heb je ook nog de Zalman MS-800,
pricewatch: Zalman MS800 Plus
Daar zitten al hotswap bays in maar deze kunnen losgeschroeft worden waardoor je totaal 10 5,25" bays hebt.
Dit is misschien ook goed als inspiratie,
http://lime-technology.co...3a694c1158&topic=17799.75
http://lime-technology.co...33a694c1158&topic=12405.0
http://gistron.nl/info/45400/info.html
Daar zitten al 10 hotswap bays in maar is niet erg praktisch als je geen rack hebt.
Daarnaast heb je ook nog de Zalman MS-800,
pricewatch: Zalman MS800 Plus
Daar zitten al hotswap bays in maar deze kunnen losgeschroeft worden waardoor je totaal 10 5,25" bays hebt.
Dit is misschien ook goed als inspiratie,
http://lime-technology.co...3a694c1158&topic=17799.75
http://lime-technology.co...33a694c1158&topic=12405.0
[ Voor 23% gewijzigd door Shamalamadindon op 24-06-2013 10:46 ]
Wanneer heb je het laatst je wachtwoord verandert? Er word op T.net de laatste tijd regelmatig misbruikt gemaakt van accounts met gelekte wachtwoorden om andere gebruikers op te lichten. Verander je wachtwoord, geef oplichters geen kans!
Als je meerdere 5.25" bays hebt die je kunt opofferen en je wilt er 2.5" disks instoppen kun je ook deze gebruiken: Icy box MB996SP-6SB. Is hotswappable. Heb 'em zelf ook
Wegens het random 'verdwijnen' van disks gisteren de voeding (Silverstone SST-ST45SF-G) van mijn 12 disk nas gewisseld voor een Seasonic G550. Machine loopt weer heerlijk stabiel, nog geen fout gezien. Blijkbaar was er toch iets met de 12v lijn oid van de ST45SF-G.
Is er nog iets veranderd qua verbruik?
Even niets...
Weet ik eigenlijk niet. Belangrijker dat ie nu stabiel isFireDrunk schreef op maandag 24 juni 2013 @ 15:22:
Is er nog iets veranderd qua verbruik?
Ik twijfel nog tussen twee dingen.
5x3TB raidz2 = 7.2TB netto
5x2TB raidz2 = 5.5TB netto
Beide voor dit moment genoeg, echter ik ben niet van plan om het jaar nieuwe schijven te kopen.
en welke disks ik het beste kan gebruiken voor Freenas.
Ik had Seagate 3TB disks gezien met 4k sectors voor 109,- p.s. Dezelfde maar dan met 2TB voor 77,- p.s.
Of zijn er nog alternatieven / betere disks te nemen in plaats van bovenstaande?
5x3TB raidz2 = 7.2TB netto
5x2TB raidz2 = 5.5TB netto
Beide voor dit moment genoeg, echter ik ben niet van plan om het jaar nieuwe schijven te kopen.
en welke disks ik het beste kan gebruiken voor Freenas.
Ik had Seagate 3TB disks gezien met 4k sectors voor 109,- p.s. Dezelfde maar dan met 2TB voor 77,- p.s.
Of zijn er nog alternatieven / betere disks te nemen in plaats van bovenstaande?
Ligt een beetje aan de rest van je systeem. Qua stroomverbruik per TB is 4TB goedkoper.
Maar als de rest van je server nog meer verbruikt is het rommelen in de marge...
Maar als de rest van je server nog meer verbruikt is het rommelen in de marge...
Even niets...
Verwijderd
@Spuitelf, ik ben geen fan van 4TB schijven aangezien die door de extra platters meer energie verbruiken per schijf wat resulteert in een warmere schijf. Zeker als je geen actieve koeling wilt toepassen, is een watt minder verbruik toch vrij belangrijk aangezien je qua sweet spot dan dichter in de buurt van de sweet spot komt tussen 25 en 35 graden (bij 18 graden omgevingstemp).
Verder kan ik de Seagate 7200.14 schijven afraden. Ze maken irritante geluiden, en zijn door de background scanning helemaal niet zo zuinig omdat ze maar zelden idle zijn. Regelmatig kleine tikjes en vrij hoge temperatuur maken dit eigenlijk vrij slechte schijven voor gebruik in een low-power ZFS server.
Ik ben vooralsnog fan van de WD-schijven van 3TB met 1TB platters. Merk op dat de opgegeven energieverbruik in reviews en sommige datasheets in veel gevallen niet klopt. Er zijn namelijk twee versies: die met 750GB platters en dus een platter extra, minder snel en minder zuinig, en de moderne versie met 1000GB platters. Hetzelfde geldt voor de WD Red overigens. Verwarring is ontstaan doordat sommige reviewsites de Red met 3 platters van 1000GB gingen vergelijken met de Green met 4 platters van 750GB. Daarbij werd de conclusie getrokken dat de Red zowel zuiniger als sneller is dan de Green. Maar beide zijn fysiek hetzelfde. Het hele probleem is dat WD verschillende producten levert onder dezelfde typenummers en zelfs part numbers. Ziek is dat, eigenlijk.
Momenteel vind ik de beste schijf:
pricewatch: Western Digital Green WD30EZRX, 3TB
Verder kan ik de Seagate 7200.14 schijven afraden. Ze maken irritante geluiden, en zijn door de background scanning helemaal niet zo zuinig omdat ze maar zelden idle zijn. Regelmatig kleine tikjes en vrij hoge temperatuur maken dit eigenlijk vrij slechte schijven voor gebruik in een low-power ZFS server.
Ik ben vooralsnog fan van de WD-schijven van 3TB met 1TB platters. Merk op dat de opgegeven energieverbruik in reviews en sommige datasheets in veel gevallen niet klopt. Er zijn namelijk twee versies: die met 750GB platters en dus een platter extra, minder snel en minder zuinig, en de moderne versie met 1000GB platters. Hetzelfde geldt voor de WD Red overigens. Verwarring is ontstaan doordat sommige reviewsites de Red met 3 platters van 1000GB gingen vergelijken met de Green met 4 platters van 750GB. Daarbij werd de conclusie getrokken dat de Red zowel zuiniger als sneller is dan de Green. Maar beide zijn fysiek hetzelfde. Het hele probleem is dat WD verschillende producten levert onder dezelfde typenummers en zelfs part numbers. Ziek is dat, eigenlijk.
Momenteel vind ik de beste schijf:
pricewatch: Western Digital Green WD30EZRX, 3TB
[ Voor 0% gewijzigd door Verwijderd op 24-06-2013 22:44 . Reden: stukje in vette tekst toegevoegd ]
Blijkbaar moet ik mij zelfs tegenover een modje gaan verdedigen, maar goed, daar zijn we hier voor 
Schaamteloze crosspost:
En dat van die geluiden is subjectief, ik heb hier 4TB Seagates en die doen niets van wat jij zegt...
Ook de temperatuur is prima...
Overigens zijn de Red's en Green's nog niet hetzelfde, de Green's zijn er nog niet in 1TB/platter uitvoering voor zover ik weet.. WD wacht daar lekker nog even mee, tot iedereen geil is geworden van al die Red's en ze hun zakken weer gevuld hebben.
Schaamteloze crosspost:
De nieuwste schijven van Seagate zijn 1TB/platter en hebben een idle verbruik van < 4W. Dat is dus 1W / TB, daar kunnen zelfs 2.5" schijven amper aan tippen.mux schreef op woensdag 12 juni 2013 @ 11:05:
De toekomst is hier, Seagate verkoopt zojuist de eerste (voor zover ik weet) 1TB/platter 4TB schijf, wat zich direct vertaalt in veruit de beste GB/watt-score van welke schijf dan ook met ca 1W/TB. Het gaat om de Seagate NAS HDD 4TB (ST4000VN000):
[afbeelding]
(edit; blijkbaar bestond de seagate hdd.15 al in Maart, maar for the purposes of this post doen we even alsof dit de eerste 1TB/platter 4TB consumentenschijf is)
En dat van die geluiden is subjectief, ik heb hier 4TB Seagates en die doen niets van wat jij zegt...
Ook de temperatuur is prima...
Overigens zijn de Red's en Green's nog niet hetzelfde, de Green's zijn er nog niet in 1TB/platter uitvoering voor zover ik weet.. WD wacht daar lekker nog even mee, tot iedereen geil is geworden van al die Red's en ze hun zakken weer gevuld hebben.
Even niets...
Verwijderd
Als die 4TB schijven inderdaad 4W verbruiken, dan heb ik niets gezegd. Dat zou namelijk enorm goed zijn! Alleen ik kan dit niet bevestigen met een third-party review. StorageReview heeft normaliter wel bruikbare cijfers, maar daarvan is de power consumption gek genoeg niet getest.
Verder weet ik ook niet of die ST4000VN000 niet de irritante background scanning heeft die de Seagate 7200.14 series heeft, want dat is echt niet fijn elke keer tikjes horen. Dan kun je veel beter de WD schijven nemen. Als jij die 4TB Seagates hebt en je hoort niet regelmatig zo'n irritant tikje elke seconde, dan hebben ze dit vast al verbeterd na klachten van gebruikers. Want ik vind het gruwelijk irritant. Het zorgt ook voor heel hoge idle waarden (6.7-8W).
Heb je misschien de mogelijkheid die Seagate 4TB te testen met een energiemeter? Systeem in rust en dan aansluiten met 0 en dan met 4 schijven bijvoorbeeld; dan kun je het verschil door 4 delen en heb je een redelijk nauwkeurig gemiddelde. Zo heb ik in het verleden ook getest.
Overigens is de WD30EZRX toch echt 1000GB platter; zowel de Red als de Greens komen in 750GB en 1000GB platter. Het zijn fysiek dezelfde schijven alleen verschillen in firmware en garantie.
Zie bijvoorbeeld:
WD30EZRX-00MMMB0/00AZ6B0 3TB (750GB/platter) (4/8)
WD30EZRX-00DC0B0 3TB (3/6)
Aan het gewicht zou je het moeten herkennen. Maar die 640 gram gaat over de 2TB variant, niet de 3TB die natuurlijk sowieso 3 platters heeft. Maar er is dus ook een 4-platter versie met 750GB platters, die wil je dus niet.
Ps. ik ben dan wel modje maar ik vind het wel fijn om als normale gebruiker gezien te worden, tenzij ik in de hoedanigheid van moderator treed. Juist ik die gevallen gebruik ik een aparte kleur om dit kenbaar te maken. Ik zou het jammer vinden als ik niet meer zou kunnen reageren als gebruiker, omdat ik daarnaast ook mod ben. Ik zou juist willen dat die twee zaken gescheiden kunnen blijven en elkaar niet bijten.
Verder weet ik ook niet of die ST4000VN000 niet de irritante background scanning heeft die de Seagate 7200.14 series heeft, want dat is echt niet fijn elke keer tikjes horen. Dan kun je veel beter de WD schijven nemen. Als jij die 4TB Seagates hebt en je hoort niet regelmatig zo'n irritant tikje elke seconde, dan hebben ze dit vast al verbeterd na klachten van gebruikers. Want ik vind het gruwelijk irritant. Het zorgt ook voor heel hoge idle waarden (6.7-8W).
Heb je misschien de mogelijkheid die Seagate 4TB te testen met een energiemeter? Systeem in rust en dan aansluiten met 0 en dan met 4 schijven bijvoorbeeld; dan kun je het verschil door 4 delen en heb je een redelijk nauwkeurig gemiddelde. Zo heb ik in het verleden ook getest.
Overigens is de WD30EZRX toch echt 1000GB platter; zowel de Red als de Greens komen in 750GB en 1000GB platter. Het zijn fysiek dezelfde schijven alleen verschillen in firmware en garantie.
Zie bijvoorbeeld:
Hopen natuurlijk maar dat deze info correct is. Maar het staat er toch vrij duidelijk in:*WD being annoying by introducing inferior drives into the market without changing the model code. Just like the new Seagate 2TB drives, be prepared to roll the dice if you purchase one of these online. You'll either get the slower three-platter variant (which weighs around 640 grams) or the "perfect" (lighter) two-platter one, at least until WD gets its 1TB platter production up to spec.
WD30EZRX-00MMMB0/00AZ6B0 3TB (750GB/platter) (4/8)
WD30EZRX-00DC0B0 3TB (3/6)
Aan het gewicht zou je het moeten herkennen. Maar die 640 gram gaat over de 2TB variant, niet de 3TB die natuurlijk sowieso 3 platters heeft. Maar er is dus ook een 4-platter versie met 750GB platters, die wil je dus niet.
Ps. ik ben dan wel modje maar ik vind het wel fijn om als normale gebruiker gezien te worden, tenzij ik in de hoedanigheid van moderator treed. Juist ik die gevallen gebruik ik een aparte kleur om dit kenbaar te maken. Ik zou het jammer vinden als ik niet meer zou kunnen reageren als gebruiker, omdat ik daarnaast ook mod ben. Ik zou juist willen dat die twee zaken gescheiden kunnen blijven en elkaar niet bijten.
[ Voor 37% gewijzigd door Verwijderd op 24-06-2013 22:41 ]
Blijf dat vooral doen, want ik heb namelijk nog nooit een moderator zoveel inhoudelijk zien reagerenVerwijderd schreef op maandag 24 juni 2013 @ 22:34:
[...]
Ik zou het jammer vinden als ik niet meer zou kunnen reageren als gebruiker, omdat ik daarnaast ook mod ben.
"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!
Verwijderd
offtopic:
Ik heb bij mijn aanstelling als moderator ook bedongen dat ik mij als normaal lid kan blijven gedragen. Want als ik dat moet opgeven enkel om te mogen modereren, dan heb ik liever dat iemand anders dat doet. Dat gezegd, gaat het best prima zo. Maar ik zou het vervelend vinden als mensen tegen me op gaan kijken en voelen alsof ze mij niet meer mogen corrigeren. Ook ik maak fouten, ook ik kan leren. Ik leer juist enorm veel van jullie!
Ik heb bij mijn aanstelling als moderator ook bedongen dat ik mij als normaal lid kan blijven gedragen. Want als ik dat moet opgeven enkel om te mogen modereren, dan heb ik liever dat iemand anders dat doet. Dat gezegd, gaat het best prima zo. Maar ik zou het vervelend vinden als mensen tegen me op gaan kijken en voelen alsof ze mij niet meer mogen corrigeren. Ook ik maak fouten, ook ik kan leren. Ik leer juist enorm veel van jullie!
Wat vinden mensen hier van? :
http://www.supermicro.nl/...d/xeon/c600/x9srh-7tf.cfm
Bord heeft 2 10Gb Ethernet adapters, en een onboard LSI2308 (opvolger van SAS2008) controller.
Als je die dingen los koopt, ben je al snel 800 euro kwijt, terwijl dit bord 500,- kost.
Bovendien kan je Registered ECC gebruiken
Alleen zal het minder zuinig zijn dan Ivy Bridge setjes...
http://www.supermicro.nl/...d/xeon/c600/x9srh-7tf.cfm
Bord heeft 2 10Gb Ethernet adapters, en een onboard LSI2308 (opvolger van SAS2008) controller.
Als je die dingen los koopt, ben je al snel 800 euro kwijt, terwijl dit bord 500,- kost.
Bovendien kan je Registered ECC gebruiken
Alleen zal het minder zuinig zijn dan Ivy Bridge setjes...
Even niets...
Dat ziet er erg netjes uit, geen noodzaak voor een losse controller en idd 10 Gb Eth aan boord.FireDrunk schreef op dinsdag 25 juni 2013 @ 09:31:
Wat vinden mensen hier van? :
http://www.supermicro.nl/...d/xeon/c600/x9srh-7tf.cfm
Bord heeft 2 10Gb Ethernet adapters, en een onboard LSI2308 (opvolger van SAS2008) controller.
Als je die dingen los koopt, ben je al snel 800 euro kwijt, terwijl dit bord 500,- kost.
Bovendien kan je Registered ECC gebruiken
Alleen zal het minder zuinig zijn dan Ivy Bridge setjes...
Met een Intel Xeon E5-2603 is het betaalbaar en redelijk zuinig (80W TDP CPU, ik weet dat TDP uiteindelijk weinig zegt over t verbruik). In ieder geval kun je er een flinke sloot geheugen in stoppen voor caching doeleinden (RDIMM that is).
Tja, als je dit, of een soortgelijk, bordje inzet dan neem je het extra verbruik op de koop toe neemt. Lijkt me ook niet dat SuperMicro zich echt op de thuis gebruiker gericht heeft met deze plank. Maar zoals gewoonlijk sluiten we niets uit
[ Voor 11% gewijzigd door Pantagruel op 25-06-2013 11:34 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
InteressantFireDrunk schreef op dinsdag 25 juni 2013 @ 09:31:
Wat vinden mensen hier van? :
http://www.supermicro.nl/...d/xeon/c600/x9srh-7tf.cfm
Bord heeft 2 10Gb Ethernet adapters, en een onboard LSI2308 (opvolger van SAS2008) controller.
Als je die dingen los koopt, ben je al snel 800 euro kwijt, terwijl dit bord 500,- kost.
Bovendien kan je Registered ECC gebruiken
Alleen zal het minder zuinig zijn dan Ivy Bridge setjes...
* FireDrunk zat meer te denken aan:
Dit bord, met een 2620, 64GB DDR3 ECC Registered geheugen, nog een M1015 en een LSI1068 controller (al liggen). 24*500GB 2.5" SATA en 4*4TB 3.5" SATA.
Of is dat overkill
Dit bord, met een 2620, 64GB DDR3 ECC Registered geheugen, nog een M1015 en een LSI1068 controller (al liggen). 24*500GB 2.5" SATA en 4*4TB 3.5" SATA.
Of is dat overkill
Even niets...
Ach, ik zit te denken om mijn DH77DF + E3-1265LV2 + M1015 (IT mode) een totaal van 26 2.5" 1TB disks te geven. Dus dat is niet heel erg overkill IMO
Ik loop alleen tegen de geheugenlimieten aan, er kan maar 16GB DDR3 in
Alle 16GB DIMM zijn ECC + registered helaas.
Precies, dat is een van de redenen dat ik naar S2011 zit te kijken.
In September komen de Ivy Bridge E5 Xeon's heb ik gehoord, daar valt eventueel nog op te wachten...
In September komen de Ivy Bridge E5 Xeon's heb ik gehoord, daar valt eventueel nog op te wachten...
Even niets...
bedankt, weet ik ook gelijk waarom mijn server af en toe tikkende hdd's heeft terwijl ie niets staat te doen. Dacht al dat er een schijf kapot was ofzo. scheelt weer zorgenVerwijderd schreef op maandag 24 juni 2013 @ 22:34:
blablabla verhaal over seagate schijven.
android since G1.
Mja, ik moet nog even bedenken wat ik ga doen... Als ik nu "gewoon" een manier kan vinden om 2x M1015 aan te sluiten in mijn huidige kast ben ik al een heel stuk verder wat betreft mijn wensen. Maar om de een of andere reden bestaan PCIe raisers niet op de manier die ik hoop/zoekFireDrunk schreef op dinsdag 25 juni 2013 @ 13:35:
Precies, dat is een van de redenen dat ik naar S2011 zit te kijken.
In September komen de Ivy Bridge E5 Xeon's heb ik gehoord, daar valt eventueel nog op te wachten...
Een S2011 systeem is voor mij namelijk op dit moment íets te duur
Ik zit atm met een Bitfenix Prodigy. Ik heb dus ruimte voor een mini DTX bord (zelfde als mini ITX, maar dan 2 PCI poorten). Ik ben al tijden opzoek naar een half-height raiser die van 1x PCIe x16 naar 2x PCIe x8 gaat, maar dat bestaat schijnbaar echt niet. En ik heb zelf de kennis niet om iets dergelijks te maken, zeker gezien er een bridge tussen moet...
Wat voor manier zoek je dan precies?Xudonax schreef op dinsdag 25 juni 2013 @ 19:54:
Maar om de een of andere reden bestaan PCIe raisers niet op de manier die ik hoop/zoek
Iets in deze richting moet toch in de buurt komen?
http://www.tinydeal.com/p...-87927.html?sk=54441952t4
Wanneer heb je het laatst je wachtwoord verandert? Er word op T.net de laatste tijd regelmatig misbruikt gemaakt van accounts met gelekte wachtwoorden om andere gebruikers op te lichten. Verander je wachtwoord, geef oplichters geen kans!
+Xudonax schreef op dinsdag 25 juni 2013 @ 20:56:
Ik ben al tijden opzoek naar een half-height raiser die van 1x PCIe x16 naar 2x PCIe x8 gaat
Leo1010 schreef op dinsdag 25 juni 2013 @ 21:27:
[...]
Wat voor manier zoek je dan precies?
Iets in deze richting moet toch in de buurt komen?
http://www.tinydeal.com/p...-87927.html?sk=54441952t4

Het punt is dat ik enkel een PCIe x16 slot heb, en hier 2 x8 kaarten op wil zetten. Dit is technisch gezien perfect mogelijk, maar ik heb een adapter nodig met een bridge chip erop (bijv. van PLX) welke ervoor zorgt dat het moederbord ook daadwerkelijk beide kaarten kan gebruiken ipv dat het er iets mafs mee gaat doen.
De passieve adapters zijn er zat te vinden, maar dat vereist support in de CPU/chipset/BIOS voor zover ik weet
Het vervelendste is nog dat ik gewoon aan de PLX chips kan komen, maar de datasheets zitten onder een NDA (en een abonnement oid van de PCI SIG, aka duuuuuur), dus ik zou het zelf kunnen maken, maar dat word netjes gedwarsboomt voor zover ik kan zien
Maargoed, ik heb er al een topic over gehad, maar ook daar kwam verdraaid weinig uit. En ook het daar gelinkte DTX bord is niet 100% wat ik wil, want een M1015 op een PCIe x1 slot schiet natuurlijk niet écht op
EDIT: Bijvoorbeeld de PLX PEX8732 is hier perfect voor, het staat gewoon als zodanig in hun product sheet (1 x16 naar 2 x8). Maarja, alle documentatie zit achter een grote muur waar ik niet doorheen kom. Probleem twee is dan de daadwerkelijke implementatie, maargoed
De passieve adapters zijn er zat te vinden, maar dat vereist support in de CPU/chipset/BIOS voor zover ik weet
Het vervelendste is nog dat ik gewoon aan de PLX chips kan komen, maar de datasheets zitten onder een NDA (en een abonnement oid van de PCI SIG, aka duuuuuur), dus ik zou het zelf kunnen maken, maar dat word netjes gedwarsboomt voor zover ik kan zien
Maargoed, ik heb er al een topic over gehad, maar ook daar kwam verdraaid weinig uit. En ook het daar gelinkte DTX bord is niet 100% wat ik wil, want een M1015 op een PCIe x1 slot schiet natuurlijk niet écht op
EDIT: Bijvoorbeeld de PLX PEX8732 is hier perfect voor, het staat gewoon als zodanig in hun product sheet (1 x16 naar 2 x8). Maarja, alle documentatie zit achter een grote muur waar ik niet doorheen kom. Probleem twee is dan de daadwerkelijke implementatie, maargoed
[ Voor 34% gewijzigd door Xudonax op 25-06-2013 22:01 ]
voor een videostore zou je dat niet moeten willen en voldoet een oplossing met een SAS expander. Zeker wanneer ik lees dat je ook consumer disks overweegt en dus naar kosten kijkt is een expander prima. Een M1015 met een molex gevoede Intel of Chenbro expander lijkt dan in jouw setup het meest logische.Xudonax schreef op dinsdag 25 juni 2013 @ 21:32:
Het punt is dat ik enkel een PCIe x16 slot heb, en hier 2 x8 kaarten op wil zetten.
BartNL, ik ben met je eens dat het qua kosten beter is voor die expander te gaan, maar op dat 2e x8 slot kan ook een quad port Intel GbE kaart komen (of zelfs een 10GbE kaart) zodat ik snel bij m'n data kan. De viodeo's zijn in Apple ProRes, dus dat vereist (veel) meer bandbreedte dan een codec als MPEG2 of h.264.
En ja, waarschijnlijk wil ik gewoon teveel van een mITX bordje
En ja, waarschijnlijk wil ik gewoon teveel van een mITX bordje
10GE loopt ook wel in een PCI-E 2.0 x4 slot zonder problemen, ik ben tot 450 Mbyte/sec gekomen.
[ Voor 6% gewijzigd door jacovn op 26-06-2013 09:48 ]
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Zelfs PCIe 2.0 x1 haalt al 500MB/s, Dus x4 zou al ruim 1GB/s moeten *kunnen* halen.
Het ligt eerder aan de kaart, bekabeling (sfp's), drivers, protocollen of iets anders.
PCI Express is zelden de beperkende factor.
Het ligt eerder aan de kaart, bekabeling (sfp's), drivers, protocollen of iets anders.
PCI Express is zelden de beperkende factor.
Even niets...
Per laan (per richting):FireDrunk schreef op woensdag 26 juni 2013 @ 09:59:
Zelfs PCIe 2.0 x1 haalt al 500MB/s, Dus x4 zou al ruim 1GB/s moeten *kunnen* halen.
Het ligt eerder aan de kaart, bekabeling (sfp's), drivers, protocollen of iets anders.
PCI Express is zelden de beperkende factor.
v1.x: 250 MB/s (2.5 GT/s)
v2.x: 500 MB/s (5 GT/s)
v3.0: 985 MB/s (8 GT/s)
v4.0: 1969 MB/s (16 GT/s)
Dus, een 16 laans slot doet (per richting):
v1.x: 4 GB/s (40 GT/s)
v2.x: 8 GB/s (80 GT/s)
v3.0: 15.75 GB/s (128 GT/s)
v4.0: 31.51 GB/s (256 GT/s)
Vlgs WikiPedia
Ik heb eigenlijk nooit getest of de plaatsing van een x8 PCIe kaart in een x4 slot verlies van doorvoersnelheid geeft. Over een infiniband verbinding haal ik +900 MB/sec (Mellanox MHEA28-XTC/-2TC) vanaf een RAM disk en ca 350 MB/sec vanaf een disk array (bontje verzameling van oude SATA disks). Jammer genoeg heeft t moederbord in de test bak enkel PCIe x16 of x1 (Asus P5N7A-VM mobo).
[ Voor 21% gewijzigd door Pantagruel op 26-06-2013 10:44 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Dan kan ik denk ik het beste toch gewoon voor een Amfeltec SKU-035-02 (mini PCIe => PCIe x1) of Amfeltec SKU-033-21 (mini PCIe => 2x PCIe x1) gaan. En dan één PCIe x1 gebruiken voor een dual of quad port NIC, en iets leuks bedenken om met die laatste PCIe x1 te doen 
Een tweede M1015 is misschien wel handig, dan kan ik daar mijn huidige 6 disks op zetten en die andere 22 disks aan de M1015 op de PCIe x8 laten draaien. Dan kom ik ook iets beter uit met het aantal aansluitingen denk ik
Ik heb er in totaal namelijk 32 nodig zometeen
Dat word dan opgedeeld als volgt:
EDIT: Wat productlinkjes toegevoegd
Een tweede M1015 is misschien wel handig, dan kan ik daar mijn huidige 6 disks op zetten en die andere 22 disks aan de M1015 op de PCIe x8 laten draaien. Dan kom ik ook iets beter uit met het aantal aansluitingen denk ik
Dat word dan opgedeeld als volgt:
- 20 SAS/SATA aansluitingen voor enclosure (5x SFF8087 vanaf extender)
- 2 SATA voor caching SSD (vanaf moederbord)
- 6 SATA aansluitingen voor bestaande schijven (vanaf een M1015)
- 2 SAS/SATA aansluitingen voor de resterende 2 3.5" bays onderin mijn kast
EDIT: Wat productlinkjes toegevoegd
[ Voor 14% gewijzigd door Xudonax op 26-06-2013 14:00 ]
Dat past niet, die PCIe x1 poorten zijn niet open aan de achterkant, dus een x4 NIC gaat niet passen, tenzij je ze open gaat zagen...
Even niets...
Verwijderd
Tenzij je een riser erop zet. Ik heb zo'n PCIe x1 naar PCIe x16 riser, wel geinig. Vooral gekocht om te kunnen benchmarken wat voor verschil de PCIe bandbreedte uitmaakte destijds.
Ik heb een beetje het idee van "What could possibly go wrong?" met het openzagen van zo'n slot. Er zijn zonder twijfel genoeg handleidingen te vinden op internet over hoe je dat (het beste) kunt doen. En anders heb ik altijd nog een tweede kansFireDrunk schreef op woensdag 26 juni 2013 @ 14:11:
Dat past niet, die PCIe x1 poorten zijn niet open aan de achterkant, dus een x4 NIC gaat niet passen, tenzij je ze open gaat zagen...
EDIT: Then again, met een flexibele riser erop kan ik wel die adapters overal ophangen waar ik wil, en dan de NIC op een fatsoenlijke manier in het PCI slot aan de achterkant schroeven... Ik ga het thuis maar eens goed uitzoeken denk ik
[ Voor 19% gewijzigd door Xudonax op 26-06-2013 14:20 ]
Een riser kan ook prima zoals CiPHER zegt, er struint hier iemand op VA rond die verkoopt die dingen voor een paar euro. Heb hier ook een x16->x16 en een x1->x16 liggen
Even niets...
Heb hem net even snel getest toen alles binnen kwam. Zo meenemen naar huis, maar kreeg:
70MBps write
85MBps read
via een tijdelijk in elkaar geflanst netwerkje (Gbit).
Zit 16GB geheugen in, 3x3TB in raidz met compressie. Denk dat er nog winst te behalen valt, vanavond even spelen naar het sporten.
70MBps write
85MBps read
via een tijdelijk in elkaar geflanst netwerkje (Gbit).
Zit 16GB geheugen in, 3x3TB in raidz met compressie. Denk dat er nog winst te behalen valt, vanavond even spelen naar het sporten.
Er is, afhankelijk van het protocol dat je gebruikt, waarschijnlijk nog wel iets uit te halen ja. Met iSCSI op een RAIDZ en een mirror setup trek ik 110MByte/s als de blocksize groot genoeg is, net als met AFP. Terwijl ik met Samba "slechts" 80-90MByte/s voor elkaar krijg. In ieder geval mooie waardes voor een eerste test
Tests waren gemaakt via CIFS. Nu thuis alles aangesloten, zie ik dat mijn cisco router geen gbit poorten heeft.... meh... nu op zoek gaan naar een wireless router met gbit poorten en dan ook gbit throughput. Hoeft geen AC wifi te zijn, N is voldoende..
Wifi moet wel stabiel zijn en een hoge kwaliteit hebben... aanraders? =)
Wifi moet wel stabiel zijn en een hoge kwaliteit hebben... aanraders? =)
Dat hoort niet in dit topic...
Even niets...
Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.