Acties:
  • 0 Henk 'm!

  • als het ware
  • Registratie: April 2013
  • Laatst online: 08:46
analog_ schreef op maandag 16 september 2013 @ 21:57:
Die schijven moet je los zien, wat je ook koopt, je hebt die toch nodig. Je hebt dus ongeveer 210euro uitgegeven aan effectieve hardware. Als je daar 100 euro bij doet kom je denk ik een aantal stapper dichter bij walhalla.
Klein punt van aandacht voor de schijven icm synology.
Colega van mij had ook een mooie synology met een set schijven. (ds213+ denk ik)
Maar die gaven problemen, en bij synology zeiden ze simpelweg, sorry die schijven supporten we niet.
Een kleine discussie met een toffe winkel later had hij schijven die wel supported waren en geen problemen meer.

Moraal, voor een synology koop je alleen schijven van hun supported lijstje. En dat zijn meestal niet de goedkoopste. Wat de configuratie dus weer wat duurder maakt.
Ok gezeur met goedkope schijven kun je ook krijgen met een standaard linux kernel, maar die kan ik vervangen/patchen/tunen, en dat gaat dus niet lukken met DSM. (nog zo'n puntje waar ik op afknap)

Cheers

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 15:27
als het ware schreef op maandag 16 september 2013 @ 21:57:
Ik heb gekeken wat een synology gaat kosten, of je nu een unit met 4 bays met 2T koopt. (+/- 6.4T in raid5) of een unit met 2 bays (2x 4T) (+/- 4T in raid1) De prijs blijft op een paar tientjes nagenoeg gelijk.
Je komt op ongeveer 750 voor die configuratie. Dat scheelt dus dik 200 euro.
Dan vind ik je toch een beetje appels met peren vergelijken:

Je pakt dus een topnotch dual nas van Synology (ik neem even aan dat je naar de DS713+ hebt gekeken) en bij een DIY NAS kies je de cheapest hardware (200 euro), maar liever wil je nog goedkoper uit zijn.

Ik snap eigenlijk niet zo goed welke kant je precies op wil.

Acties:
  • 0 Henk 'm!

  • als het ware
  • Registratie: April 2013
  • Laatst online: 08:46
Ik heb de prijzen nog eens bekeken, altijd goed om dat nogmaals te doen
Zie onderaan.
Ik heb in de 2 bay units 4t schijven gedaan om de capaciteit in de buurt van de 4 bay units te krijgen
Grappig als je de hi-end 2bay met de hi-end 4bay vergelijkt.

Maar genoeg oftopic,
Bottom line, zelfs de lo-end 4bay met 4 schijven van 2T (om ze dezelfde capaciteit te geven als mijn zelfbouw) is duurder dan de zelfbouw die ik bij elkaar geklikt heb. 484 vs 595 das dus een dikke 100 euro.

Nadeel van het synology os DSM is de slechte tweakbaarheid, en de verouderde pakketten.
Dit is iets waar ik mij het meeste aan stoor, ik ben zeer ontevreden over de optware met ipkg, deze heeft me vaak gebeten, het is bijzonder lastig om een ander os op een synology te krijgen (niet zonder hulp van een soldeerbout).
Het niet kunnen tweaken vindt ik een minpunt dat zwaar genoeg weegt om geen synology nas meer te kopen.

Daarnaast is de lo end 4 bay een single core arm van 1.6 Ghz met 512mb ram. (geen idee hoeveel bit, de ram is 16)
Dat biostar moederbord is dualcore 1.1Ghz 64bit en ik heb er 8G ram in gezet.
Goed de arm is sneller maar mijn ervaring is dat twee 1.1Ghz cores beter presteren dan een 2.2Ghz core, simpelweg omdat het 2 tasks tegelijk kan doen.

lo-end ds 4 schijven
1x DS413J 283.90
4x 2T seagate 4x 77.90 = 311.60
4x 1T seagate 4x 57.99= 231.96
totaal 8T : 595.5
totaal 4T : 515.86

lo end ds 2 schijven
1x DS213J176,-
2x 4T seagate 2x 151,89= 303.78
totaal : 479.78

De 2 bay met 4T lo-end unit is 36.08 goedkoper dan de 4 bay met 4T

hi end ds 2 schijven
1x DS713 413,-
2x 4T seagate 2x 151,89= 303.78
totaal : 716.78

hi end ds 4 schijven
1x DS413 428,-
4x 2T seagate 4x 77.90 = 311.60
4x 1T seagate 4x 57.99= 231.96
totaal 8T : 739.60
Totaal 4T : 659.96

De hi-end 2 bay met 4T is 56.82 duurder dan de 4 bay hi end met 4T

mid range ds 2 schijven
1x DS213 253,-
2x 4T seagate 2x 151,89= 303.78
totaal : 556.78

mid range ds 2 schijven
1x DS213+305,95
2x 4T seagate 2x 151,89= 303.78
totaal : 609.73

[ Voor 0% gewijzigd door als het ware op 17-09-2013 09:28 . Reden: klein detail vergeten en typo ]


Acties:
  • 0 Henk 'm!
Waarom kijk je uberhaupt naar een Synology als je dat zo'n prut merk vind? Er zijn toch nog meer merken? QNAP bijvoorbeeld?

Even niets...


Acties:
  • 0 Henk 'm!

  • als het ware
  • Registratie: April 2013
  • Laatst online: 08:46
QNAP is alles behalve lo-budget.
Synology is niet prut, ik ben alleen uitgekeken op het DSM, als ik eenvoudig een eigen distro erop zou kunnen zetten had ik mijn bestelling voor een nieuwe al geplaatst.

Acties:
  • 0 Henk 'm!
Maar waarom? Wat heeft een Synology met een Custom OS dat een zelfbouw PC niet heeft?
Het is duidelijk niet goedkoper...

Even niets...


Acties:
  • 0 Henk 'm!

  • als het ware
  • Registratie: April 2013
  • Laatst online: 08:46
De hardware van synology is superzuinig in het energie verbruik.
Ik heb het niet voor elkaar gekregen om hetzelfde energie verbruik met zelfbouw te realiseren.
Mocht je het wel voor elkaar krijgen, dan hoor ik het graag.

Acties:
  • 0 Henk 'm!
Kom eens met concrete data, want ik geloof daar weinig van.

Even niets...


Acties:
  • 0 Henk 'm!

  • als het ware
  • Registratie: April 2013
  • Laatst online: 08:46
Volgens synology 19 watt on access.

je kunt de specs volgens synology hier nalezen.
http://www.synology.com/us/products/DS409slim/spec.php

ik zal eens een voltmeter achter mijn ds409slim hangen, maar dat gaat even duren.

[ Voor 47% gewijzigd door als het ware op 17-09-2013 10:40 ]


Acties:
  • 0 Henk 'm!

  • Wimbo
  • Registratie: Augustus 2001
  • Laatst online: 14:08
-

[ Voor 104% gewijzigd door Wimbo op 19-01-2015 16:38 ]


Acties:
  • 0 Henk 'm!

  • Birdie_NL
  • Registratie: Maart 2008
  • Laatst online: 17-08 06:59
thalantis schreef op maandag 16 september 2013 @ 16:58:
[...]


ik zal vanavond weer wat foto's maken omdat ik al pm's krijg over de rivier kast :)
moet iemand nog ergens een betere detail foto van van de rivier kast?
Heb je het 2u of het 4u model van ri-vier?
Indien je gebruik maakt van de Seasonic 2u voeding, wat is het geluidsniveau hiervan? Dit omdat je bij deze modellen altijd gebonden bent aan een 2u voeding.

Acties:
  • 0 Henk 'm!

  • thalantis
  • Registratie: Augustus 1999
  • Laatst online: 26-01-2023

thalantis

12200 Wp

SanderH_ schreef op maandag 16 september 2013 @ 17:55:
[...]


Graag een plaatje van de voorkant, frontaal genomen en indien mogelijk ook een plaatje van de LED's die branden. _/-\o_
hoop dat deze voldoet en 4U kast voor de bovenstaande vrager :)
Afbeeldingslocatie: http://thalantis.eu/image012-k.jpg

[ Voor 5% gewijzigd door thalantis op 17-09-2013 16:22 ]

Jsunnyreports


Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 06-10 15:48
thalantis schreef op dinsdag 17 september 2013 @ 16:20:
[...]


hoop dat deze voldoet en 4U kast voor de bovenstaande vrager :)
[afbeelding]
Bedankt voor de foto _/-\o_ .

Toch best wel een mooie case. Dat vraagt om meer. Dit is de RV4324-03A als ik het juist heb trouwens?

@FireDrunk, zat bij "nieuwe producten van september" te kijken, whoopsie :P

[ Voor 27% gewijzigd door SanderH_ op 17-09-2013 16:43 ]


Acties:
  • 0 Henk 'm!

Even niets...


Acties:
  • 0 Henk 'm!

  • thalantis
  • Registratie: Augustus 1999
  • Laatst online: 26-01-2023

thalantis

12200 Wp

SanderH_ schreef op dinsdag 17 september 2013 @ 16:40:
[...]


Bedankt voor de foto _/-\o_ .

Toch best wel een mooie case. Dat vraagt om meer. Dit is de RV4324-03A als ik het juist heb trouwens?

@FireDrunk, zat bij "nieuwe producten van september" te kijken, whoopsie :P
ja dat is hem, ik ben inmiddels mijn post in de 10TB thread aan het aanpassen aangezien mijn lian-li cube nu leeg op zolder staat :P

Jsunnyreports


Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 06-10 15:48
thalantis schreef op dinsdag 17 september 2013 @ 16:44:
[...]


ja dat is hem, ik ben inmiddels mijn post in de 10TB thread aan het aanpassen aangezien mijn lian-li cube nu leeg op zolder staat :P
Gebruik je trouwens de stock-fans of heb je deze vervangen? En waarom heb je niet voor een Norco geopteerd als ik vragen mag? :)

Acties:
  • 0 Henk 'm!

  • als het ware
  • Registratie: April 2013
  • Laatst online: 08:46
Wimbo schreef op dinsdag 17 september 2013 @ 14:56:
[...]


Vind ik een vrij hoog verbuik voor een single core Marvell 1.2GHz CPU / 128MB RAM en 4x 2.5" disks.

Ik verbuik met mijn Intel G1610 / Asrock B75 ITX / 8GB RAM en 4x 2.5" 320GB WD Black niet heel veel meer.
Maar is wel een heel stuk krachtiger.

(En om te bouwen goedkoper dan een Synology)
Cool,

Zou je wat specifieker kunnen zijn met de gegevens.
Welke kast heb je erom heen, en welke voeding.
Wat is het verbruik bij hd access, en wat als hij idle/hybernation staat. (nauwelijks erboven is dat 1 watt of 10 ?)

Ik ben namelijk zeer geintereseerd in energie zuinige setups, ik vondt dat 19watt bij read/wrire activiteit best aardig en wist niet dat een intel daar maar nauwelijks boven zat.

Cheers

Acties:
  • 0 Henk 'm!

  • thalantis
  • Registratie: Augustus 1999
  • Laatst online: 26-01-2023

thalantis

12200 Wp

SanderH_ schreef op dinsdag 17 september 2013 @ 16:46:
[...]


Gebruik je trouwens de stock-fans of heb je deze vervangen? En waarom heb je niet voor een Norco geopteerd als ik vragen mag? :)
Nee fans vervangen door noctua fans, en norco was niet op voorraad en ik las een goede review over de rivier kast.

zie ook https://gathering.tweaker...message/40896261#40896261

[ Voor 9% gewijzigd door thalantis op 17-09-2013 20:20 ]

Jsunnyreports


  • analog_
  • Registratie: Januari 2004
  • Niet online
Betekend de vernieuwde RDM voorzieningen in 5.5 dat we af stappen van vt-d + m1015 aan te raden voor kleine all-in-one virt/storage boxes. Je hebt nog altijd de mogelijkheid om eenvoudig vanaf RDM naar vtd te groeien later. Zou een 100 euro + <10 watt besparing in de goedkoopste categorie kunnen betekenen.

  • Wimbo
  • Registratie: Augustus 2001
  • Laatst online: 14:08
-

[ Voor 100% gewijzigd door Wimbo op 19-01-2015 16:38 ]

analog_ schreef op woensdag 18 september 2013 @ 16:28:
Betekend de vernieuwde RDM voorzieningen in 5.5 dat we af stappen van vt-d + m1015 aan te raden voor kleine all-in-one virt/storage boxes. Je hebt nog altijd de mogelijkheid om eenvoudig vanaf RDM naar vtd te groeien later. Zou een 100 euro + <10 watt besparing in de goedkoopste categorie kunnen betekenen.
En dat is weer iets te snel gedacht... Die onboard controller moet zich echt eerst bewijzen icm ZFS.
We weten nog steeds niet wat er gebeurt als een schijf bokt in ESXi.
Voor hetzelfde geld pikt de HyperVisor dat op, en gaat de VM op zwart.

Dat is namelijk precies wat er gebeurt als je gebruik maakt van VMFS.

Even niets...


  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

analog_ schreef op woensdag 18 september 2013 @ 16:28:
Betekend de vernieuwde RDM voorzieningen in 5.5 dat we af stappen van vt-d + m1015 aan te raden voor kleine all-in-one virt/storage boxes. Je hebt nog altijd de mogelijkheid om eenvoudig vanaf RDM naar vtd te groeien later. Zou een 100 euro + <10 watt besparing in de goedkoopste categorie kunnen betekenen.
Er zijn genoeg moederborden waarbij je geen M1015 nodig hebt om 8xSATA door te geven. De grootste besparing zit vooral in de CPU met VT-D ondersteuning die dan niet meer nodig hoeft te zijn.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 06-10 15:48
Ik ben een build aan het samenstellen zodat ik op termijn mijn MDADM NAS kan vervangen door een ZFS NAS. Qua mobo & CPU tast ik echt nog in het duister en zou graag enkele voorstellen hebben.

Linkje naar wat ik reeds heb (alles in het groen gemarkeerd staat reeds vast of heb ik al in mijn bezit). Ik ga 3 x 2TB schijven uit mijn oude NAS hergebruiken en dus maar 1 of 2 extra schijven bijkopen. Op lange termijn schaf ik dan een 3U/4U kast zodat ik alle sloten kan gebruiken en alles in een rack kan gooien.

[ Voor 8% gewijzigd door SanderH_ op 20-09-2013 22:20 ]


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
Je link blijft bij mij constant aan het laden :-( Ik zou in ieder geval kijken naar wat je wensen zijn buiten ZFS. Voor enkel ZFS is de goedkoopste Sandy/Ivy Bridge Pentium nog snel genoeg als ik mensen hier mag geloven, dus als je enkel ZFS wilt doen dan kun je gaan voor een goedkope CPU en een zuinig moederbord.

Persoonlijk draai ik ook een stapel VMs op mijn ZFS bak, naast XBMC en een stapel andere programma's. Hierom heb ik zelf gekozen voor een Xeon E3-1265LV2, welke voor mij ruim voldoet (aka, ik had ook met een i5 toegekund :P ) samen met een Intel DH77DF. Is dit overkill? Zonder meer. Maar ik vind het nog steeds leuk speelgoed en heb er an sich geen spijt van. Als je echter iets wilt puur voor ZFS kun je een héél stuk goedkoper dan dit uit zijn :)

Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 06-10 15:48
Link aangepast, zou nu moeten werken..?

Een LSI SAS 9201-16i zal blijkbaar toch wat overkill zijn aangezien de taak van een controller bij ZFS puur het toevoegen van aansluitingen is, of niet? Zouden 2 van deze bijvoorbeeld al volstaan? Scheelt toch een slordige 200 EUR.

Ik wil sowieso SFF-8087 poorten ipv aparte SATA-poorten, in combinatie met SFF-8087 to SFF-8087 kabels. Is het zo dat je op gelijk welke controller altijd 4 SATA-poorten kan verbinden met één SFF-8087 poort? Zou het alvast een stuk makkelijker maken qua cable management. Indien ik dan later een 3U case koop kan ik in principe (afhankelijk van welke case) 16 schijven aansluiten met slechts 8 kabels (4x SFF-8087 + 4x molex) :9~ ?

[ Voor 108% gewijzigd door SanderH_ op 20-09-2013 22:55 ]


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
Ik geef voor nu Firefox even de schuld dan, die wil namelijk met de nieuwe link nog steeds niet werken. Safari gelukkig wel. Door naar de inhoudelijke feedback dan:

Ga voor de LSI controller, de Highpoint Rocket kaarten leveren vaak een RAID constructie, zelfs als je deze uitzet. LSI is misschien iets duurder (hint: zoek voor rebranded kaarten welke je kunt flashen naar het origineel, de IBM M1015 is de meest bekende maar bied slechts 2 SFF8087 poorten) maar wel betrouwbaarder.

Schijven lijkt me een persoonlijke kwestie, ik heb bijvoorbeeld genoeg problemen met Samsung en Seagate gehad, maar een stuk minder met Western Digital. Een hoop bekenden zeggen het tegenovergestelde. Dit geeft dus maar aan dat dit heel persoonlijk is. De laatste tijd heb ik op werk ook een stapel Samsung schijven draaien die het wel gewoon vol lijken te houden. Eigenlijk kun je hiermee dus niet echt de mist in gaan zolang je iets van RAID draait :)

Een 64GB als boot drive is handig, heb ik zelf ook en het systeem is opgestart voor je met je ogen kunt knipperen. Dit is wel met Fedora Linux, maar Ubuntu kan het ook. ZFS on Linux draai ik zelf ook, en nog weinig problemen ermee gehad. De enige problemen kwamen vanuit het te snel willen upgraden van de kernel van Fedora, dus niet écht de schuld van ZFS.

De kast vind ik ook iets persoonlijks, dat moet je zelf kiezen. Alleen jij weet wat je mooi vind :P

Acties:
  • 0 Henk 'm!

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 10-10 19:40
Ik wil sowieso SFF-8087 poorten ipv aparte SATA-poorten, in combinatie met SFF-8087 to SFF-8087 kabels. Is het zo dat je op gelijk welke controller altijd 4 SATA-poorten kan verbinden met één SFF-8087 poort? Zou het alvast een stuk makkelijk maker qua cable management. Indien ik dan later een 3U case koop kan ik in principe (afhankelijk van welke case) 16 schijven aansluiten met slechts 8 kabels (4x SFF-8087 + 4x molex) :9~ ?
Ja.
5/6 kabels -> 4x8087 + 1 of 2 x molex
Die molex kabels maak je zelf op maat met wat stekkerjes. Op een of twee kabels kan je al je disks parallel aansluiten.

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 06-10 15:48
Durandal schreef op vrijdag 20 september 2013 @ 22:45:
[...]
Die molex kabels maak je zelf op maat met wat stekkerjes. Op een of twee kabels kan je al je disks parallel aansluiten.
Doel je dan op zoiets, of zijn er betere opties?? Het zou wel handig zijn om met slechts 1 molex-aansluiting van je PSU alle backplanes te kunnen aansluiten, maar is dit wel gezond voor je PSU?

Hoewel de IBM M1015 nogal populair is, vind ik de 8087-connectors nogal ongelukkig geplaatst. Ik heb geen idee hoe stug die 8087-to-8087 kabels zijn, maar volgens mij steken die dingen dan echt recht naar boven uit. Ik ben daarom aan het kijken voor controller(s) waarvan de connectors horizontaal zijn geplaatst. Ik kom dan uit bij volgende opties:

#ProductPrijsSubtotaalOpmerking
1LSI SAS 9201-16i€ 355,65€ 355,65te duur voor een "domme" controller
2Supermicro AOC-SASLP-MV8€ 76,53€ 153,06problemen met Linux?
2Supermicro AOC-USAS-L8i€ 142,78€ 285,56...
2Intel RAID Controller SASUC8I€ 135,50€ 271,-...


Zijn er nog andere mogelijkheden? Aangezien ik met 99% zekerheid voor ZFS ga, geef ik liefst niet te veel uit voor een fancy controller met allerlei RAID-mogelijkheden, terwijl ZFS hier toch niets kan mee doen.

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 15:27
SanderH_ schreef op zaterdag 21 september 2013 @ 11:19:
[...]


Doel je dan op zoiets, of zijn er betere opties?? Het zou wel handig zijn om met slechts 1 molex-aansluiting van je PSU alle backplanes te kunnen aansluiten, maar is dit wel gezond voor je PSU?
Goed nagaan wat je voeding kan leveren op de 12 volt lijn, dan zijn er weinig problemen.

Ik ga binnenkort zelf voedingsabels maken, dan kan ze pas echt op maat maken.

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
SanderH_ schreef op zaterdag 21 september 2013 @ 11:19:
[...]
Hoewel de IBM M1015 nogal populair is, vind ik de 8087-connectors nogal ongelukkig geplaatst. Ik heb geen idee hoe stug die 8087-to-8087 kabels zijn, maar volgens mij steken die dingen dan echt recht naar boven uit. Ik ben daarom aan het kijken voor controller(s) waarvan de connectors horizontaal zijn geplaatst.
..
Zijn er nog andere mogelijkheden? Aangezien ik met 99% zekerheid voor ZFS ga, geef ik liefst niet te veel uit voor een fancy controller met allerlei RAID-mogelijkheden, terwijl ZFS hier toch niets kan mee doen.
zou met een krap budget zelf de M1015 nemen. Het door jou genoemde probleem is niet echt een probleem aangezien er SAS kabels met haakse connectoren zijn zodat uitsteken van kabel geen issue is. Enige waar je bij 2x IBM rekening mee moet houden is dat je moederbord minimaal twee PCI-E 4x sloten moet hebben maar daar is genoeg keuze in. Zelf gebruik ik overigens SAS expanders en dat is voor thuisgebruik prima maar pas zinvol (minder duur dan 3 losse kaarten en geen 2e PCI-e slot nodig) wanneer je meer dan 16 schijven wilt gebruiken.

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 15:27
Heb je bij SAS expanders ook een "hoofdcontroller" zoals de M1015 nodig of functioneert de expander op zichzelf?

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
je hebt wel een hoofdcontroller nodig

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 06-10 15:48
GioStyle schreef op zaterdag 21 september 2013 @ 12:12:
[...]


Goed nagaan wat je voeding kan leveren op de 12 volt lijn, dan zijn er weinig problemen.

Ik ga binnenkort zelf voedingsabels maken, dan kan ze pas echt op maat maken.
Op wat moet ik dan specifiek letten? Of de 12v rails single/dual zijn ofzo..?

Specs staan trouwens hier allemaal in.
BartNL schreef op zaterdag 21 september 2013 @ 12:19:
[...]
zou met een krap budget zelf de M1015 nemen. Het door jou genoemde probleem is niet echt een probleem aangezien er SAS kabels met haakse connectoren zijn zodat uitsteken van kabel geen issue is.
Dan nog "zweven" de kabels door het midden van je case. Ik ben echt allergisch aan kabels en zou ze het liefst zo dicht mogelijk tegen de bodem van de case willen laten lopen.

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 26-09 15:54
Een PCI extender gebruiken, en de kaart ergens wegwerken?

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 15:27
SanderH_ schreef op zaterdag 21 september 2013 @ 12:54:
[...]


Op wat moet ik dan specifiek letten? Of de 12v rails single/dual zijn ofzo..?

Specs staan trouwens hier
Single/dual rail(s) maakt niet zoveel uit. Je moet uitrekenen hoeveel ampère je nodig hebt voor je setup en nagaan of je voeding dat kan leveren. Bijvoorbeeld: Je hebt 16 schijven die elk 2A nodig hebben bij spin-up. Vervolgens de rest van je hardware verbruikt maximaal 15A, dan heb je een voeding nodig die 47A kan leveren. :)

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Tenzij je staggered spinup kan regelen via je controller, dan heb je een pak minder nodig. Het lijkt me als je 16 devices moet aansluiten dat je wel een controller met staggered spinup kan regelen.

Maar dat is natuurlijk wat meer "advanced" gedoe en je moet nog steeds de draaiende schijven van voldoende voeding kunnen voorzien. Dus ipv. 47A zou je misschien met 31A uit de voeten kunnen.

[ Voor 33% gewijzigd door Phuncz op 21-09-2013 17:16 ]


  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 10-10 19:40
Single/dual rail(s) maakt niet zoveel uit. Je moet uitrekenen hoeveel ampère je nodig hebt voor je setup en nagaan of je voeding dat kan leveren. Bijvoorbeeld: Je hebt 16 schijven die elk 2A nodig hebben bij spin-up. Vervolgens de rest van je hardware verbruikt maximaal 15A, dan heb je een voeding nodig die 47A kan leveren. :)
Toch wel een beetje; dual rails kan je niet zomaar parallel zetten dus heb je dual rail dan heb je ook minimaal 2 power kabels. Met single rail zou met 1 power kabel af kunnen.
Neem met dual rails dus het bovenstaande verhaal in acht, maar dan per rails.

Acties:
  • 0 Henk 'm!

  • Goshimaplonker298
  • Registratie: Juni 2002
  • Laatst online: 03-05 11:45

Goshimaplonker298

BOFH Wannabee

Durandal schreef op zaterdag 21 september 2013 @ 20:30:
[...]

Toch wel een beetje; dual rails kan je niet zomaar parallel zetten dus heb je dual rail dan heb je ook minimaal 2 power kabels. Met single rail zou met 1 power kabel af kunnen.
Neem met dual rails dus het bovenstaande verhaal in acht, maar dan per rails.
Meerdere power kabels van je voeding naar je disks is vaak wel een goed idee. Die kabeltjes hebben ook hun limieten. Merk je vaak an wegvallende disken.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 06-10 19:19
Ik heb gekozen voor seasonic voeding uit de x serie. Daar zitten al redelijk veel molexen bij, maar ik heb van de Duitse distributeur netjes 2 missende molex kabels gekregen.
Dus ik heb nu vanaf de voeding 5 maal een modulaire molex kabel naar de 5 maal norco backplans (4220 chassis)
Dan heb je afhankelijk van de voeding nog een modulaire positie over en daar heb ik dan een 4x sata power kabel aan hangen om de dvd-rom drive, de 2 ssd's en de power voor de pcm controller en de pcm fans.

Bij 20x 7200 rpm hdds en de xenon e3 bij mij piekt de opstart rond de 450 watt kortstondig.
Idle met alle hdds opgespinned is het iets van 170 watt

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!
Er is geloof ik ook een versie van de M1015 met de connectors op de achterkant net als een 1068E, maar kan het typenummer niet vinden.

Even niets...


Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 06-10 15:48
Highpoint & Areca zijn blijkbaar niet echt geliefd in combinatie met Linux en/of ZFS. De beste optie voor mijn situatie lijkt me momenteel twee maal deze controller: Supermicro AOC-SAS2LP-MV8.

Ik zou het overigens op prijs stellen als een routinier als FireDrunk (of andere storage guru's :+) ééns commentaar konden geven op de specs die ik nu al heb: KLIK.

Qua mobo & CPU ben ik echter nog vrij clueless.

Acties:
  • 0 Henk 'm!

  • Wimbo
  • Registratie: Augustus 2001
  • Laatst online: 14:08
-

[ Voor 100% gewijzigd door Wimbo op 19-01-2015 16:38 ]


Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 06-10 15:48
Wimbo schreef op zondag 22 september 2013 @ 21:49:
[...]


Een Dell PERC H310 heeft de poorten aan de achterzijde.
Die is ook om te bouwen naar IT Firmware, en niet te duur op Ebay.
Die staat idd op ebay voor 75 EUR incl verzending. Hmmmmmm, wel erg verleidelijk :9

Acties:
  • 0 Henk 'm!

  • berning
  • Registratie: Februari 2005
  • Laatst online: 02:19
Een Dell H310 werkt niet lekker in veel Intel moederborden. Niet booten of de helft van het RAM wordt maar herkend. Pin 5 en 6 van de PCIe connector afplakken of met (nagel)lak afdekken lost het probleem op. Daarmee schakel je wel de SMBus uit, dus geen temperatuur meer uitlezen.

http://www.overclock.net/...-card-tips-and-benchmarks
Iets naar beneden scrollen naar: SMBus Issue with Intel Chipsets
De Dell H310 wordt niet genoemd, maar uit eigen ervaring kan ik dit bevestigen.

Je kunt natuurlijk ook een LSI 9211 kopen, is wel iets duurder.

[ Voor 3% gewijzigd door berning op 23-09-2013 01:50 ]


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 06-10 19:19
SanderH_ schreef op zondag 22 september 2013 @ 21:48:
Highpoint & Areca zijn blijkbaar niet echt geliefd in combinatie met Linux en/of ZFS. De beste optie voor mijn situatie lijkt me momenteel twee maal deze controller: Supermicro AOC-SAS2LP-MV8.
Die supermicro kaart kun je vergeten, ik had er 4 en die werken niet onder FreeBSD.
Ik heb ze verkocht en M1015 terug gekocht.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!
SanderH_ schreef op zondag 22 september 2013 @ 21:48:
Highpoint & Areca zijn blijkbaar niet echt geliefd in combinatie met Linux en/of ZFS. De beste optie voor mijn situatie lijkt me momenteel twee maal deze controller: Supermicro AOC-SAS2LP-MV8.

Ik zou het overigens op prijs stellen als een routinier als FireDrunk (of andere storage guru's :+) ééns commentaar konden geven op de specs die ik nu al heb: KLIK.

Qua mobo & CPU ben ik echter nog vrij clueless.
Je hebt een beetje een raar lijstje... je wil een FreeBSD server met BTRFS? dat kan je natuurlijk vergeten...
ZFS zou ik op FreeBSD platform doen, Ubuntu kan, maar is iets meer risico.

Verder snap ik niet zo goed hoe je nou met je required tabje om gaat, je zegt dat je 2 disks in RAID1 voor je OS wil, maar je hebt nu een 64GB SSD?

Die Marvell Controller zou ik niet gebruiken icm ZFS, ik heb wel eens verhalen gelezen dat dat niet zo goed ging.

Als je serieus met ZFS aan de slag wil zou ik ook niet voor een oudere schijf als een Seagate 7200.14 gaan. Ga dan gelijk voor de nieuwste HDD.15 4TB schijven, en neem gewoon half zoveel schijven. Het verschil in prijs maak je goed met het verschil in stroomverbruik.

Even niets...


Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 06-10 15:48
jacovn schreef op maandag 23 september 2013 @ 07:11:
[...]

Die supermicro kaart kun je vergeten, ik had er 4 en die werken niet onder FreeBSD.
Ik heb ze verkocht en M1015 terug gekocht.
Ik kies waarschijnlijk toch voor Linux.
FireDrunk schreef op maandag 23 september 2013 @ 08:18:
[...]

Je hebt een beetje een raar lijstje... je wil een FreeBSD server met BTRFS? dat kan je natuurlijk vergeten...
ZFS zou ik op FreeBSD platform doen, Ubuntu kan, maar is iets meer risico.

Verder snap ik niet zo goed hoe je nou met je required tabje om gaat, je zegt dat je 2 disks in RAID1 voor je OS wil, maar je hebt nu een 64GB SSD?

Die Marvell Controller zou ik niet gebruiken icm ZFS, ik heb wel eens verhalen gelezen dat dat niet zo goed ging.

Als je serieus met ZFS aan de slag wil zou ik ook niet voor een oudere schijf als een Seagate 7200.14 gaan. Ga dan gelijk voor de nieuwste HDD.15 4TB schijven, en neem gewoon half zoveel schijven. Het verschil in prijs maak je goed met het verschil in stroomverbruik.
Je leest mijn lijstje verkeerd denk ik. De drie grote kolommen (#1, #2 en #3) zijn geen aparte builds op zich, je moet dus eigenlijk alles horizontaal lezen.. per categorie. Voor iedere categorie staat er ook wat ik min of meer wil / nodig heb.

Bij de categorie boot stel ik mij bvb de vraag of 2 schijven in RAID-1 misschien een goed idee is, dit met dan bijvoorbeeld twee 2.5" schijven, of twee 64GB SDD's (geen idee of dit echt de moeite is of niet). Bij de categorie filesystem denk ik aan ZFS (wat ik ook ga nemen met 99% zekerheid), maar zie ik BTRFS als een alternatief. De categorie O/S die erboven staat, moet je hier dus los van zien.

De dingen die in het groen staan heb ik hier al liggen, of zou ik graag hergebruiken uit mijn huidige NAS. Zo zou ik graag bij 2TB schijven blijven aangezien ik momenteel al 3 Samsung Spinpoint's heb. 4 TB vind ik wat overkill, zeker als ik ooit een 3U behuizing met 16 slots wil vullen.

Acties:
  • 0 Henk 'm!
Dan blijft mijn punt nog steeds valide, waarom zou je in vredesnaam liever 16*2 hebben dan 8*4... 8*4 is goedkoper... En als je ZFS gebruikt pak je toch L2ARC of ZIL van een fatsoenlijke SSD, dus qua snelheid zal het elkaar niet ontlopen?

Bovendien scheelt het je weer een controller.

Even niets...


Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 06-10 15:48
Omdat ik reeds drie 2TB schijven heb en ik goedkoper & sneller mijn chassis kan vullen met 2 TB schijven?

Acties:
  • 0 Henk 'm!
Je blijft het niet begrijpen :)

Reguliere 2TB schijven

13 keer 2TB kost je 1275,- voor in totaal 32TB bruto storage met 16 schijven.
De kosten om dit te laten draaien zijn: 16*5W = 80W * 2 = 160,-
(Verbruik maal 2 zijn de kosten per jaar)

Totaal: 1435,- eerste jaar, daarna 160,- per jaar.

Seagate HDD.15

8 keer 4TB kost je 1240,- voor in totaal 32TB bruto storage met 8 schijven.
De kosten om dit te laten draaien zijn 8*5W = 40W *2 = 80,-
(Verbruik maal 2 zijn de kosten per jaar)

Totaal: 1240,- eerste jaar, daarna 80,- per jaar.

Seagate VN000

8 keer 4TB kost je 1400,- voor in totaal 32TB bruto storage met 8 schijven.
De kosten om dit te laten draaien zijn 8*5W = 40W *2 = 80,-
(Verbruik maal 2 zijn de kosten per jaar)

Totaal: 1480,- eerste jaar, daarna 80,- per jaar.

Met andere woorden: 2TB is ALTIJD duurder dan 4TB schijven op de lange termijn. Als je het echt alleen maar te doen is om die slots in je chassis te vullen. Vul ze dan met oude 250GB schijfjes, en laat ze uit staan.

Als je wil nadenken over kosten/baten/performance. Kan je er ofwel voor kiezen om voor nu 8*4TB te kopen, en later nog 8 schijven erbij te plaatsen.

Even niets...


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

FireDrunk heeft het uitgebreider uitgelegd dan ik het zou zeggen, maar nog effe een toevoeging erop:
Meer schijven = hogere kans op uitval
Meer schijven = duurdere of meer controllers
Meer schijven = zwaardere of meer voedingen
Meer schijven = meer hitte of meer lawaai

Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

En als je chassis eenmaal gevuld is met 16x2TB heb je geen uitbreidingsmogelijkheid meer over.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!
En als je meer schijven wil vanwege meer snelheid, kan ik wel inkomen, maar dan mag je mij laten zien in welk scenario 8 schijven met een SSD niet voldoen en 16 schijven met een SSD wel.

Want dat wil ik wel zien :+

Even niets...


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Vergeet niet de E-peen meter die zeer sterk groeit bij 16 disks:

8 disks: █════╗
16 disks: █════════════►

:P

Doet me denken aan mijn opleiding: daar stond een 24-disk SATA array gevuld met 250GB disks, goed voor 6TB bruto dus. Active / Active controller, multipath 4Gbit FibreChannel en ik mocht blij zijn als ik er 150MB/sec uitkreeg... 3 dagen RAID-6 rebuild... MAAR LOEIEN DAT IE DEED !!!!11

Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 06-10 15:48
Daar is het me allerminst om te doen. Ik vond het gewoon logischer om mijn 3 bestaande 2 TB schijven aan te vullen met meer... 2 TB schijven.

Ik heb er geen problemen mee om mijn chassis maar half te vullen met schijven, maar op lange termijn is het de bedoeling om deze uiteraard allemaal op te vullen. Dan kom ik op 32 TB, wat voor mij al ruim voldoende is, laat staan dat ik nu al investeer in een capaciteit van in totaal 32 TB (of eventueel 64 TB). Het probleem is dat het blijkbaar niet erg aangenaam is om schijven toe te voegen onder ZFS (in tegenstelling tot mdadm bvb). Misschien leek het me daarom beter om meteen voor de korte pijn te kiezen en nu uit te breiden tot 8 schijven, en dan binnen enkele jaren naar 16.

Los van het denigrerende toontje van sommigen begrijp ik je argumenten voor de 4 TB variant, en dus minder schijven maar al te goed :).

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
4TB schijven heb je per TB ook minder kabels in je kast ;)

Acties:
  • 0 Henk 'm!

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 10-10 19:40
FireDrunk schreef op maandag 23 september 2013 @ 15:33:
Seagate HDD.15

8 keer 4TB kost je 1240,- voor in totaal 32TB bruto storage met 8 schijven.
De kosten om dit te laten draaien zijn 8*5W = 40W *2 = 80,-
(Verbruik maal 2 zijn de kosten per jaar)

Totaal: 1240,- eerste jaar, daarna 80,- per jaar.
Wel netjes verbruik bij eerste jaar optellen he? ;) 1320,-

Staggered spinup met 16 disks wil je ook niet op wachten. Verder zijn die 2TB disk over een tijdje ook niet meer te krijgen dus als je een spare nodig hebt zit je weer aan 3 of 4 TB vast.

Er zijn overigens wel enige methodieken voor het uitbreiden van je ZFS vdevs. Als je eerst 4 disks koopt (raidz1) kun je wanneer je de volgende 4 koopt daar tijdelijk je data opzetten. Dan maak je van je oude disks een raidz2 van 8 partities a 2TB en zet je je data daarop terug.
Dan vervang je 4 van die partities door je nieuwe disks, een voor een met resilvering. Daarna maak je overgebleven partities weer 4TB en heb je RaidZ2 over 8x4TB disks.

[ Voor 44% gewijzigd door Durandal op 24-09-2013 00:57 ]


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
Durandal schreef op dinsdag 24 september 2013 @ 00:49:
[...]Staggered spinup met 16 disks wil je ook niet op wachten.
gebruik het hier met 48 disks en 0,4s per disk en is wat mij betreft prima te doen. Natuurlijk vertraagd het het ontwaken / booten maar of ik nu 30s of 60s moet wachten maakt mij dan minder uit.
Voordeel is dat systeem met 400W makkelijk 24 disks trekt. Door mij gemeten load bij booten is maximaal 300 watt (computer met Xeon E3-1275v2 en 24 disks) en direct na boot met alle disks nog draaiend 250 watt. Zonder staggered spinup zou de piek stuk hoger liggen en wanneer ik datasheets mag geloven zou piek (24x 2,5A @ 12V) over de 600W heen gaan. Ik ben wel blij met staggered spin-up.

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 10-10 19:40
Ik heb 10 disks in de array en om die reden nog steeds geen staggered spinup gedaan. Staat tegenover dat mijn voeding het aan kan en ik nog geen zin heb gehad om het aan te zetten.

Hoe kom je aan 0,4s per disk?

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
is instelling in Areca controller. Omdat je het zo vraagt twijfel ik nu wel aan de exacte waarde...

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

0,4 lijkt me eerlijk gezegd weinig om een disk op te spinnen. Zolang de snelheid niet stabiel is, zal hij altijd meer stroom verbruiken dus als je met trappen van 6-8 disks tegelijk opspinnend werkt, schiet je niet veel op.

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
Phuncz schreef op woensdag 25 september 2013 @ 14:46:
0,4 lijkt me eerlijk gezegd weinig om een disk op te spinnen. Zolang de snelheid niet stabiel is, zal hij altijd meer stroom verbruiken dus als je met trappen van 6-8 disks tegelijk opspinnend werkt, schiet je niet veel op.
tuurlijk maar het gaat per disk en voordat alle 24 disks starten ben je met 0,4 seconden (gechecked waarde klopt) al wel 10 seconden verder. Stel dat opspinnen per disk in werkelijkheid 2 seconden duurt heb je maar 5 disks die tegelijk richting 2,5A gebruiken en helpt staggered spinup wel.

[ Voor 2% gewijzigd door BartNL op 25-09-2013 19:47 . Reden: check 0,4s ]


  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 10-10 19:40
Ja je hebt in ieder geval dus een controller waar je het in kan stellen. Linux doet standaard geloof ik serieel opspinnen dus dan zit je al aan je 2s (lijkt me nog ietwat weinig) per disk

Acties:
  • 0 Henk 'm!

  • Johnnygo
  • Registratie: April 2009
  • Laatst online: 09:24
Aangezien mijn server/nas vol begint te raken ben ik aan het kijken naar upgrade mogelijkheden. Het makkelijkste is natuurlijk om 1 of meerdere schijven bij te plaatsen (ik gebruik nu losse schijven waarvan er eentje als parity schijf dient met snapraid). Maar eigenlijk wil ik de boel graag virtualiseren.
Ik heb even rond gekeken, en heb de volgende spullen bij elkaar verzameld:

#ProductPrijsSubtotaal
1Intel Core i5 3330 Boxed€ 154,90€ 154,90
1ASRock B75 Pro3-M€ 53,89€ 53,89
1Seagate Desktop HDD.15 (OEM), 4TB€ 146,-€ 146,-
1Western Digital AV GP WD30EURX, 3TB€ 112,50€ 112,50
1Eminent EM1015 USB to IDE/SATA Adapter€ 17,10€ 17,10
1Kingston HyperX Beast KHX16C9T3K4/32X€ 248,-€ 248,-
Bekijk collectie
Importeer producten
Totaal€ 732,39


Een kast met voldoende ruimte voor schijven en een voeding heb ik al.
De i5 is de goedkoopste processor die tv-d ondersteund.

Het idee was om 1 van de 2 sata controllers van het moederbord door te zetten naar een storage vm. Maar heb begrepen dat het alles of niks is. Vandaar de usb-->sata adapter. Dan kan ik een laptop schijfje aan usb hangen en daar esxi en de datastores opzetten. Of heb ik genoeg aan een USB stick? Dat ik daarvan esxi boot, en de storage vm, en dan de andere vm’s van de storage vm booten? En zo ja, hoe groot moet die USB stick dan zijn en werkt dat dan ook via USB3?

Mijn systeem heeft momenteel 3TB schijven. Weet nog niet of ik verder ga met 3TB of toch voor de duurdere 4TB schijven ga.

Maar zijn er nog andere dingen waar ik tegenaan ga lopen met deze hardware? Of kan ik beter voor andere opties gaan?

Andere vm’s die erop moeten komen:
Download vm met Sabnzb, Couchpotato, Sickbeard, Transmission.
TVserver vm met DD dvb-c tuner en usb cardreader in passtrough met Tvheadend en oscam.
Een vm met plex media server, logitech media server mysql voor xbmc en eventueel webserver.
Een vm met een usenet indexer (newznab?).
En natuurlijk vm’s voor dingen te testen, proberen, en aan te kloten zonder andere dingen te slopen.
Eventueel vm met pfsense.

Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
SanderH_ schreef op maandag 23 september 2013 @ 11:03:
[...]


Ik kies waarschijnlijk toch voor Linux.
FYI: Ook met linux en mdadm hebben we veel problemen gehad met deze Marvell chipset, het is IMHO gewoon een inferieur ding. Dan kun je onder linux nog beter een LSI 1068e controller nemen. Maar eigenlijk wil je gewoon een IBM1015 of equivalent.

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • redfoxert
  • Registratie: December 2000
  • Niet online
Johnnygo schreef op vrijdag 27 september 2013 @ 10:47:
Het idee was om 1 van de 2 sata controllers van het moederbord door te zetten naar een storage vm. Maar heb begrepen dat het alles of niks is. Vandaar de usb-->sata adapter. Dan kan ik een laptop schijfje aan usb hangen en daar esxi en de datastores opzetten. Of heb ik genoeg aan een USB stick? Dat ik daarvan esxi boot, en de storage vm, en dan de andere vm’s van de storage vm booten? En zo ja, hoe groot moet die USB stick dan zijn en werkt dat dan ook via USB3?

Maar zijn er nog andere dingen waar ik tegenaan ga lopen met deze hardware? Of kan ik beter voor andere opties gaan?
AFAIK kan je een USB disk of stick niet gebruiken als datastore. VMware accepteert een USB controller niet als storage controller en dus kan je er geen datastores op aanmaken. USB3 support moet je niet van uit gaan ivm afwijkende drivers.

https://discord.com/invite/tweakers


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Johnnygo schreef op vrijdag 27 september 2013 @ 10:47:
Mijn systeem heeft momenteel 3TB schijven. Weet nog niet of ik verder ga met 3TB of toch voor de duurdere 4TB schijven ga.
Let erop dat de Seagate die je overweegt veel luider en warmer wordt dan de versie die 2 of 3 tientjes meer kost dus als dat belangrijk is kijk effe goed naar reviews en dergelijke :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Johnnygo
  • Registratie: April 2009
  • Laatst online: 09:24
nero355 schreef op vrijdag 27 september 2013 @ 13:54:
[...]

Let erop dat de Seagate die je overweegt veel luider en warmer wordt dan de versie die 2 of 3 tientjes meer kost dus als dat belangrijk is kijk effe goed naar reviews en dergelijke :)
Waar haal je die informatie vandaan? In de pricewatch is dit de goedkoopste 4TB schijf. En ik heb aan paar testen gelezen, en deze schijf komt als zuinig, en vrij stil uit die testen. Vandaar die keuze.
redfoxert schreef op vrijdag 27 september 2013 @ 11:38:
[...]
AFAIK kan je een USB disk of stick niet gebruiken als datastore. VMware accepteert een USB controller niet als storage controller en dus kan je er geen datastores op aanmaken. USB3 support moet je niet van uit gaan ivm afwijkende drivers.
Dat is wel jammer. Ik heb wel nog een goedkoop SiliconImage PCI sata kaartje liggen. Zou ik die hiervoor kunnen gebruiken?

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Johnnygo schreef op vrijdag 27 september 2013 @ 15:32:
Waar haal je die informatie vandaan? In de pricewatch is dit de goedkoopste 4TB schijf. En ik heb aan paar testen gelezen, en deze schijf komt als zuinig, en vrij stil uit die testen. Vandaar die keuze.
Ehh... er zijn een aantal topics waar het in zou kunnen staan :

- DIY NAS Topic (dit topic dus)
- ZFS NAS Topic
- Show je NAS Topic
- 10+ TB effectief NAS Topic

Of zo ... teveel NAS Topics dus ik weet het niet meer 8)7

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 06-10 15:48
Is er een manier om accuraat de snelheid tussen je server en een host te meten? Ik weet dat het dd commando veel als referentie voor read/write-snelheden wordt gebruikt, maar dit slaat op de pure R/W-snelheid van je schijf (schijven in geval van RAID) dacht ik en dus zie ik er het nut niet echt van in.

Bij mij is dit trouwens:

code:
1
2
3
4
5
6
7
8
root@oxygen:~# dd if=/dev/md0 of=outfile.000 bs=1M count=2048
2048+0 records in
2048+0 records out
2147483648 bytes (2.1 GB) copied, 55.5508 s, 38.7 MB/s
root@oxygen:~# dd if=outfile.000 of=/dev/md0 bs=1M
2048+0 records in
2048+0 records out
2147483648 bytes (2.1 GB) copied, 52.0354 s, 41.3 MB/s


Ondertussen heb ik jumbo frames op mijn switch geactiveerd & de MTU op mijn server naar 8100 verhoogd (hoger wil mijn Atheros onboard spul niet). Ik merk wel dat het iets rapper lijkt te gaan, maar ik zou graag exacte cijfers hebben. Ik heb al even geprobeerd om een dstat te laten lopen als ik een bestand naar/van mijn host verstuur en dan deze output te gebruiken, maar dit is nogal prutswerk.

Nog een vraagje: hoe kan ik de zogezegde grens van 125 MB/s op een Gigabit network overschrijden? Hiervoor heb je waarschijnlijk meerdere NIC's nodig neem ik aan en zijn er dan nog andere beperkende factoren zoals bekabeling?

Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
Als het tussen 2 hosts is die via het netwerk verbonden zijn dan is dat commando al heel snel iptraf :) Of snap ik je vraag nu niet goed?

Acties:
  • 0 Henk 'm!

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 09:45
De 125 theoretische MB/s overschrijven doen de meesten hier met ofwel infiniband, fibre of 10GigE. NIC teaming heeft zeer specifieke eisen qua instellingen en OS. Er zijn al heel wat posts gemaakt over NIC teaming en alternatieven.

Acties:
  • 0 Henk 'm!

  • thestiffmeister
  • Registratie: December 2003
  • Laatst online: 05-10 21:18
FF een vraag over hardware aangaande ESXI i.c.m. VT-D.

Ik gebruik op dit moment mijn PC voor allerdaagse dingen. Echter ik wil van deze hardware een ESXI server gaan maken. Deze moet dus ESXi gaan draaien met Illumos of Openindiana in een VM (met een extra HBA doorgegeven). Tevens wil ik mijn IPTV en cable tuner setup hierin houden (en deze gaan doorgeven naar mijn Debian server VM).

Het betreft een Asus Rampage 3 Extreme i.c.m. een Intel Core i7 930. Deze PC heeft 32 GB aan intern geheugen. Nu weet ik dat mijn mainboard VT-D ondersteunt (bios optie). Echter mijn processor de i7 930 ondersteunt geen VT-D. Nu zit ik te zoeken naar LGA1366 processoren met VT-D support (zodat ik wellicht een alternatief kan aanschaffen via Ebay). Ik kan er maar geen vinden.

Hebben jullie een idee?
Als ik nieuwe hardware wil gaan aanschaffen wil ik dit hoofdzakelijk gebruiken voor een nieuwe PC (ik hoop dus dat ik deze kan doorschuiven als server). Het behoeft niet de snelste CPU te zijn, hij moet alleen over VT-D beschikken.

(sorry crosspost, maar hij zou hier geplaatst moeten worden) ;)

Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 06-10 15:48
Jormungandr schreef op vrijdag 27 september 2013 @ 19:15:
De 125 theoretische MB/s overschrijven doen de meesten hier met ofwel infiniband, fibre of 10GigE. NIC teaming heeft zeer specifieke eisen qua instellingen en OS. Er zijn al heel wat posts gemaakt over NIC teaming en alternatieven.
De drie opties die je opnoemt zijn niet bepaald goedkoop :P. Ik wil ook gwn gebruik maken van mijn bestaande ethernet bekabeling en wil geen hosts direct aan elkaar aansluiten ofzo.

Eigenlijk een perfect stukje hierover gevonden op Q zijn blog. Hoe ver je met 2 NIC's komt is blijkbaar sterk afhankelijk van de gebruikte netwerkkaarten.

EDIT: als ik het goed heb voorzie je n NIC's in je NAS als je bvb maximaal n Gigabit wilt voltrekken. Dit betekent ook dat je de n ethernet poorten (NIC's) op je server dient te voorzien met elk 1 ethernetkabel naar je switch, die via trunking als 1 enkele virtuele poort op je switch wordt gezien. Ik denk dat ik tot hier volg....maar dan moet je andere host toch ook over minstens evenveel NIC's beschikken, of ga ik nu de mist in 8)7 ?

[ Voor 23% gewijzigd door SanderH_ op 27-09-2013 22:18 ]


Acties:
  • 0 Henk 'm!

  • kluyze
  • Registratie: Augustus 2004
  • Niet online
thestiffmeister schreef op vrijdag 27 september 2013 @ 20:33:
Nu zit ik te zoeken naar LGA1366 processoren met VT-D support (zodat ik wellicht een alternatief kan aanschaffen via Ebay). Ik kan er maar geen vinden.
http://ark.intel.com/prod..._86-GTs-Intel-QPI?q=E5520

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
nero355 schreef op vrijdag 27 september 2013 @ 15:58:
[...]
Ehh... er zijn een aantal topics waar het in zou kunnen staan
zou kunnen maar het is naar mijn ervaring niet waar. Ik heb een aantal van die schijven en het zijn waarschijnlijk de meest stille en koele schijven die ik de afgelopen jaren heb gekocht.

@Johnnygo
4TB is tegenwoordig in €/GB prima en persoonlijk zou ik dan ook de door jou genoemde Seagate schijven kopen.

[ Voor 14% gewijzigd door BartNL op 27-09-2013 22:12 ]


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
SanderH_ schreef op vrijdag 27 september 2013 @ 21:35:
EDIT: als ik het goed heb voorzie je n NIC's in je NAS als je bvb maximaal n Gigabit wilt voltrekken. Dit betekent ook dat je de n ethernet poorten (NIC's) op je server dient te voorzien met elk 1 ethernetkabel naar je switch, die via trunking als 1 enkele virtuele poort op je switch wordt gezien. Ik denk dat ik tot hier volg....maar dan moet je andere host toch ook over minstens evenveel NIC's beschikken, of ga ik nu de mist in 8)7 ?
Ja nou nee misschien :)

Dat is enkel het geval als je op die andere host óók meer dan 1GbE wilt doen. Dit soort teaming setups zie je nog wel eens bij fileservers waarbij je veel clients hebt en één server. Op deze manier kan iedere client zijn eigen kabel gebruiken, waardoor iedere client nog steeds maximaal 125Mbyte/s kan doen, maar de server in geheel dus meer dan dat kan doen. Leuk als je met veel PC's in huis zit dus, maar als je slechts één PC hebt dan is het wat minder nuttig ja.

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 06-10 15:48
Ja maar dan heb jij het over gelijktijdige requests van meerdere hosts. De server kan bvb 4 Gb aan terwijl, dus kan hij op zich 4 normale (1 GbE) hosts afhandelen die elk vrolijk hun 125 MB/s halen.

Ik zoek gewoon manieren om een zo hoog mogelijk snelheid te halen tussen host A (in dit geval mijn NAS) en host B (mijn desktop). Indien ik bvb 200 MB/s wil halen, heb ik dus in totaal 2 NIC's nodig in ieder systeem, alsook 4 kabels die naar mijn switch lopen. Jammer, want voor die 100 MB meer ga ik geen bijkomende kabel trekken.

[ Voor 7% gewijzigd door SanderH_ op 28-09-2013 00:20 ]


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Dan is 10GbE misschien de enige oplossing: server een controllertje en op de toestellen die je wilt voorzien van hogere snelheid een controller, evenals een 10GbE switch. Maar wat jij wil is nu éénmaal niet meer "consumer hardware" en de meeste KMO's draaien ook nog leuk op 1Gbit netwerken omdat het zeer duur is voor verder dan je servertjes te voorzien van 10GbE. Voorwaarde is wel dat je CAT6 of betere bekabeling hebt.

[ Voor 7% gewijzigd door Phuncz op 28-09-2013 10:48 ]


  • thestiffmeister
  • Registratie: December 2003
  • Laatst online: 05-10 21:18

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 06-10 19:19
Als je tussen een host en een server 10 GE wilt hebben is wat ik gedaan heb wellicht interessant,
Intel x520-da2 kaart met een direct attach koper kabel ertussen.

Ik heb de x520-da2 voor onder de 300 ero per stuk via ebay gekocht, en de direct attach kabels ook, die waren 60 euro. Je hebt dan een dual poort kaart, ik heb een pc en 2 x nas in een driekhoek bedradd.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 06-10 15:48
Niet persé 10 GbE, ik ben gewoon wat aan het rondkijken hoe ik 1 GbE kan overschreiden. Infiniband lijkt me dan iets goedkoper dan die 10 GbE-kaartjes, maar InfiniBand kabels "trekken" zoals dit het geval is met ethernet is niet echt gangbaar aangezien die niet zo ver reiken als ethernet. Het grote probleem is dat mijn NAS zich op zolder begeeft en dat alles hier CAT 5E is..

De simpelste oplossing die ik dan zie is bonding op mijn NAS te voorzien, en op mijn host(s) alles zo laten... maar dan zal de snelheidwinst eerder nihil zijn denk ik. Enkel de overdracht van switch -> NAS zal dan iets rapper gebeuren.

600 MB/s over een netwerk zal trouwens momenteel wel de absolute grens zijn denk ik aangezien SATA 3.2 er nog niet direct aankomt.
Je zit in het DIY RAID NAS topic en zegt dat SATA 3.2 de limiet is...

Heiden :+

Even niets...


  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 06-10 15:48
De meesten hier beschikken toch over HD's / SDD's met een 6g aansluiting?

Zo niet, enlighten me? :o
RAID... Array... Meerdere schijven koppelen. Mijn 10*2TB XFS Array deed al dik 700 MB/s.
Met 2 SSD's in RAID0 kan je prima over de 1GB/s gaan, en met 4 stuks zit je al snel aan 1.5GB/s (sequentieel uiteraard).

Even niets...


  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 09:45
Cijfertjes genoeg hier die SATA3 uit de grond blazen, met dank aan RAID. De vraag is of je die extra snelheid echt nodig hebt. Er zijn weinig usecases waar de 100MB/s niet voldoet voor thuigebruik. De overdracht switch-NAS maakt dan ook helemaal niet uit want het traagste component zet de limiet. Daarom is het ook heel leuk om die snelheden van honderden MB/s te zien op arrays maar je krijgt die nooit tot aan de host, tenzij je 10GigE, IB, FC gebruikt.

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 06-10 15:48
FireDrunk schreef op zaterdag 28 september 2013 @ 19:09:
RAID... Array... Meerdere schijven koppelen. Mijn 10*2TB XFS Array deed al dik 700 MB/s.
Met 2 SSD's in RAID0 kan je prima over de 1GB/s gaan, en met 4 stuks zit je al snel aan 1.5GB/s (sequentieel uiteraard).
Ja jij bedoelt lokaal, pure snelheid van je schijven. Ik heb het over netwerksnelheden, waarbij je iets naar een host schrijft.
Wat heeft SATA3.2 in dat verhaal dan met Netwerk te maken? Dat is ook een lokaal protocol, dus je verhaal is dan een beetje krom :)

Desalniettemin heb je wel gelijk hoor, 1GB ethernet is eigenlijk de goedkoopste oplossing en heeft nog steeds de beste prijs/kwaliteit verhouding. Nadeel is dat er nogal wat overhead op de verschillende protocollen kan zitten waardoor de feitelijk snelheid nog weer een factor trager ligt (denk aan samba die niet altijd even goed meewerkt). Hierdoor kan je soms aan 50-60MB/s vastzitten.

Toch zonde als je array dik 400MB/s doet (zoals hier...)

Even niets...


  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 06-10 15:48
Dat je zelfs met 10 GbE kaartjes en CAT 6 bekabeling niet verder zou komen dan 600 MB/s aangezien de meeste systemen hier (afgezien van je server/NAS die hier wel dik bovenkan) een SSD of HD met een 6g interface hebben.

Dus stel nu dat ik iets wil wegschrijven naar mijn NAS over het netwerk, zou ik zelfs met 2 NIC's op mijn server (en dus zo daar 2GbE voorzie) geen snelheidswinst maken?
Dat ligt nogal aan de manier waarop. Windows is niet zo goed in trunking/bonding, Linux doet dat weer veel beter.

Of je echt winst behaald durf ik niet met zekerheid te zeggen, onder Linux durf ik dat wel ;)

Even niets...


  • kluyze
  • Registratie: Augustus 2004
  • Niet online
SanderH_ schreef op zaterdag 28 september 2013 @ 19:24:
Dat je zelfs met 10 GbE kaartjes en CAT 6 bekabeling niet verder zou komen dan 600 MB/s aangezien de meeste systemen hier (afgezien van je server/NAS die hier wel dik bovenkan) een SSD of HD met een 6g interface hebben.

Dus stel nu dat ik iets wil wegschrijven naar mijn NAS over het netwerk, zou ik zelfs met 2 NIC's op mijn server (en dus zo daar 2GbE voorzie) geen snelheidswinst maken?
Dan heb je het over een verbinding tussen één pc en één NAS, wat als je met 5 gebruikers tegelijk die ene NAS wil benaderen?

  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 13:21

OMX2000

By any means necessary...

FireDrunk schreef op zaterdag 28 september 2013 @ 19:30:
Dat ligt nogal aan de manier waarop. Windows is niet zo goed in trunking/bonding, Linux doet dat weer veel beter.

Of je echt winst behaald durf ik niet met zekerheid te zeggen, onder Linux durf ik dat wel ;)
Not so fast! http://blogs.technet.com/...ver-2012-and-smb-3-0.aspx

Dè developers podcast in je moerstaal : CodeKlets Podcast


  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 06-10 15:48
kluyze schreef op zaterdag 28 september 2013 @ 20:59:
[...]
Dan heb je het over een verbinding tussen één pc en één NAS, wat als je met 5 gebruikers tegelijk die ene NAS wil benaderen?
Dat scenario is niet echt van toepassing in een niet-productieomgeving, of toch niet in mijn geval.
@OMX2000, ok ok, true, maar dat is niet naar een deftige NAS, alleen naar een Windows NAS 8-)

(met deftig bedoel ik stiekem natuurlijk ZFS :P )

Even niets...


Acties:
  • 0 Henk 'm!

  • wopie
  • Registratie: Maart 2006
  • Laatst online: 07-06 20:08
@SanderH_

Vergeet niet dat voor dergelijke speeds waar jij het over hebt (gebundelde meerdere Gbps) het probleem meestal is dat de actie niet meerdere sessies beslaat en er dus vaak maar 1 TCP sessie opgezet wordt (samba als ik het goed heb), dit betekend dat er slechts 1 Gbps van je 2 beschikbare Gbps gebruikt wordt (bij sequentiele kopieeracties). Dus dan kom je al snel uit op een protocolwat meerdere sessies ondersteund (iets wat je denk ik vanuit gemak-standpunt onder Windows niet wilt doen?) zoals (volgens mij) FTP.

Acties:
  • 0 Henk 'm!
Er zijn wel oplossingen die dit op een lager niveau oppakken (meerdere sessies). Onder linux word dit gedaan door geloof ik gewoon de pakketjes simpelweg te verdelen over de interfaces, en het versturende mac address aan te passen op de andere netwerkkaart (dus je faked eigenlijk pakketten vanaf 1 MAC, maar je verstuurd ze eigenlijk vanaf 2 verschillende). Windows vind dat niet zo leuk geloof ik.

Andere oplossingen lossen het op door de netwerkkaart letterlijk 2Gb te maken, en de netwerktouwtjes tezamen als 1 MAC te beschouwen. Deze vorm van LACP moet je switch wel ondersteunen, maar het kan allemaal wel volgens mij.

Tis allemaal kut, met SMB3 word het wel weer beter :)

Even niets...


Acties:
  • 0 Henk 'm!

  • wopie
  • Registratie: Maart 2006
  • Laatst online: 07-06 20:08
FireDrunk schreef op zondag 29 september 2013 @ 15:30:
Er zijn wel oplossingen die dit op een lager niveau oppakken (meerdere sessies). Onder linux word dit gedaan door geloof ik gewoon de pakketjes simpelweg te verdelen over de interfaces, en het versturende mac address aan te passen op de andere netwerkkaart (dus je faked eigenlijk pakketten vanaf 1 MAC, maar je verstuurd ze eigenlijk vanaf 2 verschillende). Windows vind dat niet zo leuk geloof ik.

Andere oplossingen lossen het op door de netwerkkaart letterlijk 2Gb te maken, en de netwerktouwtjes tezamen als 1 MAC te beschouwen. Deze vorm van LACP moet je switch wel ondersteunen, maar het kan allemaal wel volgens mij.

Tis allemaal kut, met SMB3 word het wel weer beter :)
Dan kom je inderdaad in de "professionele" oplossingen middels LACP bijv (Link Aggregation Control Protocol), hier zijn verschillende versies van en het ligt er maar net aan of je switch het ondersteund en dan ook nog de implementatie die de host babbelt. Ik heb het wel eens werkend gezien, volgens mij is het dan nog steeds zo dat je per sessie slechts 1 gbps haalt aangezien je fysieke touw niet harder gaat (en 1 sessie over 2 kabels verdelen gaat helaas nog steeds niet in switch-land).

Acties:
  • 0 Henk 'm!

  • Nism0
  • Registratie: November 2008
  • Laatst online: 10-09 13:40
Heeft iemand deze al eens gezien?

http://www.inter-tech.de/...haeuse&Itemid=553&lang=en

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 06-10 19:19
is dat niet precies gelijk aan een Norco 4224 ?

[ Voor 2% gewijzigd door jacovn op 30-09-2013 09:38 . Reden: spelfout ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • Nism0
  • Registratie: November 2008
  • Laatst online: 10-09 13:40
Lijkt het wel op... rebrand misschien.
Wel goedkoper in Duitsland :)
Pagina: 1 ... 134 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.