Acties:
  • 0 Henk 'm!

  • KorneelB
  • Registratie: Mei 2008
  • Laatst online: 10-08 10:43
ik verkoop mijn oude schijven als die nieuwe er zijn ja :)

60 TB can not be enough


Acties:
  • 0 Henk 'm!

  • soulrider
  • Registratie: April 2005
  • Laatst online: 27-11-2017
voor diegenen die +100TB in 1 chassis willen zien: storagepod v2 van backblaze nog niet gezien?
met 45 schijven van 4TB geraak je daar aan bruto 180 TB in 4u
(nr.1 op de lijst heeft de versie 1 nagebouwd)
Misschien handig om een inkoopactie te doen voor dat chassis?

Ikzelf heb ondertussen nog een ander chassis gespot waar meer in kan in dezelfde 4u-ruimte (60 HDD's)
maar daar moet ik nog mijn hoofd overbreken qua nabouwbaarheid en hoe er het moederbord en controllers bij in kan.

Over een jaar denk ik dan wel een na over echte nabouwbaarheid, als die schijven terug goedkoper zijn :)

[ Voor 8% gewijzigd door soulrider op 13-12-2011 17:36 ]


  • Perkouw
  • Registratie: Juli 2005
  • Laatst online: 21:41

Perkouw

Moderator General Chat
soulrider schreef op dinsdag 13 december 2011 @ 13:54:
voor diegenen die +100TB in 1 chassis willen zien: storagepod v2 van backblaze nog niet gezien?
met 45 schijven van 4TB geraak je daar aan bruto 180 TB in 4u
(nr.1 op de lijst heeft de versie 1 nagebouwd)
Misschien handig om een inkoopactie te doen voor dat chassis?

Ikzelf heb ondertussen nog een ander chassis gespot waar meer in kan in dezelfde 4u-ruimte (60 HDD's)
maar daar moet ik nog mijn hoofd overbreken qua nabouwbaarheid en hoe er het moederbord en controllers bij in kan.

Over een jaar denk ik dan wel een na over echte nabouwbaarheid, als die schijven terug goedkoper zijn :)
Correctie, mijn versie is geen versie 1 eerder de 2e maar zelfs dat is het niet exact. Er zijn zelf nog e.e.a. aan design wijzigingen doorgevoerd. En echt een v2 kan je het niet noemen, mijn ''versie'' kan je ook prima uitrusten met 3 of 4TB disks. ;) Ik meen zelfs dat de V2 een redesign was en met 2TB is uitgerust, niet om je op je woorden te pakken hoor haha.

Verder blijft een 60 HDD variant interessant, daar zit ik ook over te denken voor Build 3 alleen zal ik dan denk ik wel moeten uitwijken naar een mATX bord.

[ Voor 10% gewijzigd door Perkouw op 15-12-2011 17:51 ]


  • w4v3g0d
  • Registratie: Oktober 2011
  • Laatst online: 15-08 15:32
dat betekent dus dat ze weer goedkoper worden!
snel maar even wat caviar black's inslaan voordat de volgende vloedgolf komt!
nadat ze wat goedkoper zijn uiteraard!

Acties:
  • 0 Henk 'm!

  • lampie1979
  • Registratie: Maart 2005
  • Laatst online: 24-08 17:04
soulrider schreef op dinsdag 13 december 2011 @ 13:54:
voor diegenen die +100TB in 1 chassis willen zien: storagepod v2 van backblaze nog niet gezien?
met 45 schijven van 4TB geraak je daar aan bruto 180 TB in 4u
(nr.1 op de lijst heeft de versie 1 nagebouwd)
Misschien handig om een inkoopactie te doen voor dat chassis?

Ikzelf heb ondertussen nog een ander chassis gespot waar meer in kan in dezelfde 4u-ruimte (60 HDD's)
maar daar moet ik nog mijn hoofd overbreken qua nabouwbaarheid en hoe er het moederbord en controllers bij in kan.

Over een jaar denk ik dan wel een na over echte nabouwbaarheid, als die schijven terug goedkoper zijn :)
Care to share about the 60 HDD's? Interessant :)

They call her... c*ck juggeling Thunderc*nt!


Acties:
  • 0 Henk 'm!

  • soulrider
  • Registratie: April 2005
  • Laatst online: 27-11-2017
lampie1979 schreef op vrijdag 16 december 2011 @ 00:54:
[...]


Care to share about the 60 HDD's? Interessant :)
een commerciële 60dics-variant is hier of in het diy-topic al eens gelinkt. bv Nexsan E60
en door de bouw van perkouw wou ik mijn hoofd eens breken hoe zo'n variant kon nagebouwd worden incl. moederbord en controllers in dezelfde case. (60 vs 45 schijven = 240TB vs 180TB met 4TB/schijf)
Momenteel is het enkel nog een "idee tot onderzoek voor nabouw", mocht het tot een uitgewerk plan komen, dan zie/hoor je er via hier meer van. Zekers zodra ik aan de bouw zou beginnen.

@perkouw: blijkbaar had ik me vergist in de versie die jou de inspiratie gaf tot nabouw, waarvoor excuses. Bedankt voor de extra informatie in ieder geval :)

Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
KeDeShe, kijk naar losse array shelves en die aan te sluiten met external sas, je kan ze zelf maken door gebruik te maken van die 36port Chenbro expander (3x) en dan 2 (single link) of 3 (dual link) Perc6/e kaartjes of iets dergelijks.

Acties:
  • 0 Henk 'm!

Verwijderd

analog_ schreef op vrijdag 16 december 2011 @ 23:01:
KeDeShe, kijk naar losse array shelves en die aan te sluiten met external sas, je kan ze zelf maken door gebruik te maken van die 36port Chenbro expander (3x) en dan 2 (single link) of 3 (dual link) Perc6/e kaartjes of iets dergelijks.
Beste Analog, ik had in mijn reactie van 13 december om 11.12 al duidelijk gemaakt dat ik dat juist nou niet wil. Ik ga een eigen case bouwen op mijn manier en met de indeling zoals ik het wil. Hiervoor heb ik al diverse bouwtekeningen gemaakt hoe het in elkaar komt te zitten, wel is het een feit dat er nog vaak aanpassingen worden gemaakt. De meeste hardware heb ik al liggen en is het niet de bedoeling om allerlei extra hardware te kopen, het enige waar ik nog voor moet zorgen zijn voedingen en harddisks.

Btw...mijn naam is KeDeShCh en geen KeDeShe ;)

Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Verwijderd schreef op vrijdag 16 december 2011 @ 23:31:
[...]


Beste Analog, ik had in mijn reactie van 13 december om 11.12 al duidelijk gemaakt dat ik dat juist nou niet wil. Ik ga een eigen case bouwen op mijn manier en met de indeling zoals ik het wil. Hiervoor heb ik al diverse bouwtekeningen gemaakt hoe het in elkaar komt te zitten, wel is het een feit dat er nog vaak aanpassingen worden gemaakt. De meeste hardware heb ik al liggen en is het niet de bedoeling om allerlei extra hardware te kopen, het enige waar ik nog voor moet zorgen zijn voedingen en harddisks.

Btw...mijn naam is KeDeShCh en geen KeDeShe ;)
My bad voor de naam, maar ik zie niet in (je reactie van 13/12 11.12AM) waarom een custom case die chenbro hardware uitsluit. Ik ben in ieder geval benieuwd naar je constructie, SAS expanders is the way to go volgens de ZFS kenners. Ik heb thuis bv. een paar 3U 19" 3com redundant power supply cases staan die op dergelijke manier mooi aan elkaar geknoopt kunnen worden, vol geladen met disks.

[ Voor 8% gewijzigd door analog_ op 17-12-2011 16:28 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Het is je vergeven... ;)
Die Chenbro wordt uitgesloten omdat ik het op mijn eigen manier wil doen en daar heb ik al verschillende ideeën voor. Het wordt dus geen kant en klare 5in3, 4in3 of shelve oplossingen. En waar lees je dat ik ZFS ga gebruiken?? Want eerlijk gezegd, ook dat is niet de bedoeling. Misschien ga ik er ooit mee stoeien, maar nu nog niet. Verder tik ik niets meer over dit project, men ziet het wel verschijnen.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 15-09 19:27
SAS Expanders is juist niet the way to go... Je wil geen bandbreedte delen met ZFS.

Even niets...


Acties:
  • 0 Henk 'm!

  • nielsdc
  • Registratie: Juni 2011
  • Laatst online: 19-07 18:49
FireDrunk schreef op zaterdag 17 december 2011 @ 18:01:
SAS Expanders is juist niet the way to go... Je wil geen bandbreedte delen met ZFS.
Je moet geen SSD's achter een SAS expander hangen, maar met SATA600 en gewone schijven heeft een SAS expander (zeg 8 -> 24) een minimale impact op de performance. Een SAS expander is redelijk intelligent, en multiplexed een sata disk met beschikbare data gewoon dynamisch naar een vrije poort, of de poort met de minste data gequeued. De communicatie tussen de SAS expander en controller is SAS, wat ook nog eens een stuk efficienter is (full duplex) dan SATA. SUN gebruikt zelf ook SAS expanders in hun grote storage dozen met SATA schijven! Overgens heb je ook niet echt veel keus als je veel schijven aan wil sluiten. Vrijwel alle SAS controllers met meer dan 8 poorten hebben gewoon een SAS expander on board om het aantal poorten te verhogen.

SATA port multipliers is een heel anders verhaal, en moet je inderdaad niet gebruiken. Verder schijnt de opensolaris mpt2sas driver problemen te hebben met SAS expanders, dus ook in dat geval geen goed idee.

Acties:
  • 0 Henk 'm!

  • Psycho_Bartje
  • Registratie: Januari 2010
  • Laatst online: 04-09 09:25
Na enige vertragingen ivm het Sinterklaasgebeuren wat met 4 kinders de nodige tijd kost, als ook het klussen aan ons huis uit 1928, dan nu eindelijk wat foto's van mijn huidige NAS.
Door wat extra weekenddiensten en meerwerk heb ik de behuizing en voeding kunnen upgraden tov mijn oorspronkelijke ontwerp.
Ik wilde een energiezuinig en zo stil mogelijk systeem bouwen. Qua geluid ben ik dik tevreden, hij is praktisch onhoorbaar terwijl ik (zie foto's) aan de terminalkast zit te werken. Qua energieverbruik, ben ik nog niet helemaal tervreden; het downspinnen van de 10 Samsungs F4 2TB wil mij in FreeNAS 8.02 niet lukken.

Ik draai nu Freenas vanaf een USB stick op het moederbord, maar zodra ZFSGuru 0.2 uit is en de eindejaarsuitkering :) is het plan om 2 Intel 320 SSD aan te schaffen en daar dan ZFSGuru als een Root-on-ZFS in een mirror op te installeren. De Samsungs komen dan op een aparte pool, waarbij ik hoop dat het me vanuit ZFSGuru via de GUI wel lukt om ze te laten downspinnen. Waarschijnlijk lukt dat anderen vanaf de commandline ook wel, maar daar heb ik geen ervaring mee, noch de tijd om daar handig in te worden :(

De specs:
System specifications
ComponentValue
Case Lian Li 343B Cube
CPU Intel Xeon E3-1220
RAM Kingston ValueRAM KVR1333D3E9SK2/8 x2 = 16Gb
Motherboard Intel S1200BTS
Operating system FreeNAS 8.02
ControllerLSI SAS 9211-8i
Hard drive Samsung EcoGreen F4EG HD204UI, 2TB (10x)
RAID array configuration RAID-Z2
Netto storage capacity16 TB
Network Gigabit
UPSNee
FilesystemZFS
Idle power usage ongeveer 90 Watt
ExtraSeasonic 460 Watt fanless voeding, geluidsisolatiematten op de bodem en zijkanten, fans van de Corsair radiator vervangen door 2 Noctua's ULN, fans van de hot-swap Lian-Li drive bays vervangen door stille Nexus PWM 120 mm's, tevens als outake fan in het rechtercompartiment


https://picasaweb.google....uthuser=0&feat=directlink

Edit:
NAS in de IKEA terminalkast

Met dank aan Q voor het helpen plaatsen van de foto _/-\o_

[ Voor 13% gewijzigd door Psycho_Bartje op 20-12-2011 21:59 ]


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 14-09 10:44

Pantagruel

Mijn 80486 was snel,....was!

Psycho_Bartje schreef op zondag 18 december 2011 @ 15:39:
..snipzzz..

De specs:
System specifications
ComponentValue
Case Lian Li 343B Cube
CPU Intel Xeon E3-1220
RAM Kingston ValueRAM KVR1333D3E9SK2/8 x2 = 16Gb
Motherboard Intel S1200BTS
Operating system FreeNAS 8.02
ControllerLSI SAS 9211-8i
Hard drive Samsung EcoGreen F4EG HD204UI, 2TB (10x)
RAID array configuration RAID-Z2
Netto storage capacity16 TB
Network Gigabit
UPSNee
FilesystemZFS
Idle power usage ongeveer 90 Watt
ExtraSeasonic 460 Watt fanless voeding, geluidsisolatiematten op de bodem en zijkanten
Nette bak, die Lian Li blijft een beest van een kast.
Als er voldoende overblijft van de eindejaarsuitkering dan staat de 343B Cube bovenaan m'n hardware lijstje.

[ Voor 6% gewijzigd door Pantagruel op 18-12-2011 23:05 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • Femme
  • Registratie: Juni 1999
  • Laatst online: 15-09 11:23

Femme

Hardwareconnaisseur

Official Jony Ive fan

FireDrunk schreef op zaterdag 17 december 2011 @ 18:01:
SAS Expanders is juist niet the way to go... Je wil geen bandbreedte delen met ZFS.
De performance zal met harde schijven achter een expander niet noemenswaardig beïnvloed worden. Sas expanders worden op grote schaal toegepast in enterprise storage systemen, ook die van Sun. Voor een thuisgebruiker die alle storage intern in het kastje heeft, hebben sas expanders nauwelijks voordelen. Voor de prijs van een sas expander koop je twee losse achtpoorts sas-adapters. Het energieverbruik van een sas-expander is ook niet gering en is vergelijkbaar of meer dan een sas-controller. Zolangs je vrije pci express-slots hebt kun je beter extra sas-adapters kopen.

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 14-09 10:44

Pantagruel

Mijn 80486 was snel,....was!

Femme schreef op zondag 18 december 2011 @ 23:31:
[...]


De performance zal met harde schijven achter een expander niet noemenswaardig beïnvloed worden. Sas expanders worden op grote schaal toegepast in enterprise storage systemen, ook die van Sun. Voor een thuisgebruiker die alle storage intern in het kastje heeft, hebben sas expanders nauwelijks voordelen. Voor de prijs van een sas expander koop je twee losse achtpoorts sas-adapters. Het energieverbruik van een sas-expander is ook niet gering en is vergelijkbaar of meer dan een sas-controller. Zolangs je vrije pci express-slots hebt kun je beter extra sas-adapters kopen.
Als je deze posting doorneemt dan zie je inderdaad dat met een toenemend aantal HDD's aan de expander backplane de RAID-0 performance gaat slingeren en af gaat vlakken. De backplane loopt tegen de beperking aan van de dual linked verbinding aan.
Maarrr, het is inderdaad maar net waar je een probleem van wilt maken en voor de hobbyist/thuissituatie is t eerder een luxe probleem (tenzij je 10Gbit in je huis gebruikt voor je netwerk).

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • Xanquezer
  • Registratie: Maart 2009
  • Laatst online: 12-09 15:40
Mmm... code werkt niet :(

Oke :) specs:

i7 Engineering sample
12gb ddr3 @ 2ghz
2X 5870`s @ 1ghz / 5,5 ghz

6 HDD`s van 2 TB (7,6 tb in gebruik)
1 SSD van 80 gb

OS: Win 7

Systeem daait nu 2 jaar probleem loos!! :D :D :D :D

Afbeeldingslocatie: http://content.hwigroup.net/images/usersys/large/012884-2.jpg?1283784558

Afbeeldingslocatie: http://content.hwigroup.net/images/usersys/large/012884-3.jpg?1283784597

[ Voor 43% gewijzigd door Xanquezer op 19-12-2011 12:19 ]

DPC Chef-kok :)


Acties:
  • 0 Henk 'm!

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 13-09 23:02
Leuke bak, maar voldoet hij aan regeltjes 1 en 5? Lijkt me niet echt dat een i7 en 2x 5870 thuis horen in een storage array.

Acties:
  • 0 Henk 'm!

  • soulrider
  • Registratie: April 2005
  • Laatst online: 27-11-2017
en ook geen 10TB grens doorboken... eentje voor het DIY-topic dus ;-)

edit:
freak1 is me voor met het posten van de regeltjes, maar 't volgende wil ik je niet ontnemen:

Indien je niet aan een van de criteria voldoet maar van mening bent dat je toch een hele interessante build hebt gemaakt, leg het gerust voor. De criteria die altijd blijft staan is dat het systeem van jezelf moet zijn en in de privé sfeer gebruikt moet worden.

maar dat is vooral van toepassing zodra je voldoet aan de "dedicated hardware" & "minstens 10TB"-regels.
dan zijn ze wat soepeler over de "redundancy"-regel (zie huidige nr1)

tot dan is het een game-pc met wat opslag
(en dan zou ik die van mij ook kunnen posten die voldoet ruim aan de "minstens 10TB"-regel)

edit2: 6x2TB is inderdaad 12TB, dus wel +10TB. Maar wellicht wordt slechts 5x 2TB overgezet naar dedicated hardware, en dan zit je erop of eronder, niet erover ;-)

[ Voor 92% gewijzigd door soulrider op 19-12-2011 14:30 ]


Acties:
  • 0 Henk 'm!

  • Xanquezer
  • Registratie: Maart 2009
  • Laatst online: 12-09 15:40
I know ;)
hoort niet helemaal aan de regels.

Maar, weetje wat het is.

Binnen kort (een deze dagen) gaan de hdd`tjes in een nieuwe kast met mobotje cputje en netwerkkaart (gbit + glasvezel)

Hoor ik dan wel in het rijtje?

DPC Chef-kok :)


Acties:
  • 0 Henk 'm!

  • KorneelB
  • Registratie: Mei 2008
  • Laatst online: 10-08 10:43
Xanquezer schreef op maandag 19 december 2011 @ 13:08:
I know ;)
hoort niet helemaal aan de regels.

Maar, weetje wat het is.

Binnen kort (een deze dagen) gaan de hdd`tjes in een nieuwe kast met mobotje cputje en netwerkkaart (gbit + glasvezel)

Hoor ik dan wel in het rijtje?
nee.
de regels;
1.Dedicated server systeem (niet in gebruik als werkstation / game systeem) dus NAS of Virtualisatie server.
2.Een netto capaciteit van minimaal 10 TB.
3.Deze storage moet in 1 systeem (chasis) zitten.
4.Deze storage dient in een prive sfeer te functioneren (lees thuis), en eigendom van de poster.
5.Toepassing van redundancy, het systeem moet falen van minimaal 1 storage disk kunnen overleven.
6.Er moet een post zijn met informatie over het systeem. Vertel iets meer over je systeem en waarom je bepaalde keuzes hebt gemaakt. Let op: Je post gebruikt de tabel zoals onderaan deze topic start weergegeven. Dit maakt je topic veel leesbaarder.
7.Foto's van binnen en buitenkant zijn vanaf nu 'verplicht'. Pics or it didn't happen

1 en 2 niet aan voldaan, 5 is onduidelijk, 6 ook niet aan voldaan..

60 TB can not be enough


Acties:
  • 0 Henk 'm!

  • Xanquezer
  • Registratie: Maart 2009
  • Laatst online: 12-09 15:40
@ freak 1

Voor oud en nieuw heb ik hem klaar :)

komt helemaal goed! :D


Bedankt voor je lijstje!1!!!

alleen puntje 5 snap ik niet helemaal.
Als je raid 0 draait en 1 (v.d. 2) hdd valt uit, heb je geen backup...
Of is het verplicht om mirremorring te doen?

DPC Chef-kok :)


Acties:
  • 0 Henk 'm!

  • M2M
  • Registratie: Juli 2006
  • Laatst online: 01:06

M2M

medicijnman

freak1 schreef op maandag 19 december 2011 @ 13:14:
[...]


nee.
de regels;
1.Dedicated server systeem (niet in gebruik als werkstation / game systeem) dus NAS of Virtualisatie server.
2.Een netto capaciteit van minimaal 10 TB.
3.Deze storage moet in 1 systeem (chasis) zitten.
4.Deze storage dient in een prive sfeer te functioneren (lees thuis), en eigendom van de poster.
5.Toepassing van redundancy, het systeem moet falen van minimaal 1 storage disk kunnen overleven.
6.Er moet een post zijn met informatie over het systeem. Vertel iets meer over je systeem en waarom je bepaalde keuzes hebt gemaakt. Let op: Je post gebruikt de tabel zoals onderaan deze topic start weergegeven. Dit maakt je topic veel leesbaarder.
7.Foto's van binnen en buitenkant zijn vanaf nu 'verplicht'. Pics or it didn't happen

1 en 2 niet aan voldaan, 5 is onduidelijk, 6 ook niet aan voldaan..
ligt het nu aan mij of is 6x2TB>10TB?
Bovendien als 1 disk faalt heeft hij "mogelijk" dataverlies. Punt 5 is dus niet gespecificeerd. Niet alles hoeft een vorm van raid te hebben om meerdere keren op een systeem te staan. En dan is het nog steeds 10TB

En dan blijft dus enkel punt 1, 5 en 6 over.

-_-


Acties:
  • 0 Henk 'm!

Verwijderd

Pantagruel schreef op maandag 19 december 2011 @ 12:04:
Als je deze posting doorneemt dan zie je inderdaad dat met een toenemend aantal HDD's aan de expander backplane de RAID-0 performance gaat slingeren en af gaat vlakken.
En dat is dan nog RAID0, terwijl ZFS pas echt problemen krijgt met RAID-Z doordat de latency van deze RAID3-achtige techniek zeer belangrijk zijn.

Maar Femme zegt het aardig, als je genoeg PCI-express poorten hebt dan hebben expanders geen meerwaarde. Het is nauwelijks goedkoper en soms ook duurder dan losse HBA controllers, en verbruikt ook extra stroom. Je kans op problemen met compatibilteit of op performance-vlak nemen ook toe, en daar tegenover staan erg weinig voordelen. Als je al hardware hebt kun je het prima gebruiken en als het prima werkt, mooi dan. Maar zeker voor ZFS zou ik expanders sterk afraden voor een nieuwe build; je schiet er weinig mee op en ZFS is meer dan andere systemen gevoelig voor het delen van bandbreedte.

Acties:
  • 0 Henk 'm!

  • KorneelB
  • Registratie: Mei 2008
  • Laatst online: 10-08 10:43
Xanquezer schreef op maandag 19 december 2011 @ 13:29:
@ freak 1

Voor oud en nieuw heb ik hem klaar :)

komt helemaal goed! :D


Bedankt voor je lijstje!1!!!

alleen puntje 5 snap ik niet helemaal.
Als je raid 0 draait en 1 (v.d. 2) hdd valt uit, heb je geen backup...
Of is het verplicht om mirremorring te doen?
als je raid 0 draait ben je alles kwijt als 1 van de disks uitvalt. de eis voor het topic is dat je storage volume het verlies van 1 schijf kan overleven, en toch een netto storage capaciteit van minimaal 10 TB hebt :)
M2M schreef op maandag 19 december 2011 @ 13:33:
[...]


ligt het nu aan mij of is 6x2TB>10TB?
Bovendien als 1 disk faalt heeft hij "mogelijk" dataverlies. Punt 5 is dus niet gespecificeerd. Niet alles hoeft een vorm van raid te hebben om meerdere keren op een systeem te staan. En dan is het nog steeds 10TB

En dan blijft dus enkel punt 1, 5 en 6 over.
je hebt gelijk, ik las dat er 7,6 TB ruimte over bleef, tenminste, zo las ik "in gebruik". waarschijnlijk is dat dus de schijfruimte die vol is ;) ik dacht dat er wellicht meerdere RAID volumes waren, vandaar..

60 TB can not be enough


Acties:
  • 0 Henk 'm!

  • Xanquezer
  • Registratie: Maart 2009
  • Laatst online: 12-09 15:40
7,6 terabyte aan data staat er nu op in totaal.

DPC Chef-kok :)


Acties:
  • 0 Henk 'm!

  • Psycho_Bartje
  • Registratie: Januari 2010
  • Laatst online: 04-09 09:25
Nu met direct zichtbare foto van de NAS in de Ikea terminalkast (zie zondag 18-12-2011)

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:54
Holy SHIT!

Internal Bitmaps van MDADM zijn sooooo cool!

Er was een disk niet mee gekomen bij het opstarten van mijn NAS. Dat gebeurt wel eens een enkele keer. Dan moet hij een uur of 5 rebuilden en is alles weer koek & ei.

Laatst had ik toch eens internal bitmaps aangezet op de array van 18 TB.

Net dus een middende disk, die weer werkte na een reboot. Ik voeg de disk weer toe aan de array en die is INSTANT gerecovered.

5 uur recoveren of 1 seconde.

Vette shit.

mdadm --grow /dev/mdx --bitmap=internal en je bent up&running. Bij mij gaf dit ook geen performance issues.

Acties:
  • 0 Henk 'm!

  • DjCoke
  • Registratie: Mei 2002
  • Laatst online: 14-08 12:31
Hier staat wel dat het unsafe is voor andere filesystems dan ext2 en 3
http://askubuntu.com/ques...adm-to-an-external-bitmap

Jij had toch xfs? Heb je geen problemen?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 15-09 19:27
* FireDrunk heeft ook even internal bitmap aangezet :+

Even niets...


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:54
DjCoke schreef op woensdag 21 december 2011 @ 21:15:
Hier staat wel dat het unsafe is voor andere filesystems dan ext2 en 3
http://askubuntu.com/ques...adm-to-an-external-bitmap

Jij had toch xfs? Heb je geen problemen?
Dat is voor een external bitmap. Ik heb een internal bitmap aangezet.

Acties:
  • 0 Henk 'm!

  • DjCoke
  • Registratie: Mei 2002
  • Laatst online: 14-08 12:31
Ah ok

Dat had ik niet gezien. My bad.

  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 21:00

iMars

Full time prutser

Gaan er binnenkort regels veranderd worden in dit topic? Met de komst van 4TB schijven is het wel heel makkelijk om aan de regels te voldoen. 4x 4TB in RAID5 is al 12TB netto opslag ;)

nieuws: Hitachi verkoopt 4TB-harddisk in Japan

Koop hier mijn P1 reader :)


  • Wouter.S
  • Registratie: Maart 2009
  • Laatst online: 15-09 18:37

Wouter.S

e^(i*pi ) +1 = 0

Plaats daartegenover de prijzen van HDD's met de grootste opslag per disk en de recente overstromingsproblematiek die alle andere schijven dubbel zo duur heeft gemaakt. Volledig nieuwe builds zijn qua kosten serieus in prijs gestegen dus volgens mij gaan we geen extreme toestroom zien aan nieuwe storage systemen die de huidige eisen halen, toch niet voor het einde van 2012 in mijn ogen.

Any intelligent fool can make things bigger, more complex, and more violent. It takes a touch of genius -- and a lot of courage -- to move in the opposite direction.


  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 21:00

iMars

Full time prutser

Wouter.S schreef op donderdag 22 december 2011 @ 09:31:
Plaats daartegenover de prijzen van HDD's met de grootste opslag per disk en de recente overstromingsproblematiek die alle andere schijven dubbel zo duur heeft gemaakt. Volledig nieuwe builds zijn qua kosten serieus in prijs gestegen dus volgens mij gaan we geen extreme toestroom zien aan nieuwe storage systemen die de huidige eisen halen, toch niet voor het einde van 2012 in mijn ogen.
True, als ik kijk naar wat ik aan storage heb, ga ik voorlopig geen nieuwe cq. uitbreiding aanschaffen. Was meer een vraagje ;) Ik heb 4x Samsung HD204UI en 4x Seagate Barracuda Green welke beide cá 250% duurder zijn geworden -O-

Eerst had je minimaal 6x 2TB nodig om uberhaupt in aanmerking te komen. Met de komst van de 4TB lukt het je al met 4 schijven.

Koop hier mijn P1 reader :)


  • Q
  • Registratie: November 1999
  • Laatst online: 00:54
iMars schreef op donderdag 22 december 2011 @ 08:48:
Gaan er binnenkort regels veranderd worden in dit topic? Met de komst van 4TB schijven is het wel heel makkelijk om aan de regels te voldoen. 4x 4TB in RAID5 is al 12TB netto opslag ;)

nieuws: Hitachi verkoopt 4TB-harddisk in Japan
Ik verwacht dat de limiet volgend jaar wel naar 20 TB gaat.

Dat ik mijzelf daarmee uitsluit, jammer dan.

Er komt dan ook een nieuw topic denk ik dat een opgeschoonde versie gaat worden van dit topic.

[ Voor 12% gewijzigd door Q op 22-12-2011 15:23 ]


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 14-09 10:44

Pantagruel

Mijn 80486 was snel,....was!

iMars schreef op donderdag 22 december 2011 @ 09:38:
[...]

True, als ik kijk naar wat ik aan storage heb, ga ik voorlopig geen nieuwe cq. uitbreiding aanschaffen. Was meer een vraagje ;) Ik heb 4x Samsung HD204UI en 4x Seagate Barracuda Green welke beide cá 250% duurder zijn geworden -O-

Eerst had je minimaal 6x 2TB nodig om uberhaupt in aanmerking te komen. Met de komst van de 4TB lukt het je al met 4 schijven.
Q schreef op donderdag 22 december 2011 @ 15:17:
[...]

Ik verwacht dat de limiet volgend jaar wel naar 20 TB gaat.

Dat ik mijzelf daarmee uitsluit, jammer dan.

Er komt dan ook een nieuw topic denk ik dat een opgeschoonde versie gaat worden van dit topic.
LOL, begint op een ware wapenwedloop te lijken ;)

Inderdaad, als 3 en 4 TB drives gemeen goed en betaalbaar worden is het relatief eenvoudig om 10+ TB aan opslag te realiseren. Betekend ook dat zij die nu met hun array van 2 TB drives tegen de 20 TB aanschurken door een 3x4 TB in RAID-5 er bij te steken meteen weer meedoen in de 20+ league.
Maar zoals Q liet vallen, jammer dan. Mee doen in de "gekte" mag en is geen verplichting, hoe aantrekkelijk de 'braggin' rights' van een monster server ook mogen zijn.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:54
Ik vind dat de 'lijst' op dit moment al te groot is geworden. Als we de limiet nu al op 20 tb zouden zetten blijven er veel interessante builds over en blijft de lijst een beetje overzichtelijk.

De vraag is hoeveel van de 'kleine' builds echt interessant zijn. No offence. Maar dat zijn toch vaak stock oplossingen: standaard kast met veel disks, freenas ofzo en klaar.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 22:01
Waarom verander je het niet in een eis wat betreft prestaties? Hierbij valt te denken aan een groter dan de som der delen aanpak, de snelheid moet hoger liggen dan X% van een standaard RAID implementatie. Ofwel, verplicht tuning of een mooie caching aanpak.
Of dat je simpelweg moet aangeven waarom het zo'n boeiende build is. Denk aan dat je NAS heel efficiënt is met energie door bestanden te verplaatsen van langzame naar snelle schijven voor meer gebruikte mappen/bestande/... (Een deel is caching, maar misschien kan dit ook met een mooi script.) Of dat de rebuild zo belachelijk snel is, of...
Nu klinkt dit als lastig, maar juist de mensen die er tijd in hebben gestoken weten dat hun oplossing ergens erg goed in is. Die mensen wil je nu net in het topic hebben.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Corteztm3
  • Registratie: December 2007
  • Laatst online: 29-08 13:35
Is het een idee om een minimaal aantal disks te eisen van een minimale grote.
Bijvoorbeeld:
  • Minimaal 10 disks
  • Minimaal 2TB per disk
Dan zal de gebruiker een RAID controller moeten gebruiken omdat moederborden met 10 SAS/SATA schijven dun gezaaid zijn.
Je zou eventueel het volgende ook kunnen eisen om opgenomen te worden:
  • RAID controller + Cache + BBU
  • 1 of meer SSD's voor cache

Acties:
  • 0 Henk 'm!

  • brederodekater
  • Registratie: Maart 2006
  • Laatst online: 10-06 17:02
Ik denk dat dit dan een erg stil topic wordt.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 15-09 19:27
Precies, ik heb 8 * 2TB, en geen enkele vorm van Cache of BBU (anders dan veel RAM :+ ), dus dan zou ik niet mee mogen doen. Mijn setup is voor veel mensen wel weer interresant, omdat ik ESXi en VT-d gebruik.

Even niets...


Acties:
  • 0 Henk 'm!

  • Femme
  • Registratie: Juni 1999
  • Laatst online: 15-09 11:23

Femme

Hardwareconnaisseur

Official Jony Ive fan

Ik vind sowieso dat de ranglijst op basis van bruto opslagcapaciteit gemaakt moet worden in plaats van op netto capaciteit. Hoe je aan je redundancy komt moet je zelf maar uitzoeken. Systemen met een hoge redundancy zijn nu onterecht in het nadeel.

Je ontkomt er niet aan om eens in de zoveel tijd de minimum opslagcapaciteit te verhogen om zo'n lijst interessant te houden. De komst van 4TB-schijven lijkt me een goed moment om het minimum te verhogen naar 20TB brutocapaciteit.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 22:01
FireDrunk, je kunt natuurlijk altijd een mooi betoog schrijven waarom je build thuis hoort in het topic. Juist interessant om de motivatie terug te kunnen lezen in een goed stuk met voors en tegens.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • brederodekater
  • Registratie: Maart 2006
  • Laatst online: 10-06 17:02
De eerste 4TB schijven komen nu al aan bod op Hardforum http://hardforum.com/showthread.php?t=1393939&page=74 (12-18-2011, 02:06 PM) :)

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:54
Het doel van dit topic is het laten zien van interessante builds. De lijst is een overzicht van deze builds.

Ik vind dat er met name aan de onderkant teveel dezelfde builds zitten. Ook mis ik vaak het 'verhaal' bij de kast. De sales pitch aan anderen waarom jouw build boeit. Waarom moeten andere mensen blij worden van jouw build?

@Femme: bruto vs. netto: dat is een interessant punt. De lijst is nu op netto storage capaciteit ingedeeld om maar 1 reden. Als gebruiker boeit mij alleen de netto capaciteit. Hoeveel storage heb ik echt in mijn handen. Het gaat mij om 'echte' storage. Bruto capaciteit boeit mij persoonlijk niet zo, maar misschien moet ik het vanuit een ander standpunt bekijken? Als je dus twee builds hebt, 1 met en 1 zonder of met minder redundancy, dan wint de onveiligere oplossing. Bij gelijke bruto capaciteit zou ik daarna op netto capaciteit sorteren en dan wint weer het onveilige systeem.

Bij gelijke netto capaciteit zal een redundante oplossing van meer disks gebruik moeten maken en meer disks kan ook 'interessanter' zijn. Maar die paar disks gaan denk ik niet het verschil uitmaken of een build ook echt interessant is of niet.

Mogelijk dat ik de komende tijd eens heel kritisch door de huidige lijst ga en iedere individuele build ga 'herbeoordelen'. Ik verwacht dat er dan wel wat systemen uitgegooid gaan worden. Het gaat mij om kwaliteit, niet om kwantiteit.

[ Voor 9% gewijzigd door Q op 23-12-2011 13:57 ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:54
brederodekater schreef op vrijdag 23 december 2011 @ 13:28:
De eerste 4TB schijven komen nu al aan bod op Hardforum http://hardforum.com/showthread.php?t=1393939&page=74 (12-18-2011, 02:06 PM) :)
http://hardforum.com/show...1038161307&postcount=1471

P.S. over zijn huidige storage: Holy Shit :*)

[ Voor 6% gewijzigd door Q op 23-12-2011 13:43 ]


Acties:
  • 0 Henk 'm!

  • brederodekater
  • Registratie: Maart 2006
  • Laatst online: 10-06 17:02
Duidelijk meer een hobby dan een must voor hem; 50.6 TB in zijn "storage only system" & maar 6.07 TB in gebruik :P

Da's misschien ook een leuke toevoeging; dat mensen een indicatie geven m.b.t de gebruikte ruimte in hun systeem.

[ Voor 14% gewijzigd door brederodekater op 23-12-2011 14:06 ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:54
De ruimte die in gebruik is fluctueert en vind ik zelf niet zo boeiend. Ik begon ook met maar 4 tot 6 TB in gebruik.

Acties:
  • 0 Henk 'm!

  • soulrider
  • Registratie: April 2005
  • Laatst online: 27-11-2017
je kan misschien sorteren op netto + toegepaste raid-level?
hoger netto + hoger raid-level = hoger in de lijst?
bruto als indicatie van: "waarvoor betaal je, en wat heb je"

en is veel storage niet voor iedereen een hobby?
sommigie kopen on-demand schijven bij en maken een grote 'JBOD'
anderen doen een goede investering om de paar maanden/jaren om genoeg ruimte en 'peace-of-mind' te hebben

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 15-09 19:27
Ik zit nu op 12TB netto, waarvan 8 gebruikt. Vooral veel Series en wat films.

Even niets...


Acties:
  • 0 Henk 'm!

  • brederodekater
  • Registratie: Maart 2006
  • Laatst online: 10-06 17:02
Mijn data-array is 20 TB netto waarvan er nu ongeveer 12 TB in gebruik is. Ook vooral films en series, maar ik ben nu ook begonnen met het rippen van m'n CD collectie naar FLAC en merk dat dit ook behoorlijk begint mee te tellen :)

Acties:
  • 0 Henk 'm!

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 27-08 10:26

DJ-Visto

Aye aye, sir!

Dit gaat pas hard: 1.2 T This month (status van sabnzbd :X)

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 14-09 10:44

Pantagruel

Mijn 80486 was snel,....was!

De array van de ZFS bak is 18 TB netto en min ofmeer is deze voor de helft gevuld (8.9 TB vlgs ZFSGuru).
Zo'n 4TB aan data bestaat uit raw AVI materiaal en afgeronde projecten, het andere deel is de mp3/flac versie van de cd collectie (ca 0.6 TB), tv series (ca 1 TB), DVD collectie (ca 2.3 TB) en backups van user files van 3 pc's (ca 1 TB).
Wat me persoonlijk 'gelukkig' maakt is dat de data eindelijk echt centraal staat ipv over een viertal machines verspreidt en de RAID-Z2 (=RAID-6) een redelijke mate van robuustheid geeft.

[ Voor 26% gewijzigd door Pantagruel op 23-12-2011 20:18 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 21:00

iMars

Full time prutser

Corteztm3 schreef op vrijdag 23 december 2011 @ 12:40:
Is het een idee om een minimaal aantal disks te eisen van een minimale grote.
Bijvoorbeeld:
  • Minimaal 10 disks
  • Minimaal 2TB per disk
Dan zal de gebruiker een RAID controller moeten gebruiken omdat moederborden met 10 SAS/SATA schijven dun gezaaid zijn.
Je zou eventueel het volgende ook kunnen eisen om opgenomen te worden:
  • RAID controller + Cache + BBU
  • 1 of meer SSD's voor cache
Ik vind het eigenlijk niet eens zo'n gek idee, het eerste voorstel. Het tweede vind ik wat minder. Ik meen me een *kuch* 90TB *kuch* NAS te herinneren gebaseerd op softraid die hier echt wel thuis hoort ;)

Als iemand 10x 1TB in RAID5/6/what-ever zet, vind ik eigenlijk ook wel hier thuis horen. Misschien minder interessant qua opslag capaciteit, maar toch veel meer dan een standaard NAS van <= 4 disks

Koop hier mijn P1 reader :)


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:54
Het punt is een beetje: een hoop disks kopen, standaard kastje erbij en nog eem raid controller en je hebt zo een setup met 10+ TB. Maar die builds zijn denk ik niet zo heel spannend. Zo'n nas kan iedeen zo wel boywen. Mijn interesse ligt daar niet. Dat soort builds wil ik ook niet meer in de lijst hebben.

Acties:
  • 0 Henk 'm!

  • tHe_BiNk
  • Registratie: September 2001
  • Niet online

tHe_BiNk

He's evil! Very EVIL!

Persoonlijk denk ik dat we wel wat meer aandacht mogen geven aan BBUs en UPSen. Als je maar iets van een RAID5 of 6 array hebt is een BBU of UPS een must naar mijn idee, zonder (onhankelijk van EXT4/NTFS/ZFS etc.) is het toch een groot risico wat je loopt. De stroom mag dan maar 1 keer per jaar uitvallen, het kan wel je gehele RAID array verkloten.

Zelf heb ik een Areca 1261 met een BBU.

APPLYitYourself.co.uk - APPLYitYourself.com - PLAKhetzelf.nl - Raamfolie, muurstickers en stickers - WindowDeco.nl Raamfolie op maat.


Acties:
  • 0 Henk 'm!

  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 31-08 10:48
RAID controller... en de systemen die of ZFS draaien vallen dan af?

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


Acties:
  • 0 Henk 'm!

  • Femme
  • Registratie: Juni 1999
  • Laatst online: 15-09 11:23

Femme

Hardwareconnaisseur

Official Jony Ive fan

Q schreef op vrijdag 23 december 2011 @ 13:38:
Het doel van dit topic is het laten zien van interessante builds. De lijst is een overzicht van deze builds.

Ik vind dat er met name aan de onderkant teveel dezelfde builds zitten. Ook mis ik vaak het 'verhaal' bij de kast. De sales pitch aan anderen waarom jouw build boeit. Waarom moeten andere mensen blij worden van jouw build?
Je zou ook een apart lijstje te kunnen maken voor 'featured builds' of de bijzondere builds in de lijst opvallender kunnen weergeven. Dat heeft als voordeel dat je heldere en opjectieve eisen kunt stellen aan systemen die in de lijst opgenomen worden zodat hier geen discussie over kan ontstaan.
@Femme: bruto vs. netto: dat is een interessant punt. De lijst is nu op netto storage capaciteit ingedeeld om maar 1 reden. Als gebruiker boeit mij alleen de netto capaciteit. Hoeveel storage heb ik echt in mijn handen. Het gaat mij om 'echte' storage. Bruto capaciteit boeit mij persoonlijk niet zo, maar misschien moet ik het vanuit een ander standpunt bekijken? Als je dus twee builds hebt, 1 met en 1 zonder of met minder redundancy, dan wint de onveiligere oplossing. Bij gelijke bruto capaciteit zou ik daarna op netto capaciteit sorteren en dan wint weer het onveilige systeem.
Op dit moment zijn systemen zonder of met weinig redundancy erg in het voordeel. Er zijn een paar systemen die geen enkele redundancy hebben. Dat kan prima werken als je alleen data opslaat die eenvoudig vervangen kan worden, bijvoorbeeld omdat usenet als backup dient, en als een hoge beschikbaarheid van de data niet noodzakelijk is. Er zijn andere gebruikers voor wie de veiligheid en beschikbaarheid van data wel van groot belang is. Stellen dat je als gebruiker alleen geïnteresseerd bent in de netto capaciteit is daarom een te beperkte kijk op de werkelijkheid. Mensen die serieus zijn over hun data geven ook om redundancy en beschikbaarheid. Het streven om hoge prestaties te bereiken kan eveneens ten koste gaan van de netto opslagcapaciteit. Door de netto capaciteit te vergelijken creëer je een gelijk speelveld voor iedereen.

Om mijn eigen build als voorbeeld te nemen: ik ga twaalf tot zestien 2TB harde schijven gebruiken verdeeld over twee pools waarvan er in ieder geval één in raid 10 zal draaien ten behoeve van de prestaties. Er komen tevens zes ssd's in voor caching en een quad port fibre channel adapter voor snelle I/O. Doel is om een san te bouwen dat kan dienen als vervanging voor direct attached storage in mijn workstation en prestaties biedt op ssd niveau voor veelgebruikte data. Ik heb hele ander eisen dan iemand die een zo groot mogelijke opslagtank voor films wil bouwen. Met een netto opslagcapaciteit van 12-16TB zou het zo kunnen dat mijn build buiten de voorwaarden voor dit showoff topic komt te vallen als de minimum capaciteit wordt verhoogd naar bijv. 15TB, terwijl mijn systeem qua omvang vergelijkbaar is met machines die 22-30TB netto capaciteit storage bieden met 2TB disks in raid 5 en boeiender is dan een off-the-shelf nasje met vier bays gevuld met 4TB disks.

Acties:
  • 0 Henk 'm!

Verwijderd

Q schreef op vrijdag 23 december 2011 @ 23:49:
Het punt is een beetje: een hoop disks kopen, standaard kastje erbij en nog eem raid controller en je hebt zo een setup met 10+ TB. Maar die builds zijn denk ik niet zo heel spannend. Zo'n nas kan iedeen zo wel boywen. Mijn interesse ligt daar niet. Dat soort builds wil ik ook niet meer in de lijst hebben.
Welk soort builds dan wel?? :D

Acties:
  • 0 Henk 'm!

  • Femme
  • Registratie: Juni 1999
  • Laatst online: 15-09 11:23

Femme

Hardwareconnaisseur

Official Jony Ive fan

Hier nog een gare foto van mijn nieuwe build zoals hij nu draait in het testlab van Tweakers.net:

San server

Specs op dit moment:

- Tyan S8010-mobo
- Opteron 4122-processor
- 32GB RAM
- Norco RPC-4216 met middenschot voor 3x 120mm fan
- 2x Chieftec hotswap bay voor zes 9,5mm 2,5 inch drives in 5,25 inch bay
- Onboard LSI SAS2008-controller (geflashed met firmware van LSI SAS9211-8i in IT-mode)
- IBM M1015 sas-adapter met LSI SAS2008 (geflashed met zelfde firmware als onboard controller)
- Qlogic QLE 2464 quad port 4Gbps fibre channel-adapter
- 12x Seagate Barracuda Green 2TB disks
- 5x OCZ Vertex 30GB
- 1x OCZ Vertex 120GB

Mogelijk komen er nog vier extra 2TB disks in uit mijn oude server. De ssd's ga ik waarschijnlijk vervangen door nieuwe 64GB Samsung 830's. Ik heb ook nog vier Mtron Mobi 3000's 16GB die dan weg kunnen.

De machine draait OpenIndiana met zfs als bestandssysteem. Ik heb voor fibre channel als interconnect gekozen vanwege compatibiliteit met MacOS X. Het ding komt aan mijn Mac Pro te hangen. Voor Windows en Linux zou Infiniband een goedkoper alternatief zijn geweest. Je hebt voor 100 euro al een 10Gbit Infiniband-adapter. Op de foto is hij gekoppeld aan één van onze twee storage testsystemen waar voor deze gelegenheid Windows Server 2008 R2 op draait. Dit ivm het feit dat Windows 7 geen ondersteuning heeft voor multipath I/O wat je nodig hebt om de vier fibre channel links tegelijkertijd te kunnen gebruiken.

Het configureren van zfs en comstar (scsi framework in Solaris / OpenIndiana waarmee je iscsi, fibre channel en sas targets kunt maken) bleek eenvoudig dankzij de vele online tutorials. De meeste frustratie heb ik gehad aan het aan de praat krijgen van Windows 7-drivers onder Server 2008 (Intel sluit Server 2008 bewust uit in de drivers voor de ethernetcontrollers die het gebruikt op zijn desktopborden terwijl die controllers dus prima werken onder Server 2008 als je de benodigde aanpassingen doet in de inf-bestanden).

Prestaties in AS-SSD:

Afbeeldingslocatie: http://p.twimg.com/AhNkn2lCEAAmGqS.jpg

Dit is ook wel een mooi resultaat (filecopy van ruim 3GB):

Filecopy to Disk - Large - Gemiddelde doorvoersnelheid
Drive#RAIDDoorvoersnelheid in MB/s, hoger = beter
Zfs 4x 4Gbps fibre channel12 RAID 10
*********
1493,11
Adata S511 120GB (run 2) 4 RAID 0
*****
961,20
Samsung 830 512GB (run 2) 1 Single
***
529,85
In andere benchmarks zijn de prestaties wat minder. De gemiddelde workstationprestaties zitten op het niveau van een enkele OCZ Vertex 3 voor data die zich in de cache bevindt. Het voordeel van deze config is dat ik makkelijk de capaciteit kan uitbreiden en veelgebruikte data automatisch snel wordt. Tevens kan ik de opslag in een andere ruimte zetten dan mijn Mac Pro zodat ik geen last heb van het geluid en mijn bureau clean kan blijven. De optische kabels hebben me slechts 15 dollar per vijftien meter gekost.

[ Voor 15% gewijzigd door crisp op 24-12-2011 21:49 ]


Acties:
  • 0 Henk 'm!

  • Midas.e
  • Registratie: Juni 2008
  • Laatst online: 15-09 19:08

Midas.e

Is handig met dinges

Mee eens, alleen al op bruto storage. Door mijn 2x raid6 arrays ga ik van 32TB bruto naar 22TB netto... daarmee verlies ik alleen al de hoeveelheid die je nodig hebt om deel te nemen in deze lijst :)

Hacktheplanet / PVOutput


Acties:
  • 0 Henk 'm!

  • powerflux
  • Registratie: Oktober 2003
  • Laatst online: 21:21

powerflux

Edit zich kapot@375fsb

Midas.e schreef op zaterdag 24 december 2011 @ 10:31:
Mee eens, alleen al op bruto storage. Door mijn 2x raid6 arrays ga ik van 32TB bruto naar 22TB netto... daarmee verlies ik alleen al de hoeveelheid die je nodig hebt om deel te nemen in deze lijst :)
even iets anders tussendoor: ik weet niet waarvoor je die multimeters gebruikt, maar dat type heeft al snel een afwijking als de batterij niet goed vol is. En dan met name bij weerstands-metingen.

if computergames really affect us, we would be running around in dark rooms and eating magic pills.


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:54
Femme schreef op zaterdag 24 december 2011 @ 01:06:
Hier nog een gare foto van mijn nieuwe build zoals hij nu draait in het testlab van Tweakers.net:
Yahoo: eindelijk iemand die mijn lees prestaties van 1.1 GB/s weet te overtreffen.

_/-\o_

[ Voor 7% gewijzigd door Q op 24-12-2011 13:52 ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:54

bruto vs. netto

Ik begrijp de argumentatie. Ik ben het er mee eens. In de nieuwe lijst komt een extra kolom 'bruto' capaciteit en die wordt leidend. Net als in het HARD forum maak ik een apart lijstje met een top 5 ofzo van systemen met de grootste netto capaciteit.

Daarnaast zou het een optie zijn om de regels niet te streng te maken, zodat de lijst wel relatief groot wordt, maar dat speciale builds als zodanig gemarkeerd worden, met een duidelijke kleur.

Selectie criteria

Ik zou zeggen: 20 TB 'bruto' storage. Dat komt mij ook goed uit want dan mag ik er nog net in ;). Maar 15 TB mag ook. Maar 10 TB is eigenlijk te laag denk ik. Ik wil geen snob zijn maar het wordt wel te makkelijk om met een paar disks in een standaard kastje de ondergrens te halen, maar dat is voor dit topic minder interessant.

Verder gelden de nu al geldende regels. Dat houdt in dat de lijst over tijd wel groter kan groeien, maar door met kleurtjes te werken kunnen we de speciale builds er uit selecteren.

[ Voor 38% gewijzigd door Q op 24-12-2011 13:48 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Waarom maak je niet meerdere topics aan? Bijvoorbeeld 1 topic tot 10TB, 1 topic tot 20TB, 1 topic tot 40TB etc etc. Zelf ben ik van mening dat dit systeem het overzichtelijk houdt, zeker voor mensen die zelf een bepaalde opslagcapaciteit voor ogen hebben en willen zien hoe anderen het gedaan hebben. Topics hoeven alleen aangemaakt te worden zodra er een systeem is wat aan de eisen voldoet, geen wildgroei van topics dus. Voor de echt uitschietende builds kan er desnoods ook een apart topic komen. Bestudeer dit idee eens. :)

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:54
Dat zie ik niet zo zitten want dit is helemaal mijn wens niet.

Ik zou 1 topic willen voor discussie over brute storage en met name over storage die mensen zelf ook hebben gebouwd. Dan ga je dat weer versnipperen.

Ik zie eigenlijk het DIY NAS topic voor de eenvoudigere huis-tuin-en-keuken builds. Dit type topic is voor het wat zwaardere geweld.

Ik heb er geen enkele moeite mee om de 'nieuwe' grens naar 20 TB te trekken als dit de kwaliteit van de lijst en de builds die hier langs komen ten goede komt. Ik zie liever weinig builds die wel stuk voor stuk boeien, dan dat ik een druk vol topic zie met allemaal systemen die niet zo spannend zijn.

Ik wil een soort minimum kwaliteitseis zodat het topic ook voor mensen interessant blijft. Het is niet dat ik een soort kunstmatige exclusiviteit wil creëren met secret handshakes and all. Ik wil alleen toffe builds zien en niet de 13-in-een-dozijn.

[ Voor 8% gewijzigd door Q op 24-12-2011 18:34 ]


Acties:
  • 0 Henk 'm!

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 13-09 23:02
Ik denk dat er ook legio interresante 10TB builds zijn, maar dat er zoals je zegt te gemakkelijk een paar High Volume disks in een desktop case gegooid worden. Misschien moet er alternatief maar een soort trial komen vooraleer je systeem in het topic mag? Een kleine PM met de details moet voldoende zijn om een beeld te scheppen van de array.
Ik zou 1 topic willen voor discussie over brute storage en met name over storage die mensen zelf ook hebben gebouwd.
Zeer belangrijk criteria imo. Kwestie dat de mensen de klik niet maken om hun MSA, Netapp, EMC², ... uit het testlab op werk te testen.

Bon, nu terug op de topic en showen maar, die gekke build :P.

Acties:
  • 0 Henk 'm!

  • tHe_BiNk
  • Registratie: September 2001
  • Niet online

tHe_BiNk

He's evil! Very EVIL!

Q schreef op zaterdag 24 december 2011 @ 18:33:
Ik wil een soort minimum kwaliteitseis zodat het topic ook voor mensen interessant blijft. Het is niet dat ik een soort kunstmatige exclusiviteit wil creëren met secret handshakes and all. Ik wil alleen toffe builds zien en niet de 13-in-een-dozijn.
Maar juist die 13 in 1 dozijn builds, komen vaker voor, worden vaker gebouwd, en hebben tweakers dus meer behoefte aan. O-)

Je zou een topic op kunnen zetten met "extreme" storage systems, voor alles van meer dan 16 disks. Bij meer dan 16 disks aan data praat je vaak over aparte kasten aangezien dat niet past in een gewone case (NORCO's, etc.), top-of-the-line 24-poort RAID kaarten, expanders, etc.. We hebben het dan we over custom builds en niet over kant-en-klare NASen.

[ Voor 4% gewijzigd door tHe_BiNk op 03-01-2012 04:02 ]

APPLYitYourself.co.uk - APPLYitYourself.com - PLAKhetzelf.nl - Raamfolie, muurstickers en stickers - WindowDeco.nl Raamfolie op maat.


Acties:
  • 0 Henk 'm!

  • KorneelB
  • Registratie: Mei 2008
  • Laatst online: 10-08 10:43
tHe_BiNk schreef op dinsdag 03 januari 2012 @ 03:56:
[...]


Maar juist die 13 in 1 dozijn builds, komen vaker voor, worden vaker gebouwd, en hebben tweakers dus meer behoefte aan. O-)

Je zou een topic op kunnen zetten met "extreme" storage systems, voor alles van meer dan 16 disks. Bij meer dan 16 disks aan data praat je vaak over aparte kasten aangezien dat niet past in een gewone case (NORCO's, etc.), top-of-the-line 24-poort RAID kaarten, expanders, etc.. We hebben het dan we over custom builds en niet over kant-en-klare NASen.
ik voel toch enigzins wat tegenzin ontstaan tegen mijn "kant-en-klare" Synology.. ook al is t voor thuisgebruik en zit hij op plek 2 qua storage ;)

60 TB can not be enough


Acties:
  • 0 Henk 'm!

  • brederodekater
  • Registratie: Maart 2006
  • Laatst online: 10-06 17:02
freak1 schreef op dinsdag 03 januari 2012 @ 07:03:
[...]


ik voel toch enigzins wat tegenzin ontstaan tegen mijn "kant-en-klare" Synology.. ook al is t voor thuisgebruik en zit hij op plek 2 qua storage ;)
Hehe, dan kun je altijd nog verhuizen naar het grote Synology topic tussen de DS110 en DS212 NASjes >:)

Acties:
  • 0 Henk 'm!

  • KorneelB
  • Registratie: Mei 2008
  • Laatst online: 10-08 10:43
brederodekater schreef op dinsdag 03 januari 2012 @ 07:23:
[...]


Hehe, dan kun je altijd nog verhuizen naar het grote Synology topic tussen de DS110 en DS212 NASjes >:)
daar willen ze me ook al niet hebben omdat "niemand zoiets thuis heeft" :')

60 TB can not be enough


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:54
Volgens mij schendt Freak1 geen van de regels van dit topic. Alleen moet je het 'bouwen' met een korreltje zout nemen in dit geval. Alhoewel Freak1 inmiddels zoveel uur in dat ding heeft zitten dat je daar wel van kunt spreken ;).

De 13-in-dozijn builds kunnen prima terecht in het DIY NAS topic.

Acties:
  • 0 Henk 'm!

  • Zsub
  • Registratie: Juli 2006
  • Laatst online: 20:12
* Zsub is met Q.

Ik kom hier om buitengewone builds te bekijken. Een 'real life' voorbeeld van zo'n Backblaze pod, dat soort dingen. Builds die een default ATX kastje gebruiken en 6 x 2 TB (of 5 x 3, whatever) en daarmee 10TB netto halen vind ik niet zo boeiend, dat lukt mij thuis ook wel.

Juist de uitzonderlijke builds mogen wat mij betreft in dit topic.

[ Voor 2% gewijzigd door Zsub op 03-01-2012 09:10 . Reden: typo trololol ]


Acties:
  • 0 Henk 'm!

  • Spoooky
  • Registratie: September 2002
  • Laatst online: 13-09 19:45

Spoooky

Core temp 37°C

.

[ Voor 127% gewijzigd door Spoooky op 03-01-2012 13:00 . Reden: Herformulering ]

Ik ben spuit 1011, aangenaam!


Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

tHe_BiNk schreef op dinsdag 03 januari 2012 @ 03:56:
Je zou een topic op kunnen zetten met "extreme" storage systems, voor alles van meer dan 16 disks. Bij meer dan 16 disks aan data praat je vaak over aparte kasten aangezien dat niet past in een gewone case (NORCO's, etc.), top-of-the-line 24-poort RAID kaarten, expanders, etc.. We hebben het dan we over custom builds en niet over kant-en-klare NASen.
Mijn standaard Full Tower behuizing heeft plek voor 21 schijven. Op mijn moederbord zit 6x SATA-300 en 4xPCI-E. Genoeg ruimte dus voor PCI-E sata controllers, in plaats van een 24 poorts sata controller kan ik ook gewoon 4x4 poort kopen, scheelt nog geld ook denk ik. En anders met port multipliers gaan werken, dan kom je ook aardig ver.
Veel schijven hoeft niet veel te kosten of echt ingewikkeld te zijn.

Probleem is dat je met echte harde limieten al snel uitzonderingen krijgt die niet aan de eisen voldoen en wel interessant zijn. Je zou wat softere regels moeten gebruiken waardoor er meer flexibiliteit is en de aandacht echt kan gaan naar iets wat uitzonderlijk is.

[ Voor 13% gewijzigd door Tsurany op 03-01-2012 12:18 ]

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • Spoooky
  • Registratie: September 2002
  • Laatst online: 13-09 19:45

Spoooky

Core temp 37°C

Wat is nou wel en niet interessant?

Een custom made case die net aan de 10 TB komt met 6x2TB in MDADM RAID5?
Of een standaard case volgepropt tot in elk hoekje of gaatje met Harddisks?
Of een NAS op basis van een exotisch OS...

Ik denk dat een build vooral interessant is door een hoog "tweakgehalte", dus hoeveel heb je er voor moeten doen? Of dat nou op hard- of software- gebied is maakt dan weinig uit.

Ik ben spuit 1011, aangenaam!


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 14-09 10:44

Pantagruel

Mijn 80486 was snel,....was!

Zsub schreef op dinsdag 03 januari 2012 @ 09:10:
* Zsub is met Q.

Ik kom hier om buitengewone builds te bekijken. Een 'real life' voorbeeld van zo'n Backblaze pod, dat soort dingen. Builds die een default ATX kastje gebruiken en 6 x 2 TB (of 5 x 3, whatever) en daarmee 10TB netto halen vind ik niet zo boeiend, dat lukt mij thuis ook wel.

Juist de uitzonderlijke builds mogen wat mij betreft in dit topic.
Lees ik hier tussen de regels door enige vorm van penisnijd?? Het klinkt alsof het 'vroeger' een kunst was om met 1/1,5 TB drives een 10TB array te verwezenlijken, terwijl nu iedere boerenl#l met een schroeven draaier zich kan verheffen tot deze kunst door 4 x 4 TB in R5 te zetten.

Op die manier kun je iedere build op basis van een commercieel verkrijgbare behuizing (die voor de verdere rest wel aan de gestelde eisen voldoet) afschrijven als 'doorsnee' of 'eenvoudig te bouwen bak' en dus onwaardig.

Ik kan me zeer goed voorstellen dat voor veel mensen een uit de kluiten gewassen kast of een 'kleinere' Norco, meer dan voldoet. Een BackBlaze pod mag dan apart zijn, maar ook die behuizing laat je uiteindelijk aan de hand van hun tekeningen snijden. De eigen input/invloed is ook niet meer dan in het elkaar schroeven en een eigen draai aan de hardware geven die nodig is om de boel te laten werken. Als je maar lang genoeg door redeneert is iedere storage build een kopie of variatie op een ander zijn/haar werk.

Wat volgens mij een build interessant maakt zijn dingen als het hoe en waarom van de storage wens, hoe de invulling plaatsvindt (evt. met onderbouwing van de hardware/software keuze/rek richting de toekomst) en hoe de eigenaar denkt het maximale eruit te halen. Een Gbit draadje voltrekken is inmiddels makkelijk geworden, dus wat komt daar voor in de plaats (Gbit trunk/Fibre/Infiniband) om het achterliggende werkstation maximaal te laten genieten van het opslag monster (en/of de rest van het netwerk).
En dan mag de bak van mij best in een 'big bog standard ATX case' leven.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:54
Tsurany schreef op dinsdag 03 januari 2012 @ 12:16:
[...]

Mijn standaard Full Tower behuizing heeft plek voor 21 schijven. Op mijn moederbord zit 6x SATA-300 en 4xPCI-E. Genoeg ruimte dus voor PCI-E sata controllers, in plaats van een 24 poorts sata controller kan ik ook gewoon 4x4 poort kopen, scheelt nog geld ook denk ik. En anders met port multipliers gaan werken, dan kom je ook aardig ver.
Veel schijven hoeft niet veel te kosten of echt ingewikkeld te zijn.

Probleem is dat je met echte harde limieten al snel uitzonderingen krijgt die niet aan de eisen voldoen en wel interessant zijn. Je zou wat softere regels moeten gebruiken waardoor er meer flexibiliteit is en de aandacht echt kan gaan naar iets wat uitzonderlijk is.
Quote uit de TS:

Indien je niet aan een van de criteria voldoet maar van mening bent dat je toch een hele interessante build hebt gemaakt, leg het gerust voor. De criteria die altijd blijft staan is dat het systeem van jezelf moet zijn en in de privé sfeer gebruikt moet worden.
Pantagruel schreef op dinsdag 03 januari 2012 @ 17:43:
[...]
Lees ik hier tussen de regels door enige vorm van penisnijd?? Het klinkt alsof het 'vroeger' een kunst was om met 1/1,5 TB drives een 10TB array te verwezenlijken, terwijl nu iedere boerenl#l met een schroeven draaier zich kan verheffen tot deze kunst door 4 x 4 TB in R5 te zetten.
Ik weet dat dit een reactie is op iemand anders maar ik wil dit issue wel aansnijden.

Het is inderdaad anno 2012 nogal makkelijk om een computertje te maken met 6 disk er in, FreeNAS of ubuntu er op en je hebt een 10 TB RAID 5.

Dat soort builds vind ik niet interessant voor dit topic. Het risico is dat het steeds makkelijker wordt om aan de criteria van dit topic te voldoen. Dit topic is bedoeld voor speciale builds. Wat vroeger speciaal was, is nu main-stream.

Niets tegen main-stream, maar dit topic is juist bedoeld om de specials onder de aandacht te brengen. Main-stream mag in het DIY NAS topic.

Dit heeft wat mij betreft niets met penisnijd of elitairisme ofzo te maken. Dit topic moet gewoon interessante builds onder de aandacht brengen. Daarvoor komen mensen nu ook in dit topic.
Op die manier kun je iedere build op basis van een commercieel verkrijgbare behuizing (die voor de verdere rest wel aan de gestelde eisen voldoet) afschrijven als 'doorsnee' of 'eenvoudig te bouwen bak' en dus onwaardig.

Ik kan me zeer goed voorstellen dat voor veel mensen een uit de kluiten gewassen kast of een 'kleinere' Norco, meer dan voldoet. Een BackBlaze pod mag dan apart zijn, maar ook die behuizing laat je uiteindelijk aan de hand van hun tekeningen snijden. De eigen input/invloed is ook niet meer dan in het elkaar schroeven en een eigen draai aan de hardware geven die nodig is om de boel te laten werken. Als je maar lang genoeg door redeneert is iedere storage build een kopie of variatie op een ander zijn/haar werk.
Dat is natuurlijk helemaal niet de geest van de eisen die worden gesteld. Zo'n BackBlaze pod is gewoon ontzettend cool, net zoals de totaal andere speciale build(s) van Freak1 etc.

Je kunt natuurlijk alles wel bagataliseren, maar ik doe dat zeker niet. Maar ik bagataliseer wel de simpele builds.
Wat volgens mij een build interessant maakt zijn dingen als het hoe en waarom van de storage wens, hoe de invulling plaatsvindt (evt. met onderbouwing van de hardware/software keuze/rek richting de toekomst) en hoe de eigenaar denkt het maximale eruit te halen. Een Gbit draadje voltrekken is inmiddels makkelijk geworden, dus wat komt daar voor in de plaats (Gbit trunk/Fibre/Infiniband) om het achterliggende werkstation maximaal te laten genieten van het opslag monster (en/of de rest van het netwerk).
En dan mag de bak van mij best in een 'big bog standard ATX case' leven.
Helemaal mee eens. Het gaat ook niet om de kast, maar of de build boeiend genoeg is. We zitten dus allemaal wel op 1 lijn denk ik.

Als iemand met een 6 x 2 TB disk RAID 5 komt aanzetten en laat zien hoe dat ding via infiniband wordt ontsloten, reken maar dat je dan aandacht krijgt in dit topic. Dat zou zo'n build toch interessant maken.

[ Voor 60% gewijzigd door Q op 03-01-2012 22:19 ]


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 14-09 10:44

Pantagruel

Mijn 80486 was snel,....was!

Q schreef op dinsdag 03 januari 2012 @ 21:58:
[...]

snipzz

Helemaal mee eens. Het gaat ook niet om de kast, maar of de build boeiend genoeg is. We zitten dus allemaal wel op 1 lijn denk ik.
Klopt als een zwerende vinger.
Als iemand met een 6 x 2 TB disk RAID 5 komt aanzetten en laat zien hoe dat ding via infiniband wordt ontsloten, reken maar dat je dan aandacht krijgt in dit topic. Dat zou zo'n build toch interessant maken.
[spoiler mode ;) ]

Daar wordt min of meer aangewerkt.
Ik heb een aantal Mellanox InfiniHosts MHEA28-XTC kaartjes en wat Infiniband SFF-8470 kabels gekocht.
Wat rest is uitvinden of IB onder FreeBSD (ZFSguru) wil werken (Google en fora zullen uitkomst bieden). Anders wordt het overstappen naar Solaris OpenIndiana waar IB wel werkt getuige Femme's data.
Vooralsnog is het wachten op de spullen uit de US en Hongkong begonnen.

Update mbt IB en FreeBSD: Vlgs de OpenFabric wiki komt het goed .."In 2011, OFED stack was ported to FreeBSD and included in FreeBSD 9" ...
Afwachten totdat ZFSguru dus op FreeBSD 9 overstapt.

[ Voor 12% gewijzigd door Pantagruel op 03-01-2012 23:56 . Reden: OFED info ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • brederodekater
  • Registratie: Maart 2006
  • Laatst online: 10-06 17:02
Pantagruel schreef op dinsdag 03 januari 2012 @ 23:36:
[...]


Klopt als een zwerende vinger.


[...]


[spoiler mode ;) ]

Daar wordt min of meer aangewerkt.
Ik heb een aantal Mellanox InfiniHosts MHEA28-XTC kaartjes en wat Infiniband SFF-8470 kabels gekocht.
Wat rest is uitvinden of IB onder FreeBSD (ZFSguru) wil werken (Google en fora zullen uitkomst bieden). Anders wordt het overstappen naar Solaris OpenIndiana waar IB wel werkt getuige Femme's data.
Vooralsnog is het wachten op de spullen uit de US en Hongkong begonnen.

Update mbt IB en FreeBSD: Vlgs de OpenFabric wiki komt het goed .."In 2011, OFED stack was ported to FreeBSD and included in FreeBSD 9" ...
Afwachten totdat ZFSguru dus op FreeBSD 9 overstapt.
Ahh, dus daar is die infiniband kabel uit vraag&aanbod heengegaan? :(

;)

Acties:
  • 0 Henk 'm!

  • tHe_BiNk
  • Registratie: September 2001
  • Niet online

tHe_BiNk

He's evil! Very EVIL!

freak1 schreef op dinsdag 03 januari 2012 @ 07:03:
[...]
ik voel toch enigzins wat tegenzin ontstaan tegen mijn "kant-en-klare" Synology.. ook al is t voor thuisgebruik en zit hij op plek 2 qua storage ;)
De 1 kiest ervoor om het op een vrouwelijke manier op te lossen, de andere doet het op een manlijke manier. ;)

Ik denk dat een grote of kleine NAS niet van elkaar verschilt, en om daar onderscheidt in te maken, niet echt nuttig is. De software, bouw en beheer verschillen niet veel. Of het nu 2 of 48 disks zijn. En dat is ook het voordeel en gemak van dit concept. Echt ideaal voor de "prosumer" en het MKB. Het tweaken heeft dan voornamelijk betrekking op de add-ons.

Bij custom builds vind ik dat er wel een verschil is, tussen klein en groot. Zeker de >16 disks custom builds. En de diversiteit aan hardware/software RAID en OSen.
Spoooky schreef op dinsdag 03 januari 2012 @ 13:04:
Ik denk dat een build vooral interessant is door een hoog "tweakgehalte", dus hoeveel heb je er voor moeten doen? Of dat nou op hard- of software- gebied is maakt dan weinig uit.
Idd, dat tweakgehalte is belangrijk. Maar je ziet iedereen vertaalt dat weer anders. Eventuele opdeling van een topic moet het overzichtelijker en relevanter maken voor de lezer. Maar aangezien er niet al te veel 10+ builds zijn, en het een showoff topic is, en geen technisch topic. Kan je, je afvragen of dat überhaupt nut heeft om de boel te splisen. Of de regels te veranderen.

Okay, nu weer ontopic, wie is de eerste met foto's van een nieuwe build.

[ Voor 34% gewijzigd door tHe_BiNk op 06-01-2012 08:29 ]

APPLYitYourself.co.uk - APPLYitYourself.com - PLAKhetzelf.nl - Raamfolie, muurstickers en stickers - WindowDeco.nl Raamfolie op maat.


Acties:
  • 0 Henk 'm!

  • thalantis
  • Registratie: Augustus 1999
  • Laatst online: 26-01-2023

thalantis

12200 Wp

bij mij ligt build 2 ook aardig op zijn gat doordat ik nog steeds wacht op de schijven die ik besteld heb

maar hier alvast wat foto's :) zijn in de avond gemaakt dus wat bagger kwaliteit

Afbeeldingslocatie: http://thalantis.eu/fotok.jpg
Afbeeldingslocatie: http://thalantis.eu/foto2k.jpg

eronder staat mijn lian li cube :)

[ Voor 4% gewijzigd door thalantis op 06-01-2012 09:20 ]

Jsunnyreports


Acties:
  • 0 Henk 'm!

  • brederodekater
  • Registratie: Maart 2006
  • Laatst online: 10-06 17:02
Wat worden de uiteindelijke specs van de machine & waar zal hij voor worden gebruikt?

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 14-09 10:44

Pantagruel

Mijn 80486 was snel,....was!

brederodekater schreef op donderdag 05 januari 2012 @ 21:45:
[...]


Ahh, dus daar is die infiniband kabel uit vraag&aanbod heengegaan? :(

;)
LOL, nope, de mijne komt uit hongkong, duurt jammer genoeg wel wat langer. De V&A ad was toen al weg.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • thalantis
  • Registratie: Augustus 1999
  • Laatst online: 26-01-2023

thalantis

12200 Wp

brederodekater schreef op vrijdag 06 januari 2012 @ 11:44:
Wat worden de uiteindelijke specs van de machine & waar zal hij voor worden gebruikt?
komen als het goed is 24 disken van 2 terabyte in en gaat worden gebruikt als opslag cq backup

Jsunnyreports


Acties:
  • 0 Henk 'm!

  • nielsdc
  • Registratie: Juni 2011
  • Laatst online: 19-07 18:49
Tijd om mijn systeem eens voor te stellen.

Het idee voor dit systeem is ontstaan omdat ik ruimte tekort begon te krijgen op m'n werkstation en graag wilde experimenteren met btrfs en zfs. In eerste instantie met 4 2TB disks, maar toen de prijzen plotseling hard begonnen te stijgen heb ik 's avonds toch maar 6 extra schijven besteld bij zercom voor 64€ p/s. Goede timing, want de volgende dag waren er nergens betaalbare schijven meer te vinden!

Hier mijn testsysteem met 10 x 2TB en een M1015 van ebay:

Afbeeldingslocatie: http://www.decarpentier.com/tbox_oud_scaled.jpg

Voor de rest was dit systeem vooral opgebouwd met hardware dit ik nog had liggen. Er was wel wat creativiteit voor nodig om alle schijven in deze kast te krijgen en koel te houden: 10 x 2TB voor m'n array + 2 x laptop schijven 160+500 voor de mirrored root. Ik gebruik voornamelijk Linux, dus het lag voor de hand om m'n nieuwe server ook op Linux te laten draaien.

btrfs viel eigenlijk al snel af als filesysteem, wegens het gebrek aan raid5 support, en de betrouwbaarheid die nog niet optimaal was. ZFS werkte echter vanaf het begin perfect, en is echt een fantastisch filesysteem. Hierdoor kwam ik er ook achter dat mijn hardware niet 100% betrouwbaar was, want een scrub leverde elke keer wel een paar CRC errors op, die overgens netjes gerepareerd werden.

Vanwege de goede ervaringen heb ik toen besloten om een NAS te bouwen zodat ik altijd vanaf overal bij mijn data kan. Mijn eisen voor dit systeem zijn:

Systeem Eisen
betrouwbaarAlleen van de belangrijkste data maak ik backups, dus data moet veilig zijn.
zuinigDe server zal altijd aan staan, dus energie verbruik is belangrijk
performanceIk wil op m'n werkstation een snelheid die vergelijkbaar is met de areca 1220 -> 8 x 750GB raid5 die in m'n werkstation zat
stilEen systeem wat altijd aan staat wil ik niet kunnen horen.


Nadat ik de data van mijn werkstation overgezet had paste mijn werkstation in een kleine kast, en kwam de Lian Li v2000 vrij voor mijn NAS. Daarnaast heb ik een nieuw MB + ECC geheugen + proc gekocht, zodat ik betrouwbare hardware heb. Later zijn daar nog 2 SSD's bijgekomen. Dit heeft geresulteerd in het volgende systeem:

System specifications
ComponentValue
CaseLian Li v2000
CPUIntel Xeon E1220
RAM16 GB ECC
MotherboardSupermicro X9SCM-F
Operating systemLinux Ubuntu 11.10
ControllerM1015 met 9211 IT firmware
Hard drive10 x ST2000DL003 (2TB), 1 x ST9500423AS (500GB), 1 x 120GB intel 320, 1 x 128GB Crucial M4
RAID array configuration1 pool bestaande uit 2 x 5 disk raidz vdevs
Netto storage capacity16TB
Network1 x 1Gb met vlans, 1 x 100Mb remote management, binnenkort: 2 x 10Gb Infiniband
UPSNee
FilesystemZFS on linux, daily ppa
Idle power usage7W uit (alleen IP KVM) 45W met spindown, 90W zonder spindown


En uiteraard een foto:

Afbeeldingslocatie: http://www.decarpentier.com/tbox_nieuw_scaled.jpg

Dit systeem is zonder veel problemen uit te breiden tot 24 disks, dus zou wel een tijdje mee moeten kunnen gaan.

Ik heb voor het supermicro X9SCM-F moederbord gekozen omdat ik op zoek was naar een server bordje, met web based KVM, snelle intel SATA3 poorten en veel pci-express 4x/8x sloten. Ik is toevallig dat dit een mATX bordje is, maar ik ben gewoon geen beter bord tegengekomen voor mijn doel. Ik kan nu zelfs vanuit het buitenland bij de console, en kan eventueel de server aanzetten als ik die nodig heb. En aangezien de server headless in een hoekje komt te staan is het zelfs thuis erg handig.

Ik heb gewoon voor de goedkoopste xeon processor gekozen, ik wilde eerst voor de E1220L gaan, maar omdat die slecht leverbaar was maar voor de gewone E1220 gegaan. Ik ben uiteindelijk wel blij met deze keuze. Ik verwacht dat het verbruik in idle tussen deze processoren toch niet zo heel veel zal verschillen, en het is toch wel prettig om performance te hebben als dat nodig is.

Ik ben begonnen met 8GB ECC geheugen, en heb nu 16GB omdat ik ook wat VM's wil laten draaien op deze machine. Ik hoop dat 8GB dimms betaalbaar zijn geworden tegen de tijd dat ik meer geheugen nodig heb.

Ik heb een intel 320 SSD die misbruikt wordt veel te veel verschillende zaken: 10GB ext4 root, 10GB ext4 home, 200 MB efi, 1GB swap, 4GB SLOG, 82G l2arc voor mijn grote array, en 10GB l2arc voor m'n kleine pool. Ik heb voor de intel 320 gekozen vanwege de betrouwbaarheid en de supercapacitor, met als nadeel mindere performance door de limiet van SATA2. Ik heb bewust de SLOG niet gemirrored, het enige risico is dat ik max 30s aan data verlies als de server crashed binnen 30s na het uitvallen van de SLOG. Ik heb er voor gekozen om zoveel mogelijk op de intel SSD te zetten, zodat het systeem in idle alleen op deze disk kan draaien. Tot zover wordt de l2arc nog niet volledig gebruikt, maar mocht ik performance problemen krijgen vanwege fragmentatie kan ik gewoon de l2arc van de poll verwijderen, de hele l2arc trimmen met een scriptje, en de l2arc weer toevoegen. Hierdoor hoef ik geen extra ruimte vrij te laten op de SSD.

Hiernaast heb ik een 500GB laptop disk, met 16GB swap, een 330GB ext4 scratch partitie, en 150GB zfs pool. De scratch partitie wordt gebruikt om downloads tijdelijk op te slaan, zodat mijn grote array niet actief hoeft te zijn tijdens downloads. De zfs pool heeft een l2arc op de intel SSD, en wordt voornamelijk gebruikt om elk uur rsyncs te doen van de root en home partities. Voor wat extra veiligheid gebruik ik copies=3, en met dagelijkse snapshots heb ik altijd m'n oude data beschikbaar.

Recent heb ik ook de 128GB crucial M4 in m'n laptop vervangen door een 120GB intel, en ga ik de crucial als ext4 partitie gebruiken voor de opslag van vm's. Hierdoor heb ik hoge performance voor m'n vm's, en kan ik de vm's gewoon 24u laten draaien zonder dat ze m'n grote array actief houden.

Ik wilde de M1015 eigenlijk niet naar IT flashen, omdat de controller JBOD drives herkent en verder niets mee doet, en de megaraid driver stabieler schijnt te zijn dan de mpt2sas driver. Helaas laten te laatste firmware versies van de M1015 (en LSI 9240) het niet meer toe om een spindown te doen van je disks! Hierdoor was ik dus gedwongen om over te stappen naar de 9211 IT firmware, wat overgens prima werkt.

De keuze voor ubuntu 11.10 was makkelijk omdat ik die ook op m'n werkstation en laptop gebruik. Met de ZFS ppa is het super simpel om altijd de laatste ZFS versie te draaien. De keuze voor een "experimenteel" FS kan wat vragen oproepen, maar omdat voornamelijk de opensolaris source gebruikt wordt blijkt dit in de praktijk heel stabiel te zijn als je geen compressie of dedup gebruikt. De weinige problemen die gemeld worden zijn hangs, maar in het half jaar dat ik de zfs on linux mailinglist volg ben ik nog niemand tegengekomen die een filesysteem verloren is! Er zijn ook al bedrijven die ZFS on Linux in productie gebruiken, en ik ben zelf nog geen enkel probleem tegengekomen. Er is nog weinig performance tuning gedaan, maar voorlopig ben ik tevreden, en het kan alleen maar beter worden :)

Ik heb ervoor gekozen om 1 pool te maken van 2 raidz vdevs met 5 drives. Dit is een afweging tussen performance en redundancy. ZFS presteerd optimaal als een 128KB blok precies verdeelt kan worden over een heel aantal blokken van je data disks. Bij een 4KB sector size betekent dit dus 2, 4 of 8 data disks + extra disks voor parity. Voor mij betekent dit 2x 4+1 in raidz of 8+2 in raidz2. 8+2 is betrouwbaarder, maar er zijn performance limieten per vdev, dus het is ook trager. Door voor 2 4+1 vdevs te kiezen heb ik dus meer performance, en kan ik m'n array ook met 5 drives uitbreiden zonder dat m'n array ongelijke vdevs heeft. Het nadeel is dat als er 2 drives afsterven in dezelfde vdev ik al m'n data kwijt ben.

Ik heb tijdelijk een round-robin bond van 2 x 1Gb ethernet naar m'n werkstation, en 1Gb met vlans naar m'n LAN. Dit gaat binnenkort vervangen worden door infiniband, ik heb de kabels al binnen, maar m'n kaarten liggen al een week bij de douane :( Infiniband is tegen dumpprijzen te koop op ebay, en ideaal als je een snelle verbinding nodig hebt tussen 2-3 systemen. Bovendien is het uiteraard leuk om mee te experimenteren!

Ik zit momenteel op 58-64W idle, afhankelijk van de pcie_aspm settings. De laatste kernels gaan hier niet goed mee om, en verbruiken wat meer. Mijn target is 50W, en dat moet mogelijk zijn als ik de processor tijdens idle in C6 kan laten draaien. Momenteel gaat de processor niet verder dan C1, maar het is niet makkelijk uit te vinden waar dit door veroorzaakt wordt. Hier ga ik de komende tijd m'n aandacht aan besteden, naast de implementatie van infiniband.

EDIT: Het probleem bleek bij de bonding driver te liggen. Na het verwijderen van de bonding module gaat de processor netjes naar C6, en ik zit nu op 45W idle!!!

De hardware van m'n systeem is redelijk standaard, maar ik ben volgens mij de eerste met ZFS on Linux, en hopelijk binnenkort ook de eerste met Infiniband. Lijkt me dus interessant voor dit topic :)

edit: nog wat performance resultaten:
edit 08/01/2011: betere performance resultaten.

code:
1
2
3
4
dd if=/dev/zero of=testfile.out bs=32M count=2048
2048+0 records in
2048+0 records out
68719476736 bytes (69 GB) copied, 87.9313 s, 782 MB/s


code:
1
2
3
4
dd if=testfile.out of=/dev/null bs=32M count=2048
2048+0 records in
2048+0 records out
68719476736 bytes (69 GB) copied, 115.85 s, 593 MB/s


code:
1
2
3
4
5
6
7
time cp --sparse=never testfile.out testfile2.out

real    4m5.855s
user    0m0.136s
sys     1m7.916s

dus gemiddeld 267MB/s read & 267MB/s write


Een scrub haalt gemiddeld rond de 800MB/s

[ Voor 4% gewijzigd door nielsdc op 08-01-2012 10:48 ]


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 14-09 10:44

Pantagruel

Mijn 80486 was snel,....was!

nielsdc schreef op zaterdag 07 januari 2012 @ 02:38:
Tijd om mijn systeem eens voor te stellen.
..snipz..

System specifications
ComponentValue
CaseLian Li v2000
CPUIntel Xeon E1220
RAM16 GB ECC
MotherboardSupermicro X9SCM-F
Operating systemLinux Ubuntu 11.10
ControllerM1015 met 9211 IT firmware
Hard drive10 x ST2000DL003 (2TB), 1 x ST9500423AS (500GB), 1 x 120GB intel 320, 1 x 128GB Crucial M4
RAID array configuration1 pool bestaande uit 2 x 5 disk raidz vdevs
Netto storage capacity16TB
Network2 x 1Gb bonded, 1 x 1Gb met vlans, 1 x 100Mb remote management
UPSNee
FilesystemZFS on linux, daily ppa
Idle power usage60W met spindown, 105W zonder spindown


..snipz..
Mooie bak en lekkere getallen.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:54
Niets anders dan lof over deze post. Echt super. Mooie build en interessant, zeker ook vanwege ZFS.

:)

Acties:
  • 0 Henk 'm!

  • brederodekater
  • Registratie: Maart 2006
  • Laatst online: 10-06 17:02
Mooie build Niels! En ook leuk om nog in Lian Li'er te verwelkomen ;)

Nog even een update vanuit mijn kant; Ik heb redelijk goedkoop 2x een Intel Dual-port 10Gbit Ethernet NIC op de kop kunnen tikken & een directe verbinding opgezet tussen mijn server en werkstation.

Helaas werkte de SFP+ modules om de een of andere manier niet met de kaarten, maar die kreeg ik er gratis bij dus op zich niet zo'n groot probleem. Ik heb nu tijdelijk een Twinax kabel van m'n werk geleend & dit werkt perfect.

Alleen nu nog een aantal SSDtjes aanschaffen voor m'n werkstation, want deze kan al dit geweld niet meer bijbenen. Met de RAID-0 in m'n werkstation, bestaande uit 3x 1TB 7200RPM schijven, burst ik nu op ongeveer 450MB/s, maar na een aantal seconden dan zakt de performance in naar rond de 280MB/s. Maar goed, ik ben nu al happy met het resultaat :P

Afbeeldingslocatie: http://img545.imageshack.us/img545/4163/dsc0030uf.jpg

8)

[ Voor 4% gewijzigd door brederodekater op 07-01-2012 18:35 ]


Acties:
  • 0 Henk 'm!

  • nielsdc
  • Registratie: Juni 2011
  • Laatst online: 19-07 18:49
Na lang zoeken heb ik eindelijk gevonden waardoor m'n systeem niet lager wilde dan C1 power saving. De bonding driver bleek hiervoor verantwoordelijk te zijn, dus laat ik tijdelijk alles maar over een enkele Gbit lopen. De bonding interface was toch tijdelijk totdat ik m'n Infiniband spul binnen krijg, dus dat maakt niet zoveel uit.

Het systeem gaat nu netjes naar C6, wat een behoorlijk verschil maakt. Ik heb nu 45W idle!

Verder heb ik de writes nog wat sneller gekregen, het lukt me nog niet de reads sneller te krijgen :(

Ik heb m'n topic geupdate met de nieuwe info.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:54
Ik heb je ook even in de lijst gezet. Leuk dat zo'n bonding driver de state verknoeid. Goed om te weten. Scheekt 15 watt.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:54
brederodekater schreef op zaterdag 07 januari 2012 @ 18:23:
Mooie build Niels! En ook leuk om nog in Lian Li'er te verwelkomen ;)

Nog even een update vanuit mijn kant; Ik heb redelijk goedkoop 2x een Intel Dual-port 10Gbit Ethernet NIC op de kop kunnen tikken & een directe verbinding opgezet tussen mijn server en werkstation.

Helaas werkte de SFP+ modules om de een of andere manier niet met de kaarten, maar die kreeg ik er gratis bij dus op zich niet zo'n groot probleem. Ik heb nu tijdelijk een Twinax kabel van m'n werk geleend & dit werkt perfect.

Alleen nu nog een aantal SSDtjes aanschaffen voor m'n werkstation, want deze kan al dit geweld niet meer bijbenen. Met de RAID-0 in m'n werkstation, bestaande uit 3x 1TB 7200RPM schijven, burst ik nu op ongeveer 450MB/s, maar na een aantal seconden dan zakt de performance in naar rond de 280MB/s. Maar goed, ik ben nu al happy met het resultaat :P
Dat is echt heel vet. Je bent de eerste hier met 10 Gigabit. Begrijp ik het goed dat glas dus niet ging? Ik begrijp ook dat de conectors in deze dus niet standaard UTP etc zijn. Zo'n kabel lijkt me niet gratis.

Je kunt eens wat tests doen met iperf om te zien wat je echte capaciteit is.

[ Voor 4% gewijzigd door Q op 08-01-2012 11:03 ]


Acties:
  • 0 Henk 'm!

  • SpamLame
  • Registratie: Augustus 2000
  • Laatst online: 14-09 15:11

SpamLame

niks

Q schreef op zondag 08 januari 2012 @ 11:02:
[...]


Dat is echt heel vet. Je bent de eerste hier met 10 Gigabit.
Begrijp ik het goed dat glas dus niet ging?
De SFP+ modules worden niet door de kaart aangestuurd voor zover ik het begrijp, kan een branding issue zijn.
Ik begrijp ook dat de connectors in deze dus niet standaard UTP etc zijn. Zo'n kabel lijkt me niet gratis.
Klopt SFP is een std voor modules die je in het open slot kan prikken. Die zijn er in glas en koper en in meerdere netwerkprotocollen, snelheden en waar van toepassing afstanden.
Zo'n twinax kabel is van koper met de SFP's er aan vast, het is dus een geheel.
Je kunt eens wat tests doen met iperf om te zien wat je echte capaciteit is.

Acties:
  • 0 Henk 'm!

  • brederodekater
  • Registratie: Maart 2006
  • Laatst online: 10-06 17:02
Mijn ervaring met SFPtjes is dat je inderdaad beter het merk van de kaart/router/switch kunt matchen met het merk van de SFP. Ik zal ze voor de gein eens testen in een Arista switch, welke bekend staan om dat ze vrijwel elke merk slikken.

Ik denk dat ik uiteindelijk zelf een Twinax kabel bestel. Dit is eigenlijk gewoon een koper kabel met SFP modules aan weerszijden. Je bent dan alleen wat beperkt met betrekking tot de lengte, maar 3 meter is genoeg voor mij. Plus daarbij komt dat deze kabels best goedkoop zijn, ongeveer 100 Euro.

Ik zal binnenkort eens wat Iperf testjes posten :)

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 15-09 19:27
Er zijn actieve TwinAx kabels te krijgen van maximaal 10M. Passief kan je tot 3M.
Verschil tussen actief en passief zijn de power requirements. Maar een kaartje moet die stroom wel kunnen leveren.

Lastiger word het als je een 48P SFP switch hebt, met 48P actieve SFP modules. Dat vinden die switches niet grappig.

10Gb is leuk, maar in de praktijk haal je (zelfs met iperf) maximaal 6Gb ofzo.
Heb hier op het werk een test gedaan met 2 Intel 10Gb kaartjes en een Cisco Nexus 5020 (_heel_ duur spul).
Dat was leuk, maar hoger dan 6Gb kom je meestal niet. Dus als je dat (straks) met Iperf haalt, zit je goed :)

Ben zelf aan het spelen met dual 4Gbit glas HBA's. Eens kijken of ik daar een leuke snelheid overheen krijg.

Even niets...


Acties:
  • 0 Henk 'm!

  • SpamLame
  • Registratie: Augustus 2000
  • Laatst online: 14-09 15:11

SpamLame

niks

Klinkt alsof je met Fibre Channel aan de slag gaat.
Indien dat het geval is kom je, indien getrunked, aan een theoretische limit van 850 MB/s.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 15-09 19:27
Precies, en dat is wel leuk, maar moet nog even kijken of ik op de een of andere manier een volume over Fibre Channel kan presenteren zonder dat Windows het ding als NTFS wil formatteren.

Ik wil namelijk mijn bestaande array publiceren over Fibre Channel, maar denk niet dat dit gaat werken.

Ik zie net dat er zoiets als IPFC(Ethernet over Fibre Channel) bestaat, en blijkbaar ondersteunen mijn QLogic kaartjes dat (2462). Als ik morgen tijd heb, maar eens kijken of dat werkt :)

[ Voor 24% gewijzigd door FireDrunk op 08-01-2012 22:02 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • brederodekater
  • Registratie: Maart 2006
  • Laatst online: 10-06 17:02
Ik begin een beetje bang te worden dat het upgraden van m'n werkstation niet voldoende zal zijn om optimaal van de beschikbare bandbreedte gebruik te maken. Tijden het overzetten van zo'n 100GB met een snelheid van +/- 2.2Gbit/s schoot het CPU & geheugen gebruik van de server omhoog;

Afbeeldingslocatie: http://img221.imageshack.us/img221/4417/cpu0.png

Afbeeldingslocatie: http://img401.imageshack.us/img401/5215/cpu1.png

Afbeeldingslocatie: http://img718.imageshack.us/img718/7378/memoryi.png

Deze grafieken laten een gemiddelde van 30 seconde zien, dus het daadwerkelijke gebruik lag zelfs nog hoger.

Misschien dat ik toch eens moet nadenken over een upgrade voor het moederbord en de CPU van de server, want tijdens het overzetten stond mijn werkstation (i7 920, 12GB) praktisch idle te draaien.

Maar goed, ik ga eerst nog wat dieper op onderzoek uit om uit te vogelen wat dit veroorzaakt :/


///EDIT///

Ik realiseer mijzelf net dat er maar 256MB op m'n Areca kaart zit geprikt. Zou dit probleem veroorzaakt kunnen worden omdat de cache gewoon niet groot genoeg is om grote hoeveelheden data op hoge snelheid te verwerken?

Eventueel kan de huidige 256MB module vervangen worden met een van 1GB. Maar graag hoor ik van jullie of dit überhaupt wel zin heeft :)

[ Voor 23% gewijzigd door brederodekater op 09-01-2012 09:27 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 15-09 19:27
De burst snelheid van 1GB cache is wel iets hoger misschien, maar ik denk dat je server snel genoeg is om het met 256MB te doen mits je een beetje fatsoenlijke drivers hebt. Je zou nog eens kunnen kijken naar block en sector sizes. Als je teveel IOPS doet, heeft meer cache al helemaal geen zin, want dan bottleneck je de CPU van je Areca controller. Ik zou eerder eens goed kijken (door benchmarken) waar je botleneck ligt.

Bovendien vind ik de CPU belastig ERG hoog... Kijk eens met top (ik ga uit van linux) of je IOWAIT hebt, of Interrupts die je CPU belasten. Is het IOWAIT dan wacht je server (actief) op je Areca kaart, is het Interrupt handling, dan is je netwerkkaart de boosdoener.

Mocht dit laatste het geval zijn, kijk dan goed of alle offloading features aan staan.

Even niets...

Pagina: 1 ... 16 ... 38 Laatste

Let op:
Om heftige discussies te voorkomen in het topic, lees eerst goed de start post om te weten waar aan het systeem moet voldoen. Ben je van mening dat jouw systeem toch in dit topic hoort maar valt hij niet binnen de gestelde eisen, neem dan contact op met een van de auteurs van dit topic zij zullen open staan voor goede argumenten, zoals ook vermeld in de start post.

Gebruik de in de TS geplaatste tabel om dit topic leesbaar te houden!