Verwijderd

MrBarBarian schreef op vrijdag 04 maart 2011 @ 10:02:
[...]


Waarom niet de Supermicro X8SI6-F-O? Dit heeft een onboard sas-chip, dus ruimte voor 8 disken.
Slecht bord met nauwelijks PCIe; neem dan de X8ST3-F:
http://www.supermicro.com.../Xeon3000/X58/X8ST3-F.cfm
Daarachter kan je nog een SAS-expander plaatsen, waarna je ruimte hebt voor veeeeeel disken..
Expanders of Port multipliers moet je niet gebruiken in combinatie met ZFS. Het kan wel werken, maar:
1) levert veel problemen op, sommige bugs in expanders komen alleen aan het licht met ZFS workloads
2) Sun had ook een blog waarin het de onzin van expanders aantoonde; geen zin nu om te zoeken
3) Het is nauwelijks goedkoper dan gewoon meerdere HBA's kopen waarbij je veel meer waar voor je geld krijgt.

Stel je wilt 30 disks in een NAS wilt stoppen, ga je je snelheid toch niet castreren door expanders? Koop dan gewoon dat bord hierboven en twee losse Intel SASUC8i erbij en je zit aan 30 disks; waarschijnlijk nog goedkoper dan expanders of het zal niet veel schelen. Plus alle potentiële problemen en lagere performance.

Expanders werkt wel goed voor single-access systemen, zoals UnRAID.

Verwijderd

FireDrunk schreef op vrijdag 04 maart 2011 @ 17:16:
Je kan gewoon alles op LSI Logic SAS hangen als controller type.
Mocht dit allemaal niet werken/kunnen, ligt dat aan jou, ik heb namelijk ESX(i) :P
ik kan alleen een virtuele disk aanmaken met de keuze IDE / SCSI en blijkbaar ziet NexentaStor alleen ide diskje (en daar kan je er maar 4 van aanmaken )
nou heb ik die VM zelf gebakken (de vm die aangeboden wordt (V3.0) werkt ook al niet)

Afbeeldingslocatie: http://img814.imageshack.us/img814/1114/vmshit.jpg

nu lees ik ook nog iets over OPEN INDIANA , is dat nog spannend O-)


* update ;w

Afbeeldingslocatie: http://img560.imageshack.us/img560/8881/34201171823pm.jpg

:(

[ Voor 18% gewijzigd door Verwijderd op 04-03-2011 19:20 ]


Verwijderd

Dat is wel balen. Heb je al eens met Virtualbox geprobeerd? Is natuurlijk niet hetzelfde, maar daar kun je gewoon een AHCI controller gebruiken en dan raw disks toevoegen (met command line utility, dat wel; zoek naar: createrawvmdk).

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Vandaag heb ik als deel van mijn Customer Eng. bij EMC een korte overview over VMware gekregen en blijkbaar is I/O met het nieuwe FS een heel stuk beter. Resultaat: alle plannen in de vuilbak en terug naar de tekentafel met als doel: gevirtualiseerde NAS.

Meteen maar eens een shoppinglijstje klaarmaken bij centralpoint :)

Verwijderd

Verwijderd schreef op vrijdag 04 maart 2011 @ 19:34:
Dat is wel balen. Heb je al eens met Virtualbox geprobeerd? Is natuurlijk niet hetzelfde, maar daar kun je gewoon een AHCI controller gebruiken en dan raw disks toevoegen (met command line utility, dat wel; zoek naar: createrawvmdk).
nee nooit gebruikt, zal het is installen.

heb wel openfiler onder vm aan de gang 8)

Afbeeldingslocatie: http://img856.imageshack.us/img856/7383/openfilervm.jpg

  • Ravefiend
  • Registratie: September 2002
  • Laatst online: 22-12 11:58

Ravefiend

Carpe diem!

Verwijderd schreef op vrijdag 04 maart 2011 @ 18:48:
[...]
Slecht bord met nauwelijks PCIe; neem dan de X8ST3-F:
http://www.supermicro.com.../Xeon3000/X58/X8ST3-F.cfm
[...]

3) Het is nauwelijks goedkoper dan gewoon meerdere HBA's kopen waarbij je veel meer waar voor je geld krijgt.

Stel je wilt 30 disks in een NAS wilt stoppen, ga je je snelheid toch niet castreren door expanders? Koop dan gewoon dat bord hierboven en twee losse Intel SASUC8i erbij en je zit aan 30 disks; waarschijnlijk nog goedkoper dan expanders of het zal niet veel schelen. Plus alle potentiële problemen en lagere performance.
Slecht zou ik niet direct zeggen maar anderzijds had ik wel het idee liever meer PCIe 2.0 slots te willen met bv de X8SIL-F (2 x8 lanes + 1 x4 lanes)) + en daarop nu de SASUC8i, en eens SATA2 betere FreeBSD support heeft dan zet ik er wel een LSI SAS2008 bij. Merk op dat de X8ST3-F bijna het dubbele kost. Don't get me wrong, geweldige specs etc. maar een beetje overkill voor een DIY NAS ... (al zou ik het wel willen hebben) .. :+

Verwijderd

* (oud nieuws) :z

[ Voor 88% gewijzigd door Verwijderd op 05-03-2011 00:06 ]


  • MrBarBarian
  • Registratie: Oktober 2003
  • Laatst online: 07-03-2023
Verwijderd schreef op vrijdag 04 maart 2011 @ 18:48:
[...]
Expanders of Port multipliers moet je niet gebruiken in combinatie met ZFS. Het kan wel werken, maar:
1) levert veel problemen op, sommige bugs in expanders komen alleen aan het licht met ZFS workloads
2) Sun had ook een blog waarin het de onzin van expanders aantoonde; geen zin nu om te zoeken
3) Het is nauwelijks goedkoper dan gewoon meerdere HBA's kopen waarbij je veel meer waar voor je geld krijgt.

Stel je wilt 30 disks in een NAS wilt stoppen, ga je je snelheid toch niet castreren door expanders? Koop dan gewoon dat bord hierboven en twee losse Intel SASUC8i erbij en je zit aan 30 disks; waarschijnlijk nog goedkoper dan expanders of het zal niet veel schelen. Plus alle potentiële problemen en lagere performance.

Expanders werkt wel goed voor single-access systemen, zoals UnRAID.
Mooie redenatie, maar zoals Ravefiend al aangeeft hou je totaal geen rekening met het financiële aspect. Als geen geen issue is weet ik nog veel betere/mooiere/snellere oplossingen in elkaar te zetten.

Helaas is dat voor 99% van de gevallen niet echt de situatie.

Meer op de inhoud:
- Een HP SAS-expander kost 299 euro (zie pricewatch unsorted: HP SAS EXPANDER CARD .). Je totale aansluitbare HD's komt hiermee op (7x4) 28 stuks (hierbij neem ik aan dat je de SAS-kaart met 2 kabels doorlust).
- Om 28 disken aan te sluiten met aparte Intel SASUC8i controllers (a 130 euro ps, zie pricewatch: Intel RAID Controller SASUC8I) ben je 520 euro kwijt (4 contollers).
- Je hebt geluk, wat het door jou genoemde moederbord heeft toevallig ook nog 4 pci-e aansluitingen. Helaas is het moederbord wel ruim 40 euro duurder.

Hebben we nog snelheid. True, een SAS-expander gaat ten koste van je snelheid. Mijn uitgangspunt is een NAS voor thuis. Als we uitgaan van een flink gezin (5 leden) die allen tegelijk willen streamen van de NAS. Gaat snelheid een issue zijn dan? Ik verwacht van niet, ook niet als er nog iemand fijn van het usenet aan het downloaden is. Ik gok dat de UTP-kabeltjes en het WIFI-netwerkje eerder een issue zullen zijn.

Dat Sun gaat aantonen dat SAS-expanders niet zinvol zijn geloof ik ook graag. Helemaal als je eerst aangeeft dat ZFS problemen heeft met SAS-expanders ;). Maarre, hebben andere filesystemen die problemen ook? Of is ZFS zelf het probleem? Ik weet het niet, maar als je linksom redeneert moet rechtsom ook kunnen.

iRacing Profiel


Verwijderd

ZFS produceert workloads die bugs triggeren die met een normale NTFS workload niet te triggeren is. Het gaat hier om veel kleine flush commando's, en daar schijnen sommige type expanders problemen mee te hebben. Die problemen doen zich alleen voor met gebruik met ZFS, doordat ZFS een transactional filesystem is gaat het heel anders om met I/O en is de workload ook heel anders, dus het lijkt een plausibel verhaal. Meer info hierover kun je denk ik vinden op Hardforums in een van de expanderthreads.

Om 30 disks aan te sluiten heb je twee Intel SASUC8i nodig + zo'n SuperMicro X8ST3-F moederbord met 14 onboard SATA (niet 4 zoals jij noemt). 8 + 8 + 14 = 30 disks. Het moederbord is niet goedkoop maar gezien alle functionaliteit die erop zit geen slechte keus. Als je 30 disks eraan hangt is de 'hobby factor' ook maar relatief natuurlijk; dan krijg je semi-professioneel spul. SuperMicro is sowieso server-kwaliteit; anders kun je net zogoed een micro-atx AMD bordje nemen als je het goedkoop wilt.

Misschien dat expanders een heel klein beetje goedkoper zijn. In sommige gevallen zelfs duurder. En alle mogelijke problemen en performance castratie; waarom? Waarom niet gewoon HBA's? Daar heb je later ook nog wat aan, en lijkt me dus een betere investering voor je geld. Als je al een expander hebt, is UnRAID het overwegen waard. Ik zou ze niet met ZFS gebruiken, alhoewel sommigen dat dus wel doen.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
KAK, ik kom er net achter dat mijn bord maar 4 UDIMM's tegelijk aankan, ookal heb ik zes sloten.. :'(
Nu heb ik dus 2x2GB over (ik had 2x4GB bijbesteld omdat mijn geheugen vol zat... )
Toch mooi balen...

Aan de andere kant heb ik nu dus een i3-530 over, 2x2GB DDR3 ECC... Nu alleen nog een zuinig plankje en ik heb een 2e server :P

Even niets...


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Zeker mooi plankje die X8SI6-F en zou hem ook graag willen... Misschien dat dat bord wel 2 LSI controllers aankan. (Hoewel het door die onboard controller niet meer nodig is, maar gewoon omdat het kan :P )

Even niets...


Verwijderd

FireDrunk schreef op maandag 07 maart 2011 @ 21:17:
Zeker mooi plankje die X8SI6-F en zou hem ook graag willen... Misschien dat dat bord wel 2 LSI controllers aankan. (Hoewel het door die onboard controller niet meer nodig is, maar gewoon omdat het kan :P )
zeker mooi spul.. maar 650,- voor bordje + xeon 3440 + 12 Gb ECC .. zonder disks/behuzing/voeding/ect.. aaaaaargh |:(

  • bassio
  • Registratie: Oktober 2000
  • Laatst online: 21:46
Ik ga ook een dyi nas / home server bouwen samen met 2 andere vrienden. Dit is onze config geworden die we alle drie gaan bestellen:

#ProductPrijsSubtotaal
1Supermicro X7SPA-HF-D525€ 190,76€ 190,76
4Samsung EcoGreen F4EG HD204UI, 2TB€ 66,95€ 267,80
1Chenbro ES34169€ 0,-€ 0,-
1Kingston ValueRAM KVR800D2S6K2/4G€ 49,54€ 49,54
Bekijk collectie
Importeer producten
Totaal€ 508,10

Het gaat gebruikt worden als home server / backup server. We gaan de schijven in Raid 10 zetten zodat we 4 TB effectief overhouden.

We gaan testen met verschillende software zoals Windows Server 2008, WHS (misschien wel VAIL) en in ieder geval Amahi. Persoonlijk ben ik wel gecharmeerd van Amahi, ziet er erg goed uit. Ben benieuwd of het stroomverbruik ook nog scheelt afhankelijk van de software die je gebruikt, maar kan het mij bijna niet voorstellen.

Wat ik er mee wil gaan doen:
- Downloaden via sabnzbd, couchotato en sickbeard
- Streamen van films en series naar XBMC
- Squeezeserver voor muziek, eventueel met spotify 3rd party plugin
- File server voor alles op te slaan wat maar belangrijk is
- Amahi heeft ook een VPN, dus dat kunnen we er ook voor gebruiken.

We wilde een snelle, maar wel zuinige server die klein was, maar toch groot genoeg voor 4 schijven. Het moederbord schijnt een goed moederbord te zijn met een onboard raid chipset die ervoor moet zorgen dat de data veilig is en ook nog een beetje performed. Al denk ik dat de Dual Core atom altijd de bottleneck zal zijn.

De kast hebben we voor 167 euro inclusief verzendkosten op ebay gekocht, aangezien hij in NL niet beschikbaar is.

Verwijderd

bassio schreef op maandag 07 maart 2011 @ 22:15:
Ik ga ook een dyi nas / home server bouwen samen met 2 andere vrienden. Dit is onze config geworden die we alle drie gaan bestellen:

#ProductPrijsSubtotaal
1Supermicro X7SPA-HF-D525€ 190,76€ 190,76
4Samsung EcoGreen F4EG HD204UI, 2TB€ 66,95€ 267,80
1Chenbro ES34169€ 0,-€ 0,-
1Kingston ValueRAM KVR800D2S6K2/4G€ 49,54€ 49,54
Bekijk collectie
Importeer producten
Totaal€ 508,10

Het gaat gebruikt worden als home server / backup server. We gaan de schijven in Raid 10 zetten zodat we 4 TB effectief overhouden.

We gaan testen met verschillende software zoals Windows Server 2008, WHS (misschien wel VAIL) en in ieder geval Amahi. Persoonlijk ben ik wel gecharmeerd van Amahi, ziet er erg goed uit. Ben benieuwd of het stroomverbruik ook nog scheelt afhankelijk van de software die je gebruikt, maar kan het mij bijna niet voorstellen.

Wat ik er mee wil gaan doen:
- Downloaden via sabnzbd, couchotato en sickbeard
- Streamen van films en series naar XBMC
- Squeezeserver voor muziek, eventueel met spotify 3rd party plugin
- File server voor alles op te slaan wat maar belangrijk is
- Amahi heeft ook een VPN, dus dat kunnen we er ook voor gebruiken.

We wilde een snelle, maar wel zuinige server die klein was, maar toch groot genoeg voor 4 schijven. Het moederbord schijnt een goed moederbord te zijn met een onboard raid chipset die ervoor moet zorgen dat de data veilig is en ook nog een beetje performed. Al denk ik dat de Dual Core atom altijd de bottleneck zal zijn.

De kast hebben we voor 167 euro inclusief verzendkosten op ebay gekocht, aangezien hij in NL niet beschikbaar is.
ziet er goed uit, en ik had nog nooit van AMAHI gehoord .

  • bassio
  • Registratie: Oktober 2000
  • Laatst online: 21:46
Ik ook niet, tot ik hier op GoT wat topics aan het doorbladeren was. Is de open source versie van WHS zeg maar. Je kan er behoorlijk veel mee zag ik zo op de site.

Verwijderd

bassio schreef op maandag 07 maart 2011 @ 22:25:
Ik ook niet, tot ik hier op GoT wat topics aan het doorbladeren was. Is de open source versie van WHS zeg maar. Je kan er behoorlijk veel mee zag ik zo op de site.
ben het aan het installen.
wel een heel gedoe moet ik zeggen. (eerst fedora 14 +393 updates )

morgen overmorgen meer :)

Afbeeldingslocatie: http://img263.imageshack.us/img263/3563/kernelfedora14.jpg


nah.. vooralsnog heeft FreeNas 8 mijn voorkeur .. amahi werkt met een advertentiemodel en een appstore en is min of meer toch closed source.

Afbeeldingslocatie: http://img641.imageshack.us/img641/5987/freenassie.jpg

[ Voor 32% gewijzigd door Verwijderd op 08-03-2011 17:01 ]


  • Jaguar645
  • Registratie: Juni 2001
  • Laatst online: 24-12 12:05
bassio schreef op maandag 07 maart 2011 @ 22:15:
Ik ga ook een dyi nas / home server bouwen samen met 2 andere vrienden. Dit is onze config geworden die we alle drie gaan bestellen:

#ProductPrijsSubtotaal
1Supermicro X7SPA-HF-D525€ 190,76€ 190,76
4Samsung EcoGreen F4EG HD204UI, 2TB€ 66,95€ 267,80
1Chenbro ES34169€ 0,-€ 0,-
1Kingston ValueRAM KVR800D2S6K2/4G€ 49,54€ 49,54
Bekijk collectie
Importeer producten
Totaal€ 508,10
Hehe ik was net van plan een soort gelijk lijstje neer te gaan gooien om hier nog wat extra meningen inwinnen :P

Ik ga vast de Windows USB boot sticks voor bereiden ;)

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Windows USB Boot sticks? Waarom Windows van USB draaien? Of bedoel je een Installatie USB stick?

Even niets...


  • Jaguar645
  • Registratie: Juni 2001
  • Laatst online: 24-12 12:05
Uiteraard :) Hoewel je misschien een Windows Core variant nog wel van USB zou moeten kunnen draaien :)

  • Ravefiend
  • Registratie: September 2002
  • Laatst online: 22-12 11:58

Ravefiend

Carpe diem!

Enig idee of de WD20EARS 2TB disks nu al wel safe zijn om deze te kopen ipv de F4's ?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
De F4's zijn ook niet safe, dus je vraag gaat niet op :)
* FireDrunk wist niet eens dat EARS versies niet betrouwbaar waren.. :+

Even niets...


Verwijderd

ik hoor jullie nooit over de HD203WI van Samsung.
heb er 6 al een poosje in gebruik en draaien voortreffelijk 8)

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Dat is ook een 'verouderd' type ;)

Even niets...


  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
De hitachi 7k1000c is niet al te duur en krijgt 24/7 van de fabrikant. Misschien die eens checken?

Zijn de nieuwe sandy bridge Xeons trouwens al in het wild gevonden?

Verwijderd

FireDrunk schreef op dinsdag 08 maart 2011 @ 14:37:
Dat is ook een 'verouderd' type ;)
net als hun baasje :)

zie het nu.. de opvolger is de F4EG HD204UI

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Jup, en daar heb ik er 4 van :) Top schijven :)

Even niets...


  • lowfi
  • Registratie: Januari 2004
  • Laatst online: 25-12 08:05
Ik hoor er wisselende verhalen over. Top lijkt me dan ook overdreven ;)

Meer een veel voor weinag verhaal.

  • Ravefiend
  • Registratie: September 2002
  • Laatst online: 22-12 11:58

Ravefiend

Carpe diem!

Verwijderd schreef op dinsdag 08 maart 2011 @ 14:21:
ik hoor jullie nooit over de HD203WI van Samsung.
heb er 6 al een poosje in gebruik en draaien voortreffelijk 8)
De clue is dat deze F3's gebruik maken van 500GB platters, waar de meer recentere modellen al zijn overgeschakeld naar 667GB. Bij een zelfde RPM heb je dus meer data doorvoer bij deze laatste. Daarbij komt dan nog de 4K sector change, in vergelijking met de oudere 512 byte sectors. Sommige disks zijn echt 4K terwijl bij anderen het emuleren op basis van de 512 bytes sectors, en in dit laatste geval, heeft dat weer een dramatisch impact op RAID arrays als ze niet aligned zijn (leesvoer).
FireDrunk schreef op dinsdag 08 maart 2011 @ 14:08:
De F4's zijn ook niet safe, dus je vraag gaat niet op :)
* FireDrunk wist niet eens dat EARS versies niet betrouwbaar waren.. :+
Ja, nou weet ik het zelf ook even niet meer .... |:(
Jormungandr schreef op dinsdag 08 maart 2011 @ 14:54:
De hitachi 7k1000c is niet al te duur en krijgt 24/7 van de fabrikant. Misschien die eens checken?
Wel ja, doch zijn deze schijven max. 1TB en ik zoek het iets groter. :+
Jormungandr schreef op dinsdag 08 maart 2011 @ 14:54:
Zijn de nieuwe sandy bridge Xeons trouwens al in het wild gevonden?
Op zoek naar iets specifieks misschien?

Verwijderd

Er zijn nog geen native 4K sector disks; allemaal gebruiken ze emulatie.

EARS en nieuwe types EADS hebben geen TLER functie, waar hierboven misschien op wordt gedoeld. Samsung F4 heeft wel CCTL maar dat werkt niet na een stroomcycle; dit is iets wat je controller moet ondersteunen.

Je hebt TLER/CCTL/ERC nodig voor:
- Hardware RAID gebruikt onder alle OS
- Onboard RAID met Windows-only drivers (DriverRAID of FakeRAID)

Je hebt TLER/etc niet nodig als je:
- Linux software RAID doet met een non-RAID controller
- ZFS doet met een non-RAID controller

TLER en soortgenoten zijn ook gevaarlijke opties. In geval van bad sectors zal een TLER schijf het al heel snel opgeven en mogelijk recoverable data gewoon corrupt op de disk laten staan. TLER/CCTL/ERC doet niets meer dan de schijf forceren te stoppen met recovery na (typisch) 7 seconden, omdat na 10 seconden de schijf een timeout krijgt van de RAID controller en dan als volkomen verloren wordt beschouwd. TLER zorgt er dus voor dat de hardeschijf simpelweg opgeeft bij een bad sector, en niet langer dan 7 seconden probeert de data te 'redden' op die sector.

Samsung F4 is momenteel mijn favoriete schijf, maar er komt al een nieuwe aan; Samsung heeft 1TB platters geproduceerd en dus krijgen we schijven tot 4TB; ik gok de Samsung F5. :)

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 20-12 23:39
Hitachi 7K3000, snelle 7200rpm 24/7 schijven, verkrijgbaar in 1.5TB, 2TB en 3TB misschien?
Verwijderd schreef op dinsdag 08 maart 2011 @ 16:29:
Samsung F4 is momenteel mijn favoriete schijf, maar er komt al een nieuwe aan; Samsung heeft 1TB platters geproduceerd en dus krijgen we schijven tot 4TB; ik gok de Samsung F5. :)
Op welke termijn verwacht je deze nieuwe schijven?

[ Voor 68% gewijzigd door -Moondust- op 08-03-2011 16:32 ]


  • Obscurax
  • Registratie: Februari 2008
  • Niet online

Obscurax

carpe noctem

-Moondust- schreef op dinsdag 08 maart 2011 @ 16:30:
Hitachi 7K3000, snelle 7200rpm 24/7 schijven, verkrijgbaar in 1.5TB, 2TB en 3TB misschien?
Ik ben van plan de Hitachi 5K3000's te gebruiken. 4 x 2TB in RAID5 met een Dell PERC i/5.
Blijken goede RAID schijven te zijn. Iemand ervaring met deze of de 7K3000's?
Naar verluid zouden ze minder snel uit een array moeten droppen.
Zal snel moeten gebeuren vooraleer Hitachi de WD toer opgaat :( , nu ze zijn overgenomen.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Ravefiend schreef op dinsdag 08 maart 2011 @ 15:53:
Ja, nou weet ik het zelf ook even niet meer .... |:(
De F4's zijn (in mijn ogen) hele goede schijven NA de firmware upgrade :)
Ze zijn niet safe als je ze niet upgrade.

Bij mij halen ze 110MB/s in hun uppie!
Obscurax schreef op dinsdag 08 maart 2011 @ 16:57:
[...]
Ik ben van plan de Hitachi 5K3000's te gebruiken. 4 x 2TB in RAID5 met een Dell PERC i/5.
Blijken goede RAID schijven te zijn. Iemand ervaring met deze of de 7K3000's?
Naar verluid zouden ze minder snel uit een array moeten droppen.
Zal snel moeten gebeuren vooraleer Hitachi de WD toer opgaat :( , nu ze zijn overgenomen.
Ik denk dat het kwestie is van maanden, zo niet een jaar of wat voordat alle Hitachi technieken echt helemaal uitgefaseerd zijn en opgegaan zijn in WD types. WD zal eerst alle fabrieken/processen/technieken op elkaar moeten afstemmen voordat Hitachi echt 'weg' is...

Even niets...


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Verwijderd schreef op dinsdag 08 maart 2011 @ 16:29:
Er zijn nog geen native 4K sector disks; allemaal gebruiken ze emulatie.

EARS en nieuwe types EADS hebben geen TLER functie, waar hierboven misschien op wordt gedoeld. Samsung F4 heeft wel CCTL maar dat werkt niet na een stroomcycle; dit is iets wat je controller moet ondersteunen.

Je hebt TLER/CCTL/ERC nodig voor:
- Hardware RAID gebruikt onder alle OS
- Onboard RAID met Windows-only drivers (DriverRAID of FakeRAID)

Je hebt TLER/etc niet nodig als je:
- Linux software RAID doet met een non-RAID controller
- ZFS doet met een non-RAID controller

TLER en soortgenoten zijn ook gevaarlijke opties. In geval van bad sectors zal een TLER schijf het al heel snel opgeven en mogelijk recoverable data gewoon corrupt op de disk laten staan. TLER/CCTL/ERC doet niets meer dan de schijf forceren te stoppen met recovery na (typisch) 7 seconden, omdat na 10 seconden de schijf een timeout krijgt van de RAID controller en dan als volkomen verloren wordt beschouwd. TLER zorgt er dus voor dat de hardeschijf simpelweg opgeeft bij een bad sector, en niet langer dan 7 seconden probeert de data te 'redden' op die sector.

Samsung F4 is momenteel mijn favoriete schijf, maar er komt al een nieuwe aan; Samsung heeft 1TB platters geproduceerd en dus krijgen we schijven tot 4TB; ik gok de Samsung F5. :)
Weet je toevallig ook waarom het voor MDADM/ZFS softraid niet uitmaakt of je CCTL/TLER hebt of niet? Het lijkt me namelijk logisch dat ook een softwarematige implementatie het fijn vindt om er niet na een minuut of wat pas achter te komen dat er een sector dood is. Gaat anders de I/O en het OS niet zwaar 'stallen'?

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • Obscurax
  • Registratie: Februari 2008
  • Niet online

Obscurax

carpe noctem

Hieronder er mooie ervaring met consumer Hitachi drives in RAID.
http://hardforum.com/showthread.php?t=1487525

Ik ben van plan +-hetzelfde te doen, met nieuwere Hitachi drives zoals 3 posts hierboven beschreven staat.
Maar niet met linux maar met Windows Server 2008 R2 waarbij een batch file runt om de lees en schrijf ERC naar 7 s te zetten.
code:
1
smartctl -l scterc,70,70 <device>


Indien iemand hier ervaring mee heeft hoor ik het graag.

[ Voor 8% gewijzigd door Obscurax op 08-03-2011 21:29 ]


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Zou moeten werken, zolang je maar 5.40 (of hoger) draait en geen nieuwe Western Digital (non-RE) gebruikt. WD zou ik willen afraden voor gebruik in een RAID-array, omdat het simpelweg onmogelijk is TLER aan te zetten. Dit in tegenstelling tot oudere WD's (t/m WDxxEADS) en andere 'desktop'-schijven.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
root@CRAVUFS01:~# mdadm --detail /dev/md0 | grep /dev/
/dev/md0:
       0       8       80        0      active sync   /dev/sdf
       1       8       96        1      active sync   /dev/sdg
       2       8      112        2      active sync   /dev/sdh
       3       8      128        3      active sync   /dev/sdi
       4       8      144        4      active sync   /dev/sdj
       5       8      160        5      active sync   /dev/sdk
       6       8      176        6      active sync   /dev/sdl
       7       8      192        7      active sync   /dev/sdm
root@CRAVUFS01:~# smartctl -c /dev/sdf | grep Error
Error logging capability:        (0x01) Error logging supported.
                                        SCT Error Recovery Control supported.
root@CRAVUFS01:~# smartctl -c /dev/sdg | grep Error
Error logging capability:        (0x01) Error logging supported.
                                        SCT Error Recovery Control supported.
root@CRAVUFS01:~# smartctl -c /dev/sdh | grep Error
Error logging capability:        (0x01) Error logging supported.
                                        SCT Error Recovery Control supported.
root@CRAVUFS01:~# smartctl -c /dev/sdi | grep Error
Error logging capability:        (0x01) Error logging supported.
                                        SCT Error Recovery Control supported.
root@CRAVUFS01:~# smartctl -c /dev/sdj | grep Error
Error logging capability:        (0x01) Error logging supported.
root@CRAVUFS01:~# smartctl -c /dev/sdk | grep Error
Error logging capability:        (0x01) Error logging supported.
root@CRAVUFS01:~# smartctl -c /dev/sdl | grep Error
Error logging capability:        (0x01) Error logging supported.
root@CRAVUFS01:~# smartctl -c /dev/sdm | grep Error
Error logging capability:        (0x01) Error logging supported.


En nu? :) 50/50 death chance?

Disk 1-4 zijn Seagates, 5-8 WD's

Even niets...


Verwijderd

Obscurax schreef op dinsdag 08 maart 2011 @ 21:27:
Hieronder er mooie ervaring met consumer Hitachi drives in RAID.
http://hardforum.com/showthread.php?t=1487525

Ik ben van plan +-hetzelfde te doen, met nieuwere Hitachi drives zoals 3 posts hierboven beschreven staat.
Maar niet met linux maar met Windows Server 2008 R2 waarbij een batch file runt om de lees en schrijf ERC naar 7 s te zetten.
code:
1
smartctl -l scterc,70,70 <device>


Indien iemand hier ervaring mee heeft hoor ik het graag.
zeker een leuk draadje 8)

kwam daar ook deze tegen :

After a year of using Solaris and ZFS for a home fileserver

[ Voor 12% gewijzigd door Verwijderd op 08-03-2011 22:27 ]


  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Ravefiend schreef op dinsdag 08 maart 2011 @ 15:53:
Op zoek naar iets specifieks misschien?
Ik wil mijn Synology vervangen door een ESXi bak met gevirtualiseerde Linux NAS dus als ik een servertje kan bouwen met nieuw materiaal dan is dat mooi meegenomen. Dan kan ik ook meteen de overige resources gebruiken voor prularia. Dan is mijn HP DL380G3 ook overbodig (luid en gulzig, dat ding).

Ik moet enkel nog uitzoeken hoe ik disk provisioning ga implementeren.

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12 11:37

DJ-Visto

Aye aye, sir!

http://www.engadget.com/2...al-density-enthusiasts-r/

Aanschouw 4TB drives zoals hier boven al gezegd.

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
FireDrunk schreef op dinsdag 08 maart 2011 @ 22:05:
En nu? :) 50/50 death chance?

Disk 1-4 zijn Seagates, 5-8 WD's
SMART-data zegt in dit opzicht helaas niet bijzonder veel volgens mij. WD claimt gewoon te voldoen aan de ATA-specs en rapporteert SCT te ondersteunen, maar dat is in het geval van ERC in ieder geval niet juist.

Overigens kun je het gewoon proberen uit te lezen, dan zie je vanzelf of het werkt of niet.
# smartctl -l scterc /dev/sda
smartctl 5.40 2010-03-16 r3077 [x86_64-unknown-linux-gnu] (local build)
Copyright (C) 2002-10 by Bruce Allen, http://smartmontools.sourceforge.net

Warning: device does not support SCT Error Recovery Control command

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • Q
  • Registratie: November 1999
  • Laatst online: 00:21
Leuk en goed artikel over ZFS. Ga ik zelf ook nog beter doorspitten.

Helaas stamt dit artikel nog van voor dat OpenSolaris door Oracle werd vermoord.

Verwijderd

bassio schreef op maandag 07 maart 2011 @ 22:15:
Ik ga ook een dyi nas / home server bouwen samen met 2 andere vrienden. Dit is onze config geworden die we alle drie gaan bestellen:

#ProductPrijsSubtotaal
1Supermicro X7SPA-HF-D525€ 190,76€ 190,76
4Samsung EcoGreen F4EG HD204UI, 2TB€ 66,95€ 267,80
1Chenbro ES34169€ 0,-€ 0,-
1Kingston ValueRAM KVR800D2S6K2/4G€ 49,54€ 49,54
Bekijk collectie
Importeer producten
Totaal€ 508,10

Het gaat gebruikt worden als home server / backup server. We gaan de schijven in Raid 10 zetten zodat we 4 TB effectief overhouden.

We gaan testen met verschillende software zoals Windows Server 2008, WHS (misschien wel VAIL) en in ieder geval Amahi. Persoonlijk ben ik wel gecharmeerd van Amahi, ziet er erg goed uit. Ben benieuwd of het stroomverbruik ook nog scheelt afhankelijk van de software die je gebruikt, maar kan het mij bijna niet voorstellen.

Wat ik er mee wil gaan doen:
- Downloaden via sabnzbd, couchotato en sickbeard
- Streamen van films en series naar XBMC
- Squeezeserver voor muziek, eventueel met spotify 3rd party plugin
- File server voor alles op te slaan wat maar belangrijk is
- Amahi heeft ook een VPN, dus dat kunnen we er ook voor gebruiken.

We wilde een snelle, maar wel zuinige server die klein was, maar toch groot genoeg voor 4 schijven. Het moederbord schijnt een goed moederbord te zijn met een onboard raid chipset die ervoor moet zorgen dat de data veilig is en ook nog een beetje performed. Al denk ik dat de Dual Core atom altijd de bottleneck zal zijn.

De kast hebben we voor 167 euro inclusief verzendkosten op ebay gekocht, aangezien hij in NL niet beschikbaar is.
hier ook zoiets + alternatief met ECC RAM

> http://www.servethehome.c...yers-guide-december-2010/

  • bassio
  • Registratie: Oktober 2000
  • Laatst online: 21:46
Grappig om te zien dat ze inderdaad vrijwel dezelfde config gebouwd hebben. Nooit gezien die site... Ik denk ook wel dat het allemaal erg populaire spullen zijn. Helaas is het supermicro bordje nergens snel leverbaar. Morgen maar even een rondje bellen.

  • Lumics
  • Registratie: Juni 2001
  • Laatst online: 21:40
Ik heb de volgende wensen maar weet niet precies hoe ik het aan moet pakken. Ik bezit een HTPC maar wil graag een combinatie van NAS/Downloadserver/HTPC.

Eisen:
* 24 u/per dag draaien
* Zuinig (Onderclocken/efficiente voeding/zuinigheids profielen in windows/ Losse videokaar verwijderen)
* Net als nu XBMC draaien
* Raid ivm backup data

Ik heb de volgende onderdelen van mijn huidge HTPC;
* Core i3 540
* 5570 lowprofile videokaart.
* 4 GB Geil DDR3
* Gigabyte GA-H55M-UD2H
* 2 TB HDD
* MS-TECH 1200 kastje met standaard cheap ass voeding.

De meeste onderdelen heb ik dan ook wel. Ik zal enkel nog een windowsschijf moeten toevoegen en een nieuwe kast (ivm ruimte voor HDD's) en een nieuwe voeding wel efficiënter is.

Is het slimmer om simpelweg een windows7 erop te knallen en daaroverheen XBMC en dit in het netwerk te hangen. Of kan ik het systeem beter inrichten met een server editie?

Zie ik iets over het hoofd? of is het echt zo simpel om de boel naar mijn beperkte wensen in te richten? Of kan ik beter de HTPC ontmantelen en verkopen en er een kant en klare NAS + mediaplayer neerzetten?

[ Voor 8% gewijzigd door Lumics op 09-03-2011 10:18 ]


  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Lumics schreef op woensdag 09 maart 2011 @ 10:11:
Eisen:
* 24 u/per dag draaien
* Zuinig (Onderclocken/efficiente voeding/zuinigheids profielen in windows/ Losse videokaar verwijderen)
* Raid ivm backup data
* standaard cheap ass voeding.
Die dingen moet je niet mixen ... kast kan je houden, maar vervang alsjeblieft die voeding voordat je begint :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


  • Lumics
  • Registratie: Juni 2001
  • Laatst online: 21:40
nero355 schreef op woensdag 09 maart 2011 @ 10:19:
[...]

Die dingen moet je niet mixen ... kast kan je houden, maar vervang alsjeblieft die voeding voordat je begint :)
Daar ben ik mij idd van bewust. Echter dit is een dusdanig kleine voeding (zeer apart formaat) dat ik bij het vervangen van de voeding direct ee nander kast moet aanschaffen. Er past namelijk geen andere voeding in de huidige kast.

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Lumics schreef op woensdag 09 maart 2011 @ 10:34:
Daar ben ik mij idd van bewust. Echter dit is een dusdanig kleine voeding (zeer apart formaat) dat ik bij het vervangen van de voeding direct ee nander kast moet aanschaffen. Er past namelijk geen andere voeding in de huidige kast.
Zoiets: http://www.be-quiet.net/b...oductID=47&websiteLang=en :?

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


  • Lumics
  • Registratie: Juni 2001
  • Laatst online: 21:40
Idd! Ik heb dus gewoon niet goed gezocht in de pricewatch! Maar de kast biedt enkel ruimte voor één HDD.
Ik zal dan altijd nog een andere kast willen IVM ruimte. Hartelijk dank voor het meedenken. ;)

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
root@CRAVUFS01:~# dd if=/dev/zero of=/mnt/data2/test2.bin bs=1M count=10240
10240+0 records in
10240+0 records out
10737418240 bytes (11 GB) copied, 20.4336 s, 525 MB/s


4! Samsung F4EG's in RAID0... Dat is >125MB/s sustained write speed... Toch wel hele leuke resultaten :D

root@CRAVUFS01:~# dd if=/mnt/data/test2.bin of=/mnt/data2/test3.bin
20971520+0 records in
20971520+0 records out
10737418240 bytes (11 GB) copied, 39.6301 s, 271 MB/s


Dit valt me dan weer een beetje tegen...

Mijn mount opties:
/dev/md0        /mnt/data       xfs     defaults,user,nodev,nosuid,swalloc,allocsize=1g,noatime,nodiratime,largeio,inode64 0 0
/dev/md1        /mnt/data2      xfs     defaults,user,nodev,nosuid,swalloc,allocsize=1g,noatime,nodiratime,largeio,inode64 0 0


Iemand tips?

[ Voor 47% gewijzigd door FireDrunk op 09-03-2011 13:26 ]

Even niets...


Verwijderd

HarmoniousVibe schreef op dinsdag 08 maart 2011 @ 19:03:
Weet je toevallig ook waarom het voor MDADM/ZFS softraid niet uitmaakt of je CCTL/TLER hebt of niet? Het lijkt me namelijk logisch dat ook een softwarematige implementatie het fijn vindt om er niet na een minuut of wat pas achter te komen dat er een sector dood is. Gaat anders de I/O en het OS niet zwaar 'stallen'?
Operating Systems zoals Linux en FreeBSD (en Windows) zijn niet zo strict voor hardeschijven. Als een hardeschijf niet reageert omdat hij met een bad sector bezig is, zal de (soft) timeout elke keer verhoogt worden. De schijf zou nog wel moeten reageren op ATA RESETs, en dus nooit zomaar 'gedisconnect' worden zodat de schijf verdwijnt. Dit is wat er gebeurt met Hardware RAID; de firmware kickt de schijf er gewoon uit.

Als je een schijf op een RAID controller aansluit en intern als software RAID gebruikt, dan blijft het een schijf op een RAID controller die bij een bad sector helemaal kan verdwijnen. Daarom dat je een non-RAID controller moet gebruiken onder FreeBSD en Linux, dan heb je ook geen TLER/CCTL/ERC nodig.

Ik kan niet met zekerheid zeggen over md-raid onder linux, maar ZFS repareert automatisch bad sectors tenzij het geen redundancy over heeft. Als ZFS dus via een omweg kan weten wat er op de bad sector moet staan, dan zal ZFS naar die plek schrijven en daarmee de bad sector genezen; de hardeschijf zal dan bepalen of de sector omgewisseld wordt of niet, wat weer afhangt of de bad sector komt door fysieke schade of onvoldoende ECC (uBER). Bij ZFS merk je er dus weinig van, bij Linux heb je mogelijk last van een stall van een minuut; in het ergste geval. Maar dan blijft het dus werken, terwijl je met Hardware RAID op dat moment een broken array hebt waar je niet zoveel meer mee kunt. Een minuutje wachten is een kleine prijs om te betalen als je daarmee aanschaf van TLER/CCTL disks kunt voorkomen.

Als je TLER/CCTL hebt en je wilt die disks gebruiken onder ZFS, dan doe je er beter aan TLER en CCTL uit te schakelen. Stel je hebt een degraded RAID-Z en dan een bad sector op een van de schijven, dan is er geen redundantie meer. Dus de inspanningen van de hardeschijf zijn je laatste kans om data terug te krijgen. Dan wil je niet dat je schijven er na 7 seconden mee kappen maar dat ze recoveren wat ze kunnen recoveren. TLER/CCTL/ERC kan dus een gevaarlijke feature zijn in dit soort situaties.

Verwijderd

niet te hard praten in de buurt van je NAS :)

> WTF

[ Voor 41% gewijzigd door Verwijderd op 09-03-2011 18:47 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Die kende ik al ja, geinig filmpje :)

CiPHER is Smart Error Control nou hetzelfde als TLER of niet?

Even niets...


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Volgens mij is de officiele naam ERC (Error Recovery Control) en deze is onderdeel van de ATA-8 specs (SCT commands). Volgens Wikipedia is Seagate de enige die deze naam ook gewoon gebruikt.

CCTL is een merknaampje wat op ERC is geplakt door Samsung en Hitachi. Gewoon ERC rebranded dus.

TLER is de merknaam van WD. Echter maakt WD geen gebruik van de standaard SCT-commando's en is het dus niet mogelijk om deze met een standaard SMART tool uit te lezen en in te stellen. Dit is voor zover ik weet nooit mogelijk geweest. Hiermee voldoet WD dus niet aan de ATA-8 standaard, ook al zeggen ze van wel. De enige mogelijkheid om dit te veranderen was door WDTLER.EXE te gebruiken, maar zelfs dat is sinds EARS niet meer mogelijk.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Hmm, ik heb WD1500EADS schijven van WD, en mijn Seagates bléren dat ze wel SCT Error Control hebben.

Ik zou dus (met wat moeite) alle schijven kunnen instellen op een goede waarde?

Even niets...


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Sorry ik zie het verband even niet tussen deel 1 en deel 2 van zin 1.

Enfin, Seagates kun je instelllen met smartctl en de WDxxEADS met WDTLER.EXE (via (Free)DOS). De TLER-instelling is overigens persistent en ERC via smartctl niet.

[ Voor 58% gewijzigd door HarmoniousVibe op 10-03-2011 17:00 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Nou je begrijpt het anders prima :+
Ik bedoelde dat ik dus (met wat omwegen) op al mijn disks TLER kan aanzetten.

Suggestieve vraag heet zoiets volgens mij :)

Even niets...


Verwijderd

zzattack schreef op zondag 06 februari 2011 @ 23:02:
Ik ben momenteel bezig met een hele mooie build. Het uiteindelijke plan is 40TB in een Norco RPC-4220 op een G34 platform.
Foto's gaan uiteraard volgen.
ik wacht wel 8)


ik heb een vraagje aan de deskundigen hier :

welke PCI-e SAS hostbusadapter kan ik het beste gaan gebruiken voor een ZFS raid 6 doos ?

- LSI SAS3081E-R PCI-E Express SAS/SATA Host Bus Adapter - 71,-

- Supermicro Add-on Card AOC-SASLP-MV8 - 128,-

- Intel RAID CONTROLLER PCIE X8 (SASUC8I) - 131,27

- HP-64/133 2-poorts int PCI-X SAS hostbusadapter 105,-

[ Voor 60% gewijzigd door Verwijderd op 12-03-2011 10:34 ]


  • jadjong
  • Registratie: Juli 2001
  • Niet online
Je weet dat de eerste drie PCI-e zijn en de laatste PCI-X?

Verwijderd

jadjong schreef op zaterdag 12 maart 2011 @ 02:52:
Je weet dat de eerste drie PCI-e zijn en de laatste PCI-X?
uhhhhhhhh .. nee :F

en ik kan natuurlijk beter PCI-e nemen.. valt er al 1 af.
klopt het nou dat je de goedkoopste kaart eerst moet flashen ?

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Verwijderd schreef op zaterdag 12 maart 2011 @ 10:32:
[...]


uhhhhhhhh .. nee :F

en ik kan natuurlijk beter PCI-e nemen.. valt er al 1 af.
klopt het nou dat je de goedkoopste kaart eerst moet flashen ?
Sowieso niet bij DX kopen. Die zijn counterfeit.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


Verwijderd

HarmoniousVibe schreef op zaterdag 12 maart 2011 @ 10:50:
[...]

Sowieso niet bij DX kopen. Die zijn counterfeit.
en toen waren er nog 2 :

- Supermicro Add-on Card AOC-SASLP-MV8 - 128,-

- Intel RAID CONTROLLER PCIE X8 (SASUC8I) - 131,27

intel of supermicro ..

  • ItsValium
  • Registratie: Juni 2009
  • Laatst online: 21-12 16:08
beide controllers zullen goed werken, wat inderdaad kan is dat je de firmware moet flashen opdat de RAID uit de firmware gewipt wordt en je een straight forward bus controller overhoud. Ik heb met beide kaarten al machines gebouwd en performance verschil is er niet.

Verwijderd

ItsValium schreef op zaterdag 12 maart 2011 @ 11:39:
[...]


beide controllers zullen goed werken, wat inderdaad kan is dat je de firmware moet flashen opdat de RAID uit de firmware gewipt wordt en je een straight forward bus controller overhoud. Ik heb met beide kaarten al machines gebouwd en performance verschil is er niet.
en veel prijsverschil ook niet .. tnx


en een ander belangrijk onderdeel.. de disks 8)

Samsung Spinpoint F4EG Review (HD204UI)

en die kost vandaag 66,-

[ Voor 30% gewijzigd door Verwijderd op 12-03-2011 11:50 ]


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 01:48

mphilipp

Romanes eunt domus

Ik heb net 2 extra 2Tb drives in de array geprikt; het totaal is nu 8 en ik heb MDADM de opdracht gegeven de boel te reshapen naar RAID6. Effectief dus 'slechts' 2Tb winst, maar de veiligheid is wat verhoogd.
Het bleek nodig om handmatig MDADM te upgraden, want ik zat nog op 2.6.7 en die ondersteund het --grow commando niet. Ik heb nu 3.1.4 erop gezet. En nu 1500minuten wachten... ;)

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


Verwijderd

Supermicro AOC-SASLP-MV8 moet je niet kopen, zijn veel problemen met de Marvell chip op deze controller. Veel beter neem je de Intel SASUC8i, kun je flashen naar IT en werkt gewoon op alle OS.

Verwijderd

Verwijderd schreef op zaterdag 12 maart 2011 @ 13:44:
Supermicro AOC-SASLP-MV8 moet je niet kopen, zijn veel problemen met de Marvell chip op deze controller. Veel beter neem je de Intel SASUC8i, kun je flashen naar IT en werkt gewoon op alle OS.
zo zie je maar.. intel gaat het worden dus 8)

kom net nog een leuk en betaalbaar server kastje tegen.

meer foto's hier

  • DARKLORD
  • Registratie: December 2000
  • Laatst online: 26-11 22:40
ik heb zelf een Supermicro AOC-USAS-L8i
in combinatie met freebsd. werkt prima. standaard al nonraid geflashed

2x sas to sata en je bent klaar :)

Verwijderd

DARKLORD schreef op zaterdag 12 maart 2011 @ 17:15:
ik heb zelf een Supermicro AOC-USAS-L8i
in combinatie met freebsd. werkt prima. standaard al nonraid geflashed

2x sas to sata en je bent klaar :)
Afbeeldingslocatie: http://img191.imageshack.us/img191/8702/aocusasl8i.jpg

ook een goede tip.. heb jij verder geen problemen , ik lees hier en daar wat probs onder ubuntu ?

review

ombouw tips

[ Voor 6% gewijzigd door Verwijderd op 12-03-2011 18:25 ]


  • fjskmdl2
  • Registratie: Februari 2011
  • Laatst online: 22-12 23:31
Ik heb net FreeNAS 0.7.2 Sabanda (revision 5543) geinstalleerd op een usb stick.
In de nas zit 1 WDC WD800JB-00CRA1 (western digital 80GB ATA100) schijf.
Nu heb ik de Advanced power managament op 1 gezet in de web interface en Hard disk standby op 10 minuten.
Van zodra ik de wijzigingen doorvoer, gaat de hd in standby.

Na wat zoeken via google zag ik dat het lag aan de manier waarop ataidle -S werkt (dit is een zin uit de bug fixes lijst van freenas 0.69:
If 'Hard disk standby time' is set for a drive, the execution of ataidle is delayed to prevent drives to spin up again during the boot process because ataidle immediately spins down the drives on execution. The delay value (default is 60 seconds) can be modified via 'ataidle_delay' rc.conf variable (BR 2471158).

Ik gebruik 0.7.2 maar heb blijkbaar toch nog last van deze bug.
Ik heb het volgende geprobeerd zonder resultaat:
Via de freenas gui heb ik in rc.conf de variabele ataidle_delay met als value 120 aangemaakt.
Het enige die hierbij veranderd is na een reboot, is dat de harddisk gewoon 2 minuten na het opstarten in spindown gaat (tov van het meteen in spindown gaan bij het handmatig uitvoeren van ataidle -S 10 /dev/ad0

Weet iemand hoe ik dit werkend krijg zoals het hoort? Ik vind het vreemd dat bij vele mensen die blijkbaar wel naar behoren werkt maar bij mij niet?

[ Voor 23% gewijzigd door fjskmdl2 op 12-03-2011 20:20 ]


  • Q
  • Registratie: November 1999
  • Laatst online: 00:21
mphilipp schreef op zaterdag 12 maart 2011 @ 13:33:
Ik heb net 2 extra 2Tb drives in de array geprikt; het totaal is nu 8 en ik heb MDADM de opdracht gegeven de boel te reshapen naar RAID6. Effectief dus 'slechts' 2Tb winst, maar de veiligheid is wat verhoogd.
Het bleek nodig om handmatig MDADM te upgraden, want ik zat nog op 2.6.7 en die ondersteund het --grow commando niet. Ik heb nu 3.1.4 erop gezet. En nu 1500minuten wachten... ;)
Dus wanneer is ie klaar?

Spam:

http://louwrentius.com/bl...-of-raid-rebuild-reshape/

  • me1299
  • Registratie: Maart 2000
  • Laatst online: 23:28

me1299

$ondertitel

Hoeveel watt trekken die Samsung F4EG bij spinup ongeveer? Als ik Spin-up Current (Max.) bekijk en dat vermenigvuldig met 12V komt ik op 24watt max.

Als ik 4 schijven gebruik wordt het wellicht nog lastig om dat spulletje te voeden met een PICO PSU. Ik neem aan dat een gewoon moederbord geen staggered spinup ondersteund :|

[ Voor 13% gewijzigd door me1299 op 12-03-2011 21:08 ]

Het maakt eigenlijk niet uit wat je bewuste geest doet, omdat je onderbewuste automatisch precies dat doet wat het moet doen


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
DeathKnight24 schreef op zaterdag 12 maart 2011 @ 21:08:
Hoeveel watt trekken die Samsung F4EG bij spinup ongeveer? Als ik Spin-up Current (Max.) bekijk en dat vermenigvuldig met 12V komt ik op 24watt max.

Als ik 4 schijven gebruik wordt het wellicht nog lastig om dat spulletje te voeden met een PICO PSU. Ik neem aan dat een gewoon moederbord geen staggered spinup ondersteund :|
Nope. 24W is echter wel een vrij ruime schatting. Volgens mij is het eerder rond de 15W.

http://www.storagereview....point_f4eg_review_hd204ui

[ Voor 26% gewijzigd door HarmoniousVibe op 12-03-2011 21:34 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • DARKLORD
  • Registratie: December 2000
  • Laatst online: 26-11 22:40
Verwijderd schreef op zaterdag 12 maart 2011 @ 18:24:
[...]


[afbeelding]

ook een goede tip.. heb jij verder geen problemen , ik lees hier en daar wat probs onder ubuntu ?

review

ombouw tips
hehe het blijkt mijn review te zijn. 8)
ik heb geen last van problemen met freebsd. werkt perfect :*)

[ Voor 3% gewijzigd door DARKLORD op 12-03-2011 21:52 ]


Verwijderd

DARKLORD schreef op zaterdag 12 maart 2011 @ 21:51:
[...]


hehe het blijkt mijn review te zijn. 8)
ik heb geen last van problemen met freebsd. werkt perfect :*)
wist ik :D

maar prijstechnisch vind ik het niet de moeite, op dit moment, om zo'n kaart 'om te bouwen'

  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 01:48

mphilipp

Romanes eunt domus

Q schreef op zaterdag 12 maart 2011 @ 20:56:
[...]
Dus wanneer is ie klaar?
Zondag tussen 19:00 en 20:00. De tijden fluctueren een beetje. Op zich grappig dat het nu weer zo lang duurt, want 1500 minuten en niet zoveel langer als 24 uur (1440min), en nu is het ineens tot zondagavond. Maar goed, maakt niet uit. Ik laat 'm lekker met rust, dat lijkt me het beste.

De El Cheapo CoolerMaster HD enclosure doet goed zijn werk. De schijven worden maximaal 35 graden. Meestal zijn ze zo 30-32 graden, maar nu is ie echt met rek en strek oefeningen bezig. Dat fannetje doet wat ie moet doen. Ik vind die CoolerMaster dingen een superinvestering: de HD's worden goed gekoeld en de bay is in rubber opgehangen dus het geluid valt mee. En voor die 2 tientjes zijn ze niet te verslaan. Het is geen hot-swap bay, maar dat vind ik ook overbodig in een huis-tuin-en keukenopstelling. Hoe vaak verwacht je een disk te moeten wisselen? Als het 1x per jaar moet, is de moeite van de bay even eruit halen niet zo erg.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 20-12 23:39
ItsValium schreef op zaterdag 12 maart 2011 @ 11:39:
beide controllers zullen goed werken, wat inderdaad kan is dat je de firmware moet flashen opdat de RAID uit de firmware gewipt wordt en je een straight forward bus controller overhoud. Ik heb met beide kaarten al machines gebouwd en performance verschil is er niet.
Dan lijkt de keuze mij erg eenvoudig: Intel. Daar hoe je geen ombouwtruuks voor uit te voeren, past zo in een reguliere kast. Dat is bij de Supermicro wel anders.

  • Duikhond
  • Registratie: December 2008
  • Laatst online: 05-12-2022
Zo, mijn systeempje draait al weer een tijdje maar heb nu even ECHT kunnen testen door mijn nieuwe laptop van mijn werk (Lattitude E6410 met SSD er in). Mijn nas draait op Ubuntu server 10.10, beheer via WebMin, mdadm raid 5 met XFS als filesystem.

Hier het lijstje en een paar foto's van het geheel:
#ProductPrijsSubtotaal
5Samsung EcoGreen F4EG HD204UI, 2TB€ 66,-€ 330,-
1Western Digital Scorpio Blue WD1200BEVT, 120GB SATA-300, 8MB, 5400rpm€ 38,40€ 38,40
1Silverstone Precision SST-PS01B-E€ 55,80€ 55,80
1Cooler Master Hyper TX3€ 13,95€ 13,95
1Scythe Kaze Server 3.5" Zwart€ 24,75€ 24,75
1AMD Athlon II X2 245€ 55,-€ 55,-
1Asus EN8400GS SILENT/P/512M€ 30,48€ 30,48
1be quiet! Pure Power L7 300W€ 33,90€ 33,90
1Kingston ValueRAM KVR1333D3N9K2/4G€ 35,99€ 35,99
1Gigabyte GA-870A-UD3€ 92,25€ 92,25
Bekijk collectie
Importeer producten
Totaal€ 710,52


Afbeeldingslocatie: https://lh6.googleusercontent.com/_YxYAPNM8bgg/TXzbVpWvUsI/AAAAAAAAAYQ/o1T70RyYtVU/s800/IMG_2843.JPG
Afbeeldingslocatie: https://lh4.googleusercontent.com/_YxYAPNM8bgg/TXzbV-b078I/AAAAAAAAAYU/BwEJu7Xgob8/s800/IMG_2844.JPG
Afbeeldingslocatie: https://lh6.googleusercontent.com/_YxYAPNM8bgg/TXzbWKH5XCI/AAAAAAAAAYY/cc-4gyFbf34/s640/IMG_2846.JPG
Afbeeldingslocatie: https://lh3.googleusercontent.com/_YxYAPNM8bgg/TXzbWkncA9I/AAAAAAAAAYc/Qq-e_Bv6Zxg/s800/IMG_2847.JPG
Afbeeldingslocatie: https://lh6.googleusercontent.com/_YxYAPNM8bgg/TXzbW3TiKnI/AAAAAAAAAYg/7PWY78V6l0Q/s800/IMG_2848.JPG
Op de foto's staat nog niet de videokaart, en ook niet de koeler en fancontroller. In de praktijk draait alleen de achterste fan op laagste stand. De rest is nog niet aan geweest (niet nodig).

Ben zeer tevreden met de snelheid op de 8TB raid 5 die ik nu heb.
Met DD haal ik ongeveer 295 - 310 MB met testbestanden van 1 - 10GB

Real life via Samba een MKV'tje van mijn NAS naar de Lattitude en terug trek ik mijn GB lijn dicht, ofwel een 105-108 MB constant.

Ben dik tevreden met deze setup.
Voor de vermogens-addicts; volle bak trekt dit geheel ongeveer 120W, en in idle met de 5 samsungs in spindown blijft er ongeveer 65W over. Zou nog lager kunnen maar ben nog te onbekend met K10CTL om de proc te undervolten (beetje huiverig).

Verwijderd

Duikhond schreef op zondag 13 maart 2011 @ 16:17:
Zo, mijn systeempje draait al weer een tijdje maar heb nu even ECHT kunnen testen door mijn nieuwe laptop van mijn werk (Lattitude E6410 met SSD er in). Mijn nas draait op Ubuntu server 10.10, beheer via WebMin, mdadm raid 5 met XFS als filesystem.

Hier het lijstje en een paar foto's van het geheel:
#ProductPrijsSubtotaal
5Samsung EcoGreen F4EG HD204UI, 2TB€ 66,-€ 330,-
1Western Digital Scorpio Blue WD1200BEVT, 120GB SATA-300, 8MB, 5400rpm€ 38,40€ 38,40
1Silverstone Precision SST-PS01B-E€ 55,80€ 55,80
1Cooler Master Hyper TX3€ 13,95€ 13,95
1Scythe Kaze Server 3.5" Zwart€ 24,75€ 24,75
1AMD Athlon II X2 245€ 55,-€ 55,-
1Asus EN8400GS SILENT/P/512M€ 30,48€ 30,48
1be quiet! Pure Power L7 300W€ 33,90€ 33,90
1Kingston ValueRAM KVR1333D3N9K2/4G€ 35,99€ 35,99
1Gigabyte GA-870A-UD3€ 92,25€ 92,25
Bekijk collectie
Importeer producten
Totaal€ 710,52


[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]

Ben zeer tevreden met de snelheid op de 8TB raid 5 die ik nu heb.
Met DD haal ik ongeveer 295 - 310 MB met testbestanden van 1 - 10GB

Real life via Samba een MKV'tje van mijn NAS naar de Lattitude en terug trek ik mijn GB lijn dicht, ofwel een 105-108 MB constant.

Ben dik tevreden met deze setup.
Voor de vermogens-addicts; volle bak trekt dit geheel ongeveer 120W, en in idle met de 5 samsungs in spindown blijft er ongeveer 65W over. Zou nog lager kunnen maar ben nog te onbekend met K10CTL om de proc te undervolten (beetje huiverig).
mooie set zo en voor een 8TB NAS een hele nette prijs :9

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Mooie verbruikwaarden ook. Is je CPU de e versie of de gewone? De grootste verbruiker was in mijn geval de CPU. Het is wel even zoeken naar de sweetspot tussen performance en verbruik. Je kan je cpu helemaal kreupel slaan zodat 'ie quasi niet verbruikt maar de performance is er wel naar.

  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 01:48

mphilipp

Romanes eunt domus

Q schreef op zaterdag 12 maart 2011 @ 20:56:
[...]
Dus wanneer is ie klaar?
En tot het einde volhouden dat het tegen 21:00 zou worden (het werd steeds later) en ik zie dat ie nu al klaar is. Achteraf kun je natuurlijk weer niet zien wanneer ie precies klaar was, maar laat het 17:00 zijn. Mooi, want dan kan ik weer wat meer doen. Ik heb vanmiddag wel al een film zitten kijken, dus veel invloed heeft dat niet.

Alles gelukt zonder problemen, dus ik ben weer blij!

@Q: mooi scrippie trouwens, maar waarom tag/tgz? Het is maar een paar regels; overtikken is vlugger dan uitpakken :+

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • iBurger
  • Registratie: Juli 2008
  • Laatst online: 04-08 23:05
mphilipp schreef op zondag 13 maart 2011 @ 18:05:
[...]

En tot het einde volhouden dat het tegen 21:00 zou worden (het werd steeds later) en ik zie dat ie nu al klaar is. Achteraf kun je natuurlijk weer niet zien wanneer ie precies klaar was, maar laat het 17:00 zijn. Mooi, want dan kan ik weer wat meer doen. Ik heb vanmiddag wel al een film zitten kijken, dus veel invloed heeft dat niet.

Alles gelukt zonder problemen, dus ik ben weer blij!

@Q: mooi scrippie trouwens, maar waarom tag/tgz? Het is maar een paar regels; overtikken is vlugger dan uitpakken :+
Script is inderdaad gaaf. Misschien zou Q iets kunnen scripten zodat we resultaten kunnen uploaden naar z'n site. Lijkt me echt relax. :)

  • Duikhond
  • Registratie: December 2008
  • Laatst online: 05-12-2022
Jormungandr schreef op zondag 13 maart 2011 @ 18:05:
Mooie verbruikwaarden ook. Is je CPU de e versie of de gewone? De grootste verbruiker was in mijn geval de CPU. Het is wel even zoeken naar de sweetspot tussen performance en verbruik. Je kan je cpu helemaal kreupel slaan zodat 'ie quasi niet verbruikt maar de performance is er wel naar.
de CPU is de gewone versie. Heb nog wel naar de e-versie gekeken, maar alleen TDP is lager. In idle (cpu komt zelden van zijn plaats) is er weinig verschil, en volgens diverse fora zou de normale CPU beter te undervolten zijn.
Heb even de getallen tijdens gebruik in de gaten gehouden, maar met de "cool&quit" van AMD staat hij eigenlijk altijd op 800MHz te draaien, ook tijdens voluit schrijven/lezen. Heb nog geen disk er tussenuit getrokken als test, kan me voorstellen dat de CPU dan een tandje moet bijschakelen.

Voor nu laat ik het lekker zo.......tot de kriebel tot tweaken weer toeslaat :P

  • Q
  • Registratie: November 1999
  • Laatst online: 00:21
Duikhond schreef op zondag 13 maart 2011 @ 16:17:
Zo, mijn systeempje draait al weer een tijdje maar heb nu even ECHT kunnen testen door mijn nieuwe laptop van mijn werk (Lattitude E6410 met SSD er in). Mijn nas draait op Ubuntu server 10.10, beheer via WebMin, mdadm raid 5 met XFS als filesystem.
....
Ben dik tevreden met deze setup.
Terecht, ziet er heel goed uit. Mooi systeempje!

  • Duikhond
  • Registratie: December 2008
  • Laatst online: 05-12-2022
Q schreef op zondag 13 maart 2011 @ 19:42:
[...]


Terecht, ziet er heel goed uit. Mooi systeempje!
Dank je, heb voorlopig even ruimte genoeg (15% in gebruik, rest volgt natuurlijk vanzelf)

Heb wel gemerkt dat echt ALLES moet meewerken om via Samba een goede throughput te krijgen.
Via een brakke router haal je de 100MB niet, 50 a 60 op zijn hoogst.
Een tikje oudere PC met GB Nic en sata-150 (of zelfs Pata) schijven, ook max 50-60MB. Het ligt hier echt aan de PC zelf waar de schijven niet optimaal zijn en ook de NIC de processor nodig heeft.

Heb nu de nas via een Netgear WNDR3700 en Netgear GS108 switch gekoppeld, en dat (in combinatie met een snelle SSD in mijn laptop) geeft de max throughput.
Overigens is dat alleen leuk voor de benchmark, ik heb feitelijk alleen de MB's nodig om een Full-HD filmpje te kunnen streamen ;)

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Duikhond schreef op zondag 13 maart 2011 @ 19:53:
[...]


Dank je, heb voorlopig even ruimte genoeg (15% in gebruik, rest volgt natuurlijk vanzelf)

Heb wel gemerkt dat echt ALLES moet meewerken om via Samba een goede throughput te krijgen.
Via een brakke router haal je de 100MB niet, 50 a 60 op zijn hoogst.
Een tikje oudere PC met GB Nic en sata-150 (of zelfs Pata) schijven, ook max 50-60MB. Het ligt hier echt aan de PC zelf waar de schijven niet optimaal zijn en ook de NIC de processor nodig heeft.

Heb nu de nas via een Netgear WNDR3700 en Netgear GS108 switch gekoppeld, en dat (in combinatie met een snelle SSD in mijn laptop) geeft de max throughput.
Overigens is dat alleen leuk voor de benchmark, ik heb feitelijk alleen de MB's nodig om een Full-HD filmpje te kunnen streamen ;)
Wat ik nog wel eens doe is ISO's mounten over het netwerk, dan ben je toch blij met de dubbele doorvoersnelheid :D

Even niets...


  • mbr01
  • Registratie: Augustus 2004
  • Laatst online: 13-12 19:14
Wat is het nu eigenlijk van zulke hoge snelheden; 500MB/s bijvoorbeeld, als je je NAS met slechts een gigatbit verbinding verbindt?
Meerdere users zal wel meevallen.. neem aan de meesten hier home servers maken.
Of zijn er nog ander manieren om te verbinden (2xgbit ofzo?) Of heeft het voordeel bij kleine bestanden? of is het toekomst gericht?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
60MBit downloaden + parren + HD streamen + een ISO mounten over je netwerk, kan toch best je disks trashen... Persoonlijk hou ik gewoon niet van wachten, maar als mijn disks maar 200MB/s zouden halen zou ik daar ook gewoon tevreden mee zijn hoor... 500MB/s is leuk, maar eerder mooi mee genomen dan noodzakelijk. :)

2Gbit aansluiten heb ik al wel liggen ( netwerkkaarten zijn in huis) maar ik moet de kabels nog trekken, en een managed switch versieren :)

[ Voor 18% gewijzigd door FireDrunk op 13-03-2011 21:24 ]

Even niets...


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
mbr01 schreef op zondag 13 maart 2011 @ 21:07:
Wat is het nu eigenlijk van zulke hoge snelheden; 500MB/s bijvoorbeeld, als je je NAS met slechts een gigatbit verbinding verbindt?
Over het netwerk beperkt, maar taken op de NAS zelf kunnen er in theorie natuurlijk wel van profiteren.
Of zijn er nog ander manieren om te verbinden (2xgbit ofzo?) Of heeft het voordeel bij kleine bestanden? of is het toekomst gericht?
Je kunt netwerkpoorten laten samen werken (trunking / aggregation / bonding / ...) Op die manier kun je inderdaad naar twee keer gigabit gaan.
Het nut is dat er meer data over het netwerk kan omdat het netwerk de bottleneck of mogelijk zelfs dat je netwerk helemaal niet meer de bottleneck is (zoals met de 500MB/sec arrays). Het voordeel zit juist niet bij kleine bestanden. De 'patswaarden' zijn vooral sequentiele (lees)snelheden van grote bestanden. Bij kleine bestanden zakt de (gemiddelde) leessnelheid (bij harde schijven) omdat je dan de grote zwakke plek van een harde schijf pakt (zeker grote schijven), het verplaatsen van de kop.

Voor grote bestanden daarentegen is er wel degelijk een meerwaarde. Ik ben (heel langzaam aan) bezig om een server en nas situatie opstelling op poten te zetten. De nas staat het grootste deel van de tijd uit, maar gaat 's nachts aan om de data van de server veilig te stellen. Omdat de nas veel energie verbruikt (de grootste en zuinigste schijven komen altijd in de server en desktop) en het nodige geluid weet te produceren wil ik dat dit zo snel mogelijk gaat. Om die reden heb ik een dual gigabit verbinding lopen. (Daarnaast is het natuurlijk ook erg leuk om te hebben :+ )

De CSL/OT kroeg !


  • sloth
  • Registratie: Januari 2010
  • Niet online
Wel niet vergeten dat je, iirc (dacht dat Q hier wat testjes rond had gedaan) door 2 gigabit poorten te teamen / bonden / bridgen / aggregaten je over een enkele connectie snelheden niet veel hoger dan een enkele gigabitverbinding zal halen.

Verwijderd

Niet bij round-robin zoals FreeBSD/Linux kunnen doen, maar volgens mij wel bij LACP en FEC (etherchannel). Round-robin is een TCP/IP violating techniek als ik het goed herinner dus vind je niet zomaar terug.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
sloth schreef op zondag 13 maart 2011 @ 21:56:
Wel niet vergeten dat je, iirc (dacht dat Q hier wat testjes rond had gedaan) door 2 gigabit poorten te teamen / bonden / bridgen / aggregaten je over een enkele connectie snelheden niet veel hoger dan een enkele gigabitverbinding zal halen.
Ik ben er niet helemaal zeker van dat ik je goed begrijp. Ik krijg de indruk dat je zegt dat trunking op de nas, voor een individuele met een single gigabit aansluiting niet echt uitmaakt.
Een dergelijke constatering vind ik niet opvallend. Het hangt er simpelweg vanaf welke netwerkkaart de beste is. Als de client de betere kaart heeft die hogere snelheden aankan (hoger percentage van het theoretische maximum) dan kan ik mij voorstellen dat trunking een impact heeft voor die individuele client. De mate is afhankelijk van het kwaliteitsverschil tussen de nics.
Maar eigenlijk moet je het echte verschil* zien in trunked naar trunked of multiple singles naar trunked. Het eerste is de snelle backbone zoals ik nastreef, het tweede voor mensen die meerdere computers tegelijk met de computer laten praten.

*In mijn beleving is het verschil tussen een Realtek en een Intel niet dermate wereldschokkend dat je daarvoor per se een tweede Realtek moet aanschaffen omdat de nas een Intel nic zou bezitten. Zeker als er dan één of andere pci variant ingezet wordt.

De CSL/OT kroeg !


Verwijderd

ik vraag mij het volgende af :

past er in een norco rpc-2208 2u 19 kast een normale atx voeding ?

Afbeeldingslocatie: http://www.ayagroup.com/images/D/norco_RPC-2208_1.jpg


(googlen geeft tegenstrijdige berichten)

  • jadjong
  • Registratie: Juli 2001
  • Niet online
Standaard ATX voeding is 6 inch breed, het gat in deze kast is 3.94 inch breed.

Verwijderd

jadjong schreef op maandag 14 maart 2011 @ 12:20:
Standaard ATX voeding is 6 inch breed, het gat in deze kast is 3.94 inch breed.
ik was er toch al 'bang' voor 8)
duur, moeilijk verkrijgbaar ect. ..

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Dadona schreef op maandag 14 maart 2011 @ 00:06:
[...]
Ik ben er niet helemaal zeker van dat ik je goed begrijp. Ik krijg de indruk dat je zegt dat trunking op de nas, voor een individuele met een single gigabit aansluiting niet echt uitmaakt.
Een dergelijke constatering vind ik niet opvallend. Het hangt er simpelweg vanaf welke netwerkkaart de beste is. Als de client de betere kaart heeft die hogere snelheden aankan (hoger percentage van het theoretische maximum) dan kan ik mij voorstellen dat trunking een impact heeft voor die individuele client. De mate is afhankelijk van het kwaliteitsverschil tussen de nics.
Maar eigenlijk moet je het echte verschil* zien in trunked naar trunked of multiple singles naar trunked. Het eerste is de snelle backbone zoals ik nastreef, het tweede voor mensen die meerdere computers tegelijk met de computer laten praten.

*In mijn beleving is het verschil tussen een Realtek en een Intel niet dermate wereldschokkend dat je daarvoor per se een tweede Realtek moet aanschaffen omdat de nas een Intel nic zou bezitten. Zeker als er dan één of andere pci variant ingezet wordt.
Dat bedoeld hij ook niet. Hij bedoeld dat een 'software' gigabit connection (denk aan SMB over 1 poort, van 1 ip naar je NAS) nooit sneller gaat dan 1Gbit. Dit komt omdat bij LACP er per combinatie van MAC en Poort nummer een vaste verbinding gekozen word. Dit omdat niet alle software het leuk vind om van 2 verschillende MAC addressen pakketen te ontvangen die beweren van dezelfde server af te komen.

Linux lost dit gewoon op door dat te accepteren en dus met Round Robin elke netwerkkaart om en om het pakket te laten versturen met het MAC adres van de andere netwerkkaart. Windows vind dit niet zo grappig...

Bij puur teaming werkt dit weer wel (dus 1 op 1 tussen netwerkkaarten) want daar is er geen switch die een kanaal moet kiezen.

Even niets...


  • Arnoud1
  • Registratie: September 2010
  • Laatst online: 12-08-2024
Momenteel in het bezit van een krachtige server:
- mobo: ATO2161 aka HDAMA
- 2x Opteron 246 2Ghz
- 4x 512Mb ECC DDR400 Infineon
- Adaptec 2120S SCSI
- CSE- M35SB (5x SCSI hotswap bay)
- enkele SCSI schijven (2x 37Gb 10000rpm, 3x 75Gb 15000rpm)
- 3Ware 9550SXU-12ML PCI-X (+ 3x Multilane -> sata kabels)
- 4 Seagate 1TB ST31000340AS
- 3 Seagate 1TB ST31000333AS
- 2x CSE-M35T1B (5 bay Hotswap voor sata)
Hier staat ubuntu server op.
Dit alles werkt perfect en supersnel, alleen verbruikt het zéér veel stroom.
Met beide cpu's en zonder de 15000rpm SCSI drives heb ik continu ~250Watt (~2200kW per jaar)
Met één cpu en zonder de 15000rpm scsi drives heb ik ~200watt (~1750kW per jaar)

Nu heb ik dus een Asus E35M1-M Pro bordje en 2Gb Kingston 1333 (@1066 7-7-7-20) gekocht.
Bij meting verbruikt dit moederbord (zonder extra's aangesloten) slechts 7 à 13Watt!
Mijn oude 3Ware9500 werkte perfect in een PCI slot, echter die 9550SXU past niet (had ik over het hoofd gezien).
Ik had gehoopt om enkel het moederbord te vervangen en zo kosten te besparen...
Nu moet ik dus op zoek naar een manier om al die schijven aan te sluiten op dit bordje.
Ik moet zeker 8 schijven kunnen aansluiten, maar beter zou zijn 10 of 15 zodat ik mijn drive-bays in de toekomst verder kan vullen.
Momenteel gebruik ik hardware Raid 5. Dit zal bij deze ook veranderen naar software en ZFS.
Welke kaart zou ik best kopen? Ik wil het goedkoop houden.

Ik denk er ook aan om alles te verkopen en gewoon 5x 2TB schijven te nemen.
Dit kost echter veel, en dan kan ik beter nog enkele jaren mijn elektriciteitsrekening betalen.

Verwijderd

vorige pagina staan er wat .. intel kwam het beste uit de consumententest :)

Verwijderd

Intel SASUC8i is de beste keus voor een ZFS server; deze controller maakt geen gebruik van expander of port multiplier achtige technieken en kun je gebruiken in non-RAID modus met "IT" firmware; die moet je nog wel zelf flashen maar dat werkt best makkelijk met een DOS USB stick.

Asus Zacate bordje is leuk, maar voor ZFS had je beter wat meer geheugen kunnen kopen. Of één stick van 4GB of twee van 4GB voor totaal 8GB.

PCI-X in PCI moet je natuurlijk nooit doen; in 2011 moet je sowieso geen PCI-X of PCI meer kopen dat is gewoon zonde van je geld. Voor Linux of ZFS setup moet je ook absoluut een non-RAID controller gebruiken. RAID controller kan wel werken, maar kan je schijven keihard disconnecten waar je OS en software RAID geen controle over hebben; niet doen dus!

Die SCSI schijven kun je maar beter gewoon weggooien; kost je 50W om die oude schijven te laten draaien en waarvoor? Totaal 300GB aan trage opslag; terwijl je nu 2TB voor 66 euro hebt en stukken sneller is. Dus uit oogpunt van energieverbruik zou ik die gewoon direct vervangen en gewoon 5 nieuwe Samsung F4 schijven nemen in een RAID-Z of (nog beter) 6 schijven in een RAID-Z2. Vooral dat laatste is gaaf, en zou kunnen met Brazos zelfs zonder controller als je alle 6 onboard SATA gebruikt. Je kan dan alleen nog een USB stick ofzoiets gebruiken om van te booten, maar dat werkt met FreeBSD/FreeNAS/ZFSguru prima als dat een platform is wat je wilt gebruiken. In dat geval zou je zelfs geen losse controller nodig hebben.

  • Tenshu
  • Registratie: Augustus 2006
  • Niet online
Voor mijn server/nas zoek ik een moederbord waarop ik ZFS/FreeNAS wil gaan draaien. Nu zag ik de Asrock E350M1 moederbord. Is dit bordje aan te raden als ik ZFS ga gebruiken?
Pagina: 1 ... 45 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.