Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
Dat is afhankelijk van wat je gebruikt om de data erop te zetten en hoe dat geconfigureerd is :)
Ik gok dat je Windows bestandsdeling gebruikt? Er zijn heel wat tweaks die je in Samba kunt doen, maar ik heb geen ervaring met FreeNAS dus ik kan je niet vertellen hoe je die precies moet doorvoeren :-(

Hopelijk zijn er genoeg anderen die je daarmee wél kunnen helpen.

Acties:
  • 0 Henk 'm!

  • Joenuh
  • Registratie: Juli 2012
  • Laatst online: 27-12-2023
Ik gebruik inderdaad een Windows bestandsdeling en ik gebruik nu gewoon de verkenner om het er heen te kopieren. Ik heb geen idee of dit handiger kan?

En.ook al is het maar een piek, in het begin zie ik 99 MB/s, dan zakt hij af. Die piek geeft mij in ieder geval een beetje moed dat het mogelijk is.

Hopelijk zijn hier inderdaad mensen met de ervaring en de zin om mij te helpen. Ik wil jou in ieder geval alvast bedanken voor je hulp!

Acties:
  • 0 Henk 'm!

  • Extera
  • Registratie: Augustus 2004
  • Laatst online: 05-05 16:02
Phuncz schreef op donderdag 11 juli 2013 @ 17:12:
[...]

Nu je het daarover hebt, je had toch een Silverstone 4-in-1 splitter he ?

The SilverStone CP06 is a set of continuous SATA cable connectors designed to facilitate cabling and reduce clutter inside a PC with multiple SATA devices. It hooks up to four SATA devices via four right angled connectors. Two high quality 2200μF capacitors are included on the cable to provide stable voltage to all connected devices. So if you have a lot of SATA drives in your system, the CP06 is a must buy for improving aesthetics and drive reliability.

Misschien dat je toch met een onstabiele 12V zit ?
Hmmm, dat wist ik niet.
Misschien is er dan inderdaad toch iets aan de hand met de voeding.
Ik hoop vanavond tijd te hebben om hem te wisselen met een andere, dan daar even een tijdje mee draaien om te kijken of problemen dan uit blijven.

Mijn Serverrack - iRacing Profiel


Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 26-09 15:54
Even snel een vraagje, het is hier toch al even stil geweest:
Ik zoek nieuwe schijven voor mijn fileserver.
Dit zal een VMware, met een ZFS oplossing worden, IBM controller via VT-d doorgegeven. Bedoeling is om 6 schijven in RAID Z2 te plaatsen.
WELKE schijven zijn dan aan te raden. Snelheid zal niet direct de beperkende factor worden (het is puur storage, geen high volume database) Betrouwbaarheid, en verbruik/warmte ontwikkeling zijn grotere factoren.

pricewatch: Seagate Barracuda HDD.15, 4TB
OF
pricewatch: Hitachi Deskstar 7K4000, 4TB

De deskstar kost mij een 20 euro meer per stuk.
Zal ook meer verbruiken, en warmer zijn, maar heb ik algemeen al meer positieve zaken over gehoord.
Hoewel de laatste seagates precies toch niet zo slecht zijn.

Of is er iets totaal anders dat ik zou moeten overwegen?

Acties:
  • 0 Henk 'm!

Verwijderd

Deze schijven zouden erg goed moeten zijn:
pricewatch: Seagate ST4000VN000, 4TB

5400rpm (wat een voordeel is), lage idle power en hoge datadichtheid. De oudere 4TB schijven kun je beter niet nemen, dit zijn meestal 5x 800GB modellen en dat is gedateerd en qua warmte, snelheid en betrouwbaarheid inferieur aan modellen met 4x1000GB platters.

Acties:
  • 0 Henk 'm!

  • Joenuh
  • Registratie: Juli 2012
  • Laatst online: 27-12-2023
Ik heb bijna dezelfde vraag, en nog een paar kleine vragen(omdat ik zo'n noob ben :))

Ik ben op zoek naar harde schijven voor mijn FreeNAS systeem. Momenteel heb ik één 3TB WD RED.
Maar nu begin ik toch aan ZFS te denken en 4 schijven in RAIDZ te draaien. Welke schijven zou ik hier het beste voor kunnen aanschaffen. Plus een (enorme) noob vraag. Ik lees overal dat RAIDZ(1/2/3) de prestaties behoorlijk omlaag trekken. Mijn NAS wordt voornamelijk gebruikt als opslagmedium voor mijn mediaspeler(waarschijnlijk m'n zwaarste taak). Is RAIDZ nog steeds (makkelijk) snel genoeg om volledige Blu-rays te streamen?

Nog 1 vraagje. Ik draai nu dus één schijf in UFS, kan ik dit systeem straks gewoon omzetten naar ZFS wanneer ik de nieuwe schijven binnen heb? Of moet ik alles er opnieuw op zetten?

Bij voorbaat dank!

Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Joenuh schreef op donderdag 25 juli 2013 @ 22:33:
Ik heb bijna dezelfde vraag, en nog een paar kleine vragen(omdat ik zo'n noob ben :))

Ik ben op zoek naar harde schijven voor mijn FreeNAS systeem. Momenteel heb ik één 3TB WD RED.
Maar nu begin ik toch aan ZFS te denken en 4 schijven in RAIDZ te draaien. Welke schijven zou ik hier het beste voor kunnen aanschaffen. Plus een (enorme) noob vraag. Ik lees overal dat RAIDZ(1/2/3) de prestaties behoorlijk omlaag trekken. Valt reuze mee hoor.
Mijn NAS wordt voornamelijk gebruikt als opslagmedium voor mijn mediaspeler(waarschijnlijk m'n zwaarste taak). Is RAIDZ nog steeds (makkelijk) snel genoeg om volledige Blu-rays te streamen? Ja

Nog 1 vraagje. Ik draai nu dus één schijf in UFS, kan ik dit systeem straks gewoon omzetten naar ZFS wanneer ik de nieuwe schijven binnen heb? Nee
Of moet ik alles er opnieuw op zetten? Ja

Bij voorbaat dank!

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-10 13:07
IceTeaGX schreef op donderdag 25 juli 2013 @ 16:24:
Even snel een vraagje, het is hier toch al even stil geweest:
Ik zoek nieuwe schijven voor mijn fileserver.
Dit zal een VMware, met een ZFS oplossing worden, IBM controller via VT-d doorgegeven. Bedoeling is om 6 schijven in RAID Z2 te plaatsen.
WELKE schijven zijn dan aan te raden. Snelheid zal niet direct de beperkende factor worden (het is puur storage, geen high volume database) Betrouwbaarheid, en verbruik/warmte ontwikkeling zijn grotere factoren.

pricewatch: Seagate Barracuda HDD.15, 4TB
OF
pricewatch: Hitachi Deskstar 7K4000, 4TB

De deskstar kost mij een 20 euro meer per stuk.
Zal ook meer verbruiken, en warmer zijn, maar heb ik algemeen al meer positieve zaken over gehoord.
Hoewel de laatste seagates precies toch niet zo slecht zijn.

Of is er iets totaal anders dat ik zou moeten overwegen?
Die Hitachi's zijn wel echt heethoofden inderdaad. HyperBart heeft het 3TB broertje van die schijf en zijn schijven worden (in mijn ogen) aardig warm (40-42c)

Even niets...


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 06-10 19:19
Bij mij worden de hdds van Hitachi ook rond de 40 graden.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 26-09 15:54
Ok, dan maar eens horen voor die andere seagates.
Die zijn blijkbaar ook leverbaar, maar zullen wel wat duurder zijn.
Ach ja, je moet iets over hebben voor de hobby he.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-10 13:07
Waarom zijn die duurder? In de PW schelen ze amper?

Even niets...


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
is wel €20 t.o.v. de Seagates die hij zelf noemt. Persoonlijk zou ik dat verschil niet betalen. Ook de Seagates die IceTeaGX noemt draaien maar 5900rpm en hebben verder dezelfde voordelen

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-10 13:07
Het feit dat ze 5900rpm draaien, maakt weinig uit hoor, het zijn sowieso snelle schijven.

Even niets...


Acties:
  • 0 Henk 'm!

  • goudviske.be
  • Registratie: April 2010
  • Laatst online: 31-08 09:26
Verwijderd schreef op donderdag 25 juli 2013 @ 18:02:
Deze schijven zouden erg goed moeten zijn:
pricewatch: Seagate ST4000VN000, 4TB

5400rpm (wat een voordeel is), lage idle power en hoge datadichtheid. De oudere 4TB schijven kun je beter niet nemen, dit zijn meestal 5x 800GB modellen en dat is gedateerd en qua warmte, snelheid en betrouwbaarheid inferieur aan modellen met 4x1000GB platters.
Persoonlijk zou ik eerder voor de desktop variant gaan (als het voor ZFS/software raid is)
deze dus: Seagate Barracuda HDD.15, 4TB pricewatch: Seagate Barracuda HDD.15, 4TB

Toch +/- 30 euro goedkoper per hd, ook 4x 1TB platter, 5900 rpm ipv 5400, maakt weinig verschil, het is geen 7200. Zelfde bit error rate, het enige wat je volgens mij mist is de TLER, maar aangezien je software raid/zfs gebruikt heeft dat geen toegevoegde waarde.

Ben zelf ook van plan een aantal van deze schijven aan te kopen binnenkort.

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
FireDrunk schreef op vrijdag 26 juli 2013 @ 08:49:
Het feit dat ze 5900rpm draaien, maakt weinig uit hoor, het zijn sowieso snelle schijven.
Ik bedoelde het dan ook als voordeel ;)

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-10 13:07
De VN000 is een fractie zuiniger (3.95W tegenover 5W)

Even niets...


Acties:
  • 0 Henk 'm!

  • Joenuh
  • Registratie: Juli 2012
  • Laatst online: 27-12-2023
Kijk daar heb ik wat aan, bedankt! Heb jij/jullie toevallig ook een antwoord op de vraag welke harde schijven ik het beste aan zou kunnen schaffen? Is er naast het logische opslag verschil nog iets anders waarom ik voor een 3TB of juist een 4TB zou moeten gaan?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-10 13:07
4TB is zuiniger omdat je voor vaak hetzelfde verbruik meer ruimte terugkrijgt. Dat maakt de meerprijs in verhouding lager.

4TB's zijn in mijn ogen als je veel storage wil de enige keuze, tenzij je echt veel IOPS/Sequentiele snelheden nodig hebt, en je dus echt veel spindels nodig hebt, maar verder, gewoon 4TB schijven nemen ;)

Even niets...


Acties:
  • 0 Henk 'm!

  • Joenuh
  • Registratie: Juli 2012
  • Laatst online: 27-12-2023
Oké top! En zou deze schijf Seagate Barracuda HDD.15, 4TB, geschikt zijn of zijn er nog andere/betere om naar te kijken?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-10 13:07
Dat is een prima schijf (hebbum zelluf ook :+ ), maar hij heeft zich nog niet zo lang bewezen. De hitachi's hebben een iets betere naam, maar persoonlijk vind ik die dingen veel te warm worden...

Even niets...


Acties:
  • 0 Henk 'm!

  • Joenuh
  • Registratie: Juli 2012
  • Laatst online: 27-12-2023
Sorry voor mijn gebrek aan kennis, dit is pas het eerste systeem dat ik gebouwd heb. Wat is er zo slecht de 40 graden die ze worden? Verkort dit de levensduur? Of is dit slecht voor omliggende componenten?

Als ik testresultaten bekijk staat namelijk de 7K4000 meestal in de top 5 van de deelnemers, plus als deze al naam heeft..

Wat denken jullie anders van de WD Green schijven?

Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Er is een google studie over temperatuur en levensduur, normaal staat die in de startpost dacht ik. hier.

[ Voor 40% gewijzigd door analog_ op 29-07-2013 17:27 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-10 13:07
Op zich is een hoge temperatuur niet erg, zolang hij maar stabiel is. Als schijven hun hele leven 40c blijven, zal het waarschijnlijk wel ok zijn. Maar de meeste hier zetten ofwel hun pc regelmatig uit, of hebben (als het om een 24/7 server gaat) hun schijven in een spindown timeout schema zitten.

Als je schijven steeds opwarmen van ~26c (omgevingstemperatuur in je kast waarschijnlijk) tot 40c, is dat slecht voor de schijven.

Mijn schijven zijn ongeveer 30-32c, opwarmen vanaf stilstand is dus niet zo veel. Dus minder erg voor de levensduur.

Even niets...


Acties:
  • 0 Henk 'm!

  • Goshimaplonker298
  • Registratie: Juni 2002
  • Laatst online: 15-10 14:28

Goshimaplonker298

BOFH Wannabee

De WD green schijven zijn wat mij betreft erg goed voor mijn doel. Heb 48 WD 3TB EZRX green disks draaien. Uitval valt reuze mee en de Advanced RMA van WD is erg fijn. Nadeel is dat de garantie tegenwoordig nog maar 2 jaar is op de nieuwe schijven. Al is het met 48 disks niet een vraag of je een keer uitval hebt maar wanneer...

In mijn storage systeem worden de disks in spindown gezet om te zorgen dat het energie verbruik wat minder wordt. Op 48 disks scheelt spindown of geen spindown het gemiddeld 300W aan energie verbruik. Dit heeft wel invloed op de disk temperatuur. In de zomer is de temp als de disks spindown zijn iets van 32/33 graden. Als ze allemaal gaan draaien voor de wekelijkse SMART long test, gaat dat richting de 40 graden. Het systeem heeft ook een lange tijd zonder spindown gedraaid maar ik zie geen verschil in uitval percentages.
Joenuh schreef op vrijdag 26 juli 2013 @ 13:53:
Oké top! En zou deze schijf Seagate Barracuda HDD.15, 4TB, geschikt zijn of zijn er nog andere/betere om naar te kijken?
Als je genoeg ruimte hebt om de disks kwijt te kunnen zou ik bij 3TB disks blijven. Dat is op dit moment voor mij de sweet spot wat prijs / size betreft. Je hebt ongeveer 3x een 3TB disk voor de prijs van 2x een 4TB disk. Bij gebrek aan ruimte zijn de 4TB disks natuurlijk ideaal.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:25
Goshimaplonker298 schreef op dinsdag 30 juli 2013 @ 09:53:
De WD green schijven zijn wat mij betreft erg goed voor mijn doel. Heb 48 WD 3TB EZRX green disks draaien.
Is dit wat voor je? Storage showoff topic - 10+ TB storage systems

Lijkt me interessant hoe jij je NAS hebt opgezet.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-10 13:07
Goshimaplonker298 schreef op dinsdag 30 juli 2013 @ 09:53:
De WD green schijven zijn wat mij betreft erg goed voor mijn doel. Heb 48 WD 3TB EZRX green disks draaien. Uitval valt reuze mee en de Advanced RMA van WD is erg fijn. Nadeel is dat de garantie tegenwoordig nog maar 2 jaar is op de nieuwe schijven. Al is het met 48 disks niet een vraag of je een keer uitval hebt maar wanneer...

In mijn storage systeem worden de disks in spindown gezet om te zorgen dat het energie verbruik wat minder wordt. Op 48 disks scheelt spindown of geen spindown het gemiddeld 300W aan energie verbruik. Dit heeft wel invloed op de disk temperatuur. In de zomer is de temp als de disks spindown zijn iets van 32/33 graden. Als ze allemaal gaan draaien voor de wekelijkse SMART long test, gaat dat richting de 40 graden. Het systeem heeft ook een lange tijd zonder spindown gedraaid maar ik zie geen verschil in uitval percentages.


[...]


Als je genoeg ruimte hebt om de disks kwijt te kunnen zou ik bij 3TB disks blijven. Dat is op dit moment voor mij de sweet spot wat prijs / size betreft. Je hebt ongeveer 3x een 3TB disk voor de prijs van 2x een 4TB disk. Bij gebrek aan ruimte zijn de 4TB disks natuurlijk ideaal.
Als je verbruik meerekend in de prijs, is 4TB een betere prijs/GB dan 3TB. De kosten om 4TB draaiende te houden zijn namelijk in verhouding lager dan 3TB.

Even niets...


Acties:
  • 0 Henk 'm!

  • Goshimaplonker298
  • Registratie: Juni 2002
  • Laatst online: 15-10 14:28

Goshimaplonker298

BOFH Wannabee

Q schreef op dinsdag 30 juli 2013 @ 10:53:
[...]


Is dit wat voor je? Storage showoff topic - 10+ TB storage systems

Lijkt me interessant hoe jij je NAS hebt opgezet.
Wil daar best mijn systeem eens posten. Gebruik alleen geen raid voor de meeste data.
Edit: Heb mijn systeem daar gepost.
FireDrunk schreef op dinsdag 30 juli 2013 @ 11:43:
[...]


Als je verbruik meerekend in de prijs, is 4TB een betere prijs/GB dan 3TB. De kosten om 4TB draaiende te houden zijn namelijk in verhouding lager dan 3TB.
Als je de disks altijd draaiend houd dan ben ik het helemaal met je eens. Als de disks in spindown gaan. dan wordt het verschil wel heel klein. Zowel de WD Greens als die Seagates zitten rond de 0.75 / 0.8W idle.
Maar 3TB zal altijd meer gebruiken omdat je meer disks nodig hebt. Al kan je voor het prijsverschil je aardig wat extra disks laten spinnen.

Acties:
  • 0 Henk 'm!

  • Joenuh
  • Registratie: Juli 2012
  • Laatst online: 27-12-2023
Lastig, nu lees ik de review van de WD Green die je hier op de site kunt vinden. Die is niet erg positief, oké dat kan. Er kunnen best een paar gevallen zijn waarbij de schijven niet erg goed bevallen. Maar als je dan de reacties leest zijn ook die niet allemaal even positief.

Nu zit ik dus weer keihard te twijfelen :).

Nu heb ik een review gevonden waarin de 7K4000 en de 5K4000 besproken worden. Hierin lieten ze inderdaad zien dat de 7K4000 rond de 41 graden wordt. De 5K4000 wordt echter ''maar'' 35 graden.
Deze is 5900 RPM en heeft iets minder Cache, namelijk 32MB. Is de 5K4000 dan misschien een goede keuze?

Ps: Hoe belangrijk is dat cache in een schijf eigenlijk?

[ Voor 4% gewijzigd door Joenuh op 30-07-2013 22:41 ]


Acties:
  • 0 Henk 'm!

Verwijderd

DRAM (gebruikt voor cache én buffer) is irrelevant. Hij moet er zijn, maar 4 tot 8MB ofzo is eigenlijk al genoeg. Maar het klinkt leuk zo'n grote cache en kost maar 20 cent extra dus waarom zouden ze daar op besparen. Leuk voor de marketing.

Hoe lager de rpm des te beter, indien voor massaopslag. Hoe minder platters des te beter. Wil je 4TB schijven dan is deze het beste / meest modern: pricewatch: Seagate ST4000VN000, 4TB verder niets mis met de WD Greens; kun je specifieker zijn? Als je FakeRAID gaat gebruiken of Hardware RAID heb je TLER nodig en dan zijn de Greens in principe ongeschikt, dat kun je allemaal nalezen op dit forum.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:25
Goshimaplonker298 schreef op dinsdag 30 juli 2013 @ 14:55:
[...]
Wil daar best mijn systeem eens posten. Gebruik alleen geen raid voor de meeste data.
Edit: Heb mijn systeem daar gepost.
Voor als er nog meer mensen zijn die dit soort vet grote builds hebben, post 'm in het 10TB+ topic.
Indien je niet aan een van de criteria voldoet maar van mening bent dat je toch een hele interessante build hebt gemaakt, leg het gerust voor. De criteria die altijd blijft staan is dat het systeem van jezelf moet zijn en in de privé sfeer gebruikt moet worden.
Goshimaplonker298's setup voldoet niet aan de redundancy eis maar laten we wel wezen, die build is grandioos en hoort thuis in dat topic.

Acties:
  • 0 Henk 'm!

  • Joenuh
  • Registratie: Juli 2012
  • Laatst online: 27-12-2023
De genoemde Seagate is mij toch wat te duur. De Hitachi's zitten nog net op de grens van wat ik wil uitgeven.
Dat is ook deels de reden waarom ik over de WD Greens begin.

Met specifieker bedoel je voorbeelden van negatieve berichten neem ik aan?

Wat quotes uit de review en reacties:
Sinds ik in het bezit ben zijn er van de 5 schijven na 1 maand 2 min of meer tegelijk gesneuveld! (Denk je veilig te zijn met een RAID oplossing.. :()

Enfin, na een snelle afhandeling van MaxICT (Dank daarvoor!) was ik weer snel in het bezit van twee nieuwe schijven welke, jawel, meteen al weer defect waren (SMART error & vastloper bij SMART tests).
Zoek je dus een 3TB HDD, dan is dit jammer genoeg geen erg veilige oplossing..!
De schijven die ik hiervoor heb gehad hebben ruim een jaar zonder enkele problemen gefunctioneerd in dezelfde behuizing.
Ik heb ergens langs zien flitsen dat de green versies veel last hebben van het vaak in en uit sleep modus gaan. Vraag me echter niet waar de klepel hangt, maar wie weet is dit een spoor waar je iets aan hebt. En anders niet :)
Heb ergens anders ook gelezen dat het telkens in spindown gaan en weer opstarten ook niet zo goed is als het laten draaien van de schijf. Nu begreep ik ook dat hier verschillende theorieën over zijn.
zie: http://www.wdc.com/wdprod...Sheet/ENG/2879-701229.pdf

Is hier boven al een keer gepost door adfundum.
Maar dit stukje uit die pdf is wel belangrijk voor je denk ik, i.v.m. RAID 5 :


Desktop PCs, high capacity external storage, and NAS.

Desktop / Consumer RAID Environments - WD Caviar Green Hard Drives are tested and recommended for use in consumer-type RAID applications (RAID-0 / RAID-1).

- Business Critical RAID Environments – WD Caviar Green Hard Drives are not recommended for and are not warranted for use in RAID environments utilizing Enterprise HBAs and/or expanders and in multi-bay chassis, as they are not designed for, nor tested in, these specific types of RAID applications.

For all Business Critical RAID applications, please consider WD’s Enterprise Hard Drives that are specifically designed with RAID-specific, time-limited error recovery (TLER), are tested extensively in 24x7 RAID applications, and include features like enhanced RAFF technology and thermal extended burn-in testing.
Ik heb nu dus nog een UFS Filesystem maar wil dit toch veranderen naar een ZFS.

Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
Zo, ik heb besloten om mijn NAS een kleine upgrade te geven voordat er 20 extra schijven in gaan. Vanaf komende maand ( :P ) heb ik twee extra netwerkpoorten beschikbaar :D Welliswaar zijn het Realtek 8111E chips, maar het kan nooit zo slecht zijn dat ik daadwerkelijk performance verlies ga merken t.o.v. mijn enkele onboard Intel chip. Na ruimte tijd zoeken heb ik op eBay deze mPCIe netwerkkaart gevonden, als er interesse is zal ik mijn bevindingen delen zodra ik deze binnen heb. Ik ben vooral even benieuwd naar wat iperf ervan gaat vinden, en wat ik ervan merk in multipath iSCSI :)

Gaat ook leuk worden om een DHCP server op te zetten om te zorgen dat het verkeer daadwerkelijk netjes gescheiden word. Ik hoop dat tgtd aan de Linux kant ook ondersteuning heeft voor multipath I/O, want dát kan ik zo 1-2-3 niet vinden :-(

Acties:
  • 0 Henk 'm!

  • Goshimaplonker298
  • Registratie: Juni 2002
  • Laatst online: 15-10 14:28

Goshimaplonker298

BOFH Wannabee

Joenuh schreef op dinsdag 30 juli 2013 @ 23:47:
De genoemde Seagate is mij toch wat te duur. De Hitachi's zitten nog net op de grens van wat ik wil uitgeven.
Dat is ook deels de reden waarom ik over de WD Greens begin.

Met specifieker bedoel je voorbeelden van negatieve berichten neem ik aan?

Wat quotes uit de review en reacties:

Heb ergens anders ook gelezen dat het telkens in spindown gaan en weer opstarten ook niet zo goed is als het laten draaien van de schijf. Nu begreep ik ook dat hier verschillende theorieën over zijn.


Ik heb nu dus nog een UFS Filesystem maar wil dit toch veranderen naar een ZFS.
Mijn ervaring met de WD Greens is dat de uitval wat hoger lijkt te zijn bij nieuwe disks. Maar ik heb ook redelijk vaak nieuwe disks dus kan subjectief zijn.
WD heeft als voordeel, en voor zo ver ik weet als enige, een Advanced RMA service. Je krijgt eerst de vervangende disk opgestuurd in een mooi doosje met bescherming, die jij weer kan gebruiken om de defecte disk terug te sturen. Hiervoor is wel een credit card nodig de advanced rma kost niets maar je credit card wordt gebruikt voor een borg... als je de defecte disk niet terug stuurt dan wordt je credit card belast voor de waarde van de disk..

Als je ZFS wilt gaan gebruiken dan heb je ook geen TLER nodig. dus dan zijn de meeste "desktop" oriented disks goed.

Acties:
  • 0 Henk 'm!

  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 15-10 08:06

OMX2000

By any means necessary...

Maar zijn de WD Red's geschikt voor ZFS? Het zijn qua zuinigheid, warmte en garantie wel fijne schijven!

Dè developers podcast in je moerstaal : CodeKlets Podcast


Acties:
  • 0 Henk 'm!

Verwijderd

Joenuh schreef op dinsdag 30 juli 2013 @ 23:47:
De genoemde Seagate is mij toch wat te duur. De Hitachi's zitten nog net op de grens van wat ik wil uitgeven.
Ik zou dan toch eerder voor de Greens gaan. Hitachi ben ik over sommige modellen niet zo te spreken. Over het algemeen gebruiken die ook oudere technologie (800GB platters) dan de nieuwste Greens en Reds.
Met specifieker bedoel je voorbeelden van negatieve berichten neem ik aan?
Ja, en dat bevestigt ook mijn vermoeden. Je noemt situaties op waarin mensen WD Greens gebruiken in een omgeving die niet tegen bad sectors kan; BINGO! Dat is niet de schuld van de schijf. Een hardeschijf is niet defect als er bad sectors komen. Dat wordt 'keurig' opgegeven in de specificaties met een uBER van 10^-14. Als je niet weet wat uBER is wil ik je dat best uitleggen. Maar kort gezegd is het normaal dat dit type hardeschijven door de alsmaar toegenomen datadichtheid relatief vaker bad sectors ontwikkeld, waarbij het kenmerk is dat dit niet komt door fysieke schade, maar meer door een gebrek aan softwarematige errorcorrectie. Dan is het normaal dat er onleesbare ('bad') sectors komen.

Als je een ouderwetse RAID implementatie gebruikt die slecht (niet) tegen bad sectors kan, dan ben je de pineut met WD Green. Ouderwetse filesystems kunnen ook niet tegen bad sectors dus gekoppeld met een ouderwetse RAID engine betekent dit dat een schijf met een bad sector overeenkomt met een gefaalde hardeschijf. Dat is ook de reden voor de titel van dit artikel: Why RAID 5 stops working in 2009. De voorbeelden die jij aanhaalt zijn symptonen van dit probleem. Maar dat is niet de schuld van de hardeschijf, maar van de ouderwetse softwarematige implementatie van RAID en filesystem.

Bij ZFS heb je hier natuurlijk geen last van. ZFS is een 3e generatie filesystem.
Heb ergens anders ook gelezen dat het telkens in spindown gaan en weer opstarten ook niet zo goed is als het laten draaien van de schijf.
Desktopschijven kunnen best goed tegen start/stop cycli daar hoef je niet heel druk om te maken. Enterpriseschijven kunnen volgens mij een factor 100 minder vaak opspinnen, of iets in die trant. Die zijn duidelijk gemaakt om 24/7 gebruikt te worden. Kenmerkend daarbij is dat bij het uitschakelen van een enterpriseserver er vaak schijven zijn die erna niet meer willen opspinnen. Dus het uitschakelen van een server die in een datacenter draait is enigszins gevaarlijk en veel sysadmins hebben altijd schijven reserve liggen omdat er altijd wel een paar krengen uitknallen na zo'n powercycle.

Als je bedoelt dat WD Green ook headparking gebruikt, dan ja dat is een irritante feature. Dat wil zeggen, headparking is best goed, maar het staat te agressief ingesteld. Je kunt echter met WDIDLE.exe de timer instellen op 300 seconden en dan is dit probleem ook opgelost. WD Red heeft headparking helemaal uitgeschakeld en kun je volgens mij ook niet inschakelen. Out of the box misschien wel prettig, maar ik zou zelf een 300 seconden timer wenselijk vinden.
Ik heb nu dus nog een UFS Filesystem maar wil dit toch veranderen naar een ZFS.
UFS is een 1e generatie filesystem net als FAT en Ext2. UFS2+SU of UFS2+SUJ (Soft Updates + Journalling) is een 2e generatie filesystem net als NTFS en Ext3/4. Je gebruikt waarschijnlijk het laatste. ZFS is een zeer grote stap vooruit qua bescherming van je data en integriteit van het filesystem.
OMX2000 schreef op woensdag 31 juli 2013 @ 09:09:
Maar zijn de WD Red's geschikt voor ZFS? Het zijn qua zuinigheid, warmte en garantie wel fijne schijven!
WD Reds kun je prima gebruiken voor ZFS. Zou je echter redundancy verliezen (degraded RAID-Z) dan is de TLER feature van de WD Red wel schadelijk omdat dit de laatste defensielinie uitschakelt. In het geval dat je niets hebt om terug te vallen is dit onwenselijk. Je kunt echter wel TLER uitschakelen (op 120 seconden instellen) voor zover ik heb begrepen, al wordt dit officieel niet ondersteund.

Acties:
  • 0 Henk 'm!

  • webfreakz.nl
  • Registratie: November 2003
  • Laatst online: 21-08 15:56

webfreakz.nl

el-nul-zet-é-er

Hoe fixed een WD Red het probleem t.o.v een WD Green, gezien beide schijven een hoge datadichtheid hebben?

"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-10 13:07
Welk probleem?

Even niets...


Acties:
  • 0 Henk 'm!

  • webfreakz.nl
  • Registratie: November 2003
  • Laatst online: 21-08 15:56

webfreakz.nl

el-nul-zet-é-er

Met uBER.

[ Voor 11% gewijzigd door webfreakz.nl op 31-07-2013 13:05 ]

"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!


Acties:
  • 0 Henk 'm!

Verwijderd

Hij bedoelt denk ik TLER. Dat verzacht enkel de problemen en voorkomt dat ouderwetse RAID engines hun disks niet zomaar uit de array knallen als er een onleesbare sector zit op een disk, wat tot gevolg heeft dat de disk recovery gaat toepassen en dat vinden ouderwetse RAID engines niet leuk. Die zijn vrij 'dom' en zullen disks die 10 seconden of iets meer niet reageren gewoon als een gefaalde disk beschouwen. Dat zorgt voor gebroken RAID arrays. Iedere disk die een bad sector heeft komt dan overeen met een 'gefaalde disk' vanuit het perspectief van de RAID array.

TLER lost het probleem van uit de array gegooide disks op door de recovery tot typisch 7 seconden te reduceren, net voor de grens van meestal 10 seconden max timeout die veel ouderwetse RAID engines gebruiken. Alleen 'slechte' RAID engines hebben dit nodig, waaronder alle Windows onboard RAID en de meeste Hardware RAID. Goede RAID engines zoals software RAID onder Linux/BSD hebben geen TLER nodig, en daar kan het juist schadelijk zijn omdat de laatste defensielinie - de recovery die hardeschijven gebruiken om proberen een onleesbare sector toch te kunnen lezen - hiermee effectief wordt uitgeschakeld. Zolang je redundancy hebt, is TLER niet gevaarlijk. Zodra je redundancy verliest, is TLER wel gevaarlijk of op zijn minst onwenselijk. Dit geldt overigens ook voor ZFS; je wilt liever geen TLER hebben.

Nu praten we alleen over hoe RAID engines met disk timeouts omgaan, maar het echte probleem is dat het onderliggende filesystem een perfect opslagapparaat vereist. De 1e en 2e generatie filesystems zijn niet ontworpen om te kunnen omgaan met imperfecte opslagapparaten, waaronder dus disks die ofwel corruptie ofwel bad sectors kunnen bevatten. De 3e generatie filesystems zijn hier wel voor ontworpen, en zijn min of meer noodzakelijk voor betrouwbare opslag in combinatie met hardeschijven met hoge datadichtheid. Je lost het probleem dan op door niet meer te vereisen dat een disk perfect is. Als ZFS een disk met een bad sector tegenkomt, gebruikt ZFS de redundante gegevens van zichzelf (ditto blocks) of de redundancy (RAID-Z) om de gegevens te weten die de onleesbare sector zou moeten bevatten. Deze gegevens worden vervolgens gebruikt om de bad sector te overschrijven en daarmee verdwijnen alle problemen.

Conclusie, ZFS is vrijwel immuun voor bad sectors. Je zult er niets van merken als je ze tegenkomt, alle apps draaien lekker verder. Dit terwijl een Windows onboard RAID of Areca hardware RAID ernstige problemen zal kennen met meerdere disks die uit de array vallen door bad sectors. Dat is de reden dat RAID5 op dit moment niet meer voldoende is en binnenkort RAID6 ook niet meer. Je hebt een 3e generatie filesystem nodig voor betrouwbare opslag.

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
Verwijderd schreef op woensdag 31 juli 2013 @ 10:17:
[...]...Why RAID 5 stops working in 2009...
dat je dat artikel uit 2007 nog steeds als waarheid aanhaalt? De feiten hebben de daar getrokken conclusie ondertussen wel achterhaalt....

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Dus je wilt zeggen dat RAID5 en RAID6 nog relevant zijn in de meeste situaties tegenwoordig ? Daar ben ik benieuwd naar, want zover ik weet zijn goede RAID-controllers nog steeds duur (dankzij cache, CPU en BBU) en rebuild times nog steeds zeer lang.

Acties:
  • 0 Henk 'm!

  • johnkeates
  • Registratie: Februari 2008
  • Laatst online: 04-07 16:30
Ik wil meer schijven in m'n NAS hangen, die nu bestaat uit een Cooler Master Centurion 5 II, wat op het moment genoeg is voor 10 schijven (5 intern, 5 in een bay die 3x optische drive bay gebruikt), maar ik heb gewoon simpelweg meer nodig, terwijl ie nu vol zit. Grotere schijven is natuurlijk een optie, maar van 2TB schijven naar 3TB of 4TB gaat alleen op korte termijn helpen, vooral ook om dat ik naar een gemirrorde setup wil hebben voor HA/Failover. Er draait Debian met ZoL op, waarbij alle disks samen in een raidz2 zitten, zonder SSD voor caching, die optioneel achteraf nog komt (met powercap ofc), wat ook weer minimaal 1x 2.5" bay nodig heeft. Als het OS dan op z'n eigen SSD komt, heb je er weer 2 nodig, kortom, meer bays nodig!

Nu heb ik zitten kijken naar behuizingen met standaard meer dan 10 bays, maar die zijn praktish altijd rack units of zo hoog qua form factor dat het niet op de huidige fysieke plaats past. Een Supermicro SC846 E16-R1200B zou bijvoorbeeld leuk zijn, maar dat gaat gewoon niet passen, plus ze zijn gemaakt voor rackmounting en worden vast niet gelukkig van het feit dat de lucht die er aan de achterkant uit komt gewoon weer aan de voorkant in gaat...

Dus, dan zit ik in elk geval met de beperking dat het een (m)ATX form factor behuizing moet worden waar dan tenminste meer dan 10 schijven in kunnen en 2 SSD's. Mijn volgende idee was dan een kast vinden waar bijvoorbeeld twee Supermicro CSE-M35TQ's in kunnen aan de voorkant, en dan binnenin nog ruimte vinden voor 4x3.5" bays en 2x2.5". Tot zo ver geen resultaat, misschien dat het gewoon niet kant-en-klaar zo bestaat? Ik zit bijna tegen het idee aan om dan maar zelf een kast te ontwerpen en te bouwen, zodat ik tenminste een apparaat heb waarbij ik niet 4/5 gebakken lucht heb, waar wel een bak disken in kunnen..

Heeft er hier iemand een vergelijkbaar probleem gehad, maar het wel kunnen oplossen?

Acties:
  • 0 Henk 'm!

  • Shamalamadindon
  • Registratie: Juni 2009
  • Laatst online: 30-03-2024

Wanneer heb je het laatst je wachtwoord verandert? Er word op T.net de laatste tijd regelmatig misbruikt gemaakt van accounts met gelekte wachtwoorden om andere gebruikers op te lichten. Verander je wachtwoord, geef oplichters geen kans!


Acties:
  • 0 Henk 'm!

Verwijderd

BartNL schreef op woensdag 31 juli 2013 @ 16:13:
[...]

dat je dat artikel uit 2007 nog steeds als waarheid aanhaalt? De feiten hebben de daar getrokken conclusie ondertussen wel achterhaalt....
Hoezo achterhaald? Dat artikel klopt helemaal hoor. Mocht je daarover van mening verschillen, is het misschien een idee een topic te openen over uBER en bad sectors? Ik denk dat ik je wel kan overtuigen namelijk. :)

Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
We hebben het er al eens over gehad, maar ik geloof er niet zo in. Als het artikel klopt zouden er namelijk bosjes raid arrays falen over heel de wereld (lees: alle klanten van lsi, adaptec, areca en hun oem varianten). Dat is niet het geval. Het verschil tussen theorie en werkelijkheid kan jij waarschijnlijker beter onderzoeken, maar de theorie toetst niet echt in praktijk.

[ Voor 22% gewijzigd door analog_ op 31-07-2013 17:27 ]


Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

johnkeates schreef op woensdag 31 juli 2013 @ 16:30:
Heeft er hier iemand een vergelijkbaar probleem gehad, maar het wel kunnen oplossen?
Probleem is dat ATX kasten vaak gewoon niet de hoogte hebben om fatsoenlijk al die bays kwijt te kunnen. Je komt dan snel bij kasten zoals de Nexus Edge of Cosmos II uit die de extra hoogte benutten en op de begane grond extra HDD bays hebben geplaatst.

Meeste kasten hebben gewoon niet genoeg 5,25" bays om die compleet te vullen met 4in3 of 5in3 bays.

[ Voor 10% gewijzigd door Tsurany op 31-07-2013 17:30 ]

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
Phuncz schreef op woensdag 31 juli 2013 @ 16:20:
Dus je wilt zeggen dat RAID5 en RAID6 nog relevant zijn in de meeste situaties tegenwoordig ? Daar ben ik benieuwd naar, want zover ik weet zijn goede RAID-controllers nog steeds duur (dankzij cache, CPU en BBU) en rebuild times nog steeds zeer lang.
nee, dat wil ik niet zeggen. Ik wil alleen zeggen dat geen feit is dat het onbruikbaar is. Of sterker in mijn situatie is het bruikbaar en doet het sinds 2007 al wat ik er van verwacht.

Acties:
  • 0 Henk 'm!

Verwijderd

analog_ schreef op woensdag 31 juli 2013 @ 17:25:
We hebben het er al eens over gehad, maar ik geloof er niet zo in. Als het artikel klopt zouden er namelijk bosjes raid arrays falen over heel de wereld [..] Dat is niet het geval.
Dat is wél het geval. :)

Ik help al jaren mensen met hun broken RAID arrays. Misschien heb je daar niet zoveel ervaring mee? De berichten van Joenuh gaan ook precies hierover. Alleen denken mensen dat de hardeschijven stuk zijn, terwijl ze alleen bad sectors hebben wat binnen de normale uBER-specificatie valt. Kortom, de hardeschijven opereren binnen de gestelde specificaties en zijn derhalve NIET stuk. Het is alleen zo dat hun RAID implementatie in feite incompatible met dit soort schijven zijn.

Ik durf te stellen dat de meeste RAID failures zeker bij thuisgebruikers het gevolg zijn van het uBER-probleem. Het komt extreem veel voor.
BartNL schreef op woensdag 31 juli 2013 @ 17:34:
nee, dat wil ik niet zeggen. Ik wil alleen zeggen dat geen feit is dat het onbruikbaar is. Of sterker in mijn situatie is het bruikbaar en doet het sinds 2007 al wat ik er van verwacht.
Misschien gebruik jij wel 10^-16 uBER disks? Dan maken je disks al een factor 100 minder bad sectors aan door onvoldoende ECC bitcorrectie. Of je bent gewoon lucky. Maar een ouderwetse Areca RAID5 met 8 disks is zo goed als onbruikbaar vandaag de dag met normale 2TB consumentenschijven. De kans dat het fout gaat en je 2, 3 of 4 'gefaalde' schijven hebt is gewoon erg groot.

Voor het ZFS systeem voor mijn familie had ik een 6 disk RAID-Z2 gemaakt en een 5-disk RAID-Z met WD 2TB disks. In beide gevallen was er binnen 3 maanden sprake van actieve bad sectors op de helft van de disks. ZFS die zich daar niets van aantrekt natuurlijk, maar als zij Windows onboard RAID5 hadden gebruikt of Areca hardware RAID, dan hadden ze geen toegang tot hun data meer.

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
Verwijderd schreef op woensdag 31 juli 2013 @ 17:19:
[...]Hoezo achterhaald? Dat artikel klopt helemaal hoor. Mocht je daarover van mening verschillen, is het misschien een idee een topic te openen over uBER en bad sectors? Ik denk dat ik je wel kan overtuigen namelijk.
Ik denk dat er fundamenteel niets mis is met de theorie in dat artikel. Alleen valt of staat de conclusie van dat artikel met de gebruikte getallen. Zie bijvoorbeeld http://www.high-rely.com/...tops-working-in-2009-not/ .
Ondertussen zijn we jaren na 2009 en draai ik momenteel meerdere raid-5 sets parallel die per stuk groter zijn dan de 12TB arrays die in 2009 de grens zouden zijn.
Topic over unrecoverable errors is misschien een goed idee maar ik vraag me af waar je me van zou willen overtuigen?

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Omdat wat jij zegt (12+TB RAID5 arrays geen probleem) haaks staat dan wat CiPHER en anderen zeggen (12+TB RAID5 arrays rebuilden meestal niet zonder uBER's). Oftewel mist er hier ergens een feit, zoals het gebruik van enterprise-schijven of zeer beperkt gebruik, oftewel zit er meer achter de twee botsende stellingen.

Uit zo'n discussies kunnen we alleen maar leren en er professioneel of amateuristisch op vooruitgaan, dus ik zeg: laat maar komen !

[ Voor 4% gewijzigd door Phuncz op 31-07-2013 18:11 ]


Acties:
  • 0 Henk 'm!

  • Kompaan
  • Registratie: Juni 2009
  • Laatst online: 02-12-2022
Verwijderd schreef op woensdag 31 juli 2013 @ 17:45:
[...]

Dat is wél het geval. :)

Ik help al jaren mensen met hun broken RAID arrays.
Voor het geval dat je het van nog iemand wil weten: Ik doe dit ook al een paar jaar bij Netgear voor hun ReadyNASen, genoeg mensen waarbij er een tweede schijf eruit klapt (paar sectoren, ATA errors, noem het maar op) tijdens rebuild (4-12 disks RAID5). Meestal heb ik er wel minimaal 2 recovery cases per dag (niet allemaal 2 disk failure, maar toch).

Voor alle 6disk+ NASen zou ik zeggen: RAID6 (of nog beter, ZFS).

Ik heb nog geen data recovery hoeven doen op onze ReadyDATAs (ZFS/Nexenta based).

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
Kompaan schreef op woensdag 31 juli 2013 @ 19:33:
[...]Voor alle 6disk+ NASen zou ik zeggen: RAID6 (of nog beter, ZFS).
ik draai momenteel arrays van 6 disks als raid-5 en array van 12 disks als raid-6 dus wat fat betreft ben ik het met je eens.

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
Phuncz schreef op woensdag 31 juli 2013 @ 18:10:
....hier ergens een feit, zoals het gebruik van enterprise-schijven of zeer beperkt gebruik,..
dat is beide niet het geval. Ik gebruik op dit moment 46 seagate schijven en 2 WD en die zijn geselecteerd op zo laag mogelijke €/Gb en dus zeker geen enterprise disks.
Zeer beperkt gebruik zou kunnen wanneer je het afzet t.o.v. een productie omgeving. Voor particuliere fileserver denk ik dat de load gemiddeld is d.w.z. voor de array waar de downloads op binnen komen bovengemiddeld en op andere arrays daaronder.

Acties:
  • 0 Henk 'm!

Verwijderd

En je hebt op alle 46 disks nog nooit een pending sector gehad (Current Pending Sector) in de output? Als dat zo is, dan heb je extreem veel geluk gehad qua uBER. Of je gebruikt een controller / RAID implementatie die wél tegen hoge timeouts kan. Je hebt niet voldoende informatie gegeven om mij daar een goede inschatting van te kunnen geven.

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
ik heb afgelopen wel degelijk uitval van disks gehad en dat lijkt mij bij 48 disk ook normaal? Het is alleen lang niet in de hoeveelheid die je op basis van een uBER van 10^14 zou verwachten. Ik snap ook niet waarom er zo veel waarde aan een dergelijk getal word gehangen.
Harde schijf fabrikanten geven dat getal naar mijn idee op wanneer bijvoorbeeld 95% van de productie die waarde haalt. Het kan best zijn dat bijvoorbeeld 90% 10^15 haalt en 80% 10^16. Ik heb in dit specifieke geval echt geen idee maar meer algemeen werken dit soort getallen wel zo. Ter vergelijk recent is er op HWI een praktijktestj gedaan met een Samsung SSD die veel betrouwbaarder bleek dan dat op grond van specificaties verwacht mocht worden. Als je dan al met 10^15 gaat rekenen is raid-5 bij 12TB al weer minder risicovol. Ik denk dat er helemaal niet iets geheimzinnigs te verklaren is.
Ik zou wel graag weten hoe de harde schijf fabrikanten het getal 10-^14 bepalen of 10^15 opgeven. Ik verwacht dat het meer met garantie (lees geld) te maken heeft dan met technische levensduur.
Ik heb al vaker aangegeven dat ik wel de voordelen van een goed modern filesysteem zie boven raid-5/6 zie maar dat ik ook zie dat raid-5/6 bij mij gewoon doet wat het moet doen.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

BartNL schreef op woensdag 31 juli 2013 @ 22:31:
Ter vergelijk recent is er op HWI een praktijktestj gedaan met een Samsung SSD die veel betrouwbaarder bleek dan dat op grond van specificaties verwacht mocht worden.
Dat heeft CiPHER al uitgebreid aangehaald in Topicreeks: Het grote SSD topic:
Verwijderd in "Het grote SSD topic ~ Deel 9"
Verwijderd in "Het grote SSD topic ~ Deel 9"

Oftewel, hoe je slechte conclusies trekt uit correct gemeten data. Maar ik vind dat je wel erg vaag bent in het aankaarten waarom jij zo'n succes zou hebben itt. anderen. Welke RAID-kaarten gebruik je ? Hoe zijn je arrays ingedeeld ? Welke software ? Want je claimt toch dat redelijk veel experts in hun vak het compleet fout hebben, dus dan ben ik benieuwd hoe.

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
Phuncz schreef op donderdag 01 augustus 2013 @ 07:30:
[...] je claimt toch dat c het compleet fout hebben, dus dan ben ik benieuwd hoe.
je kunt in het 10tb+ topic zien hoe mijn setup er uit ziet. Heb geen behoefte om mij in deze te verdedigen aangezien ik niet claim dat experts het compleet fout hebben.

[ Voor 49% gewijzigd door BartNL op 01-08-2013 13:21 ]


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 16:25
Kijk, laten we het er gewoon op houden dat vanaf het moment dat je met 2TB disks arrays begint te bouwen je in een grijs gebied komt waarbij het risico op dataverlies te groot wordt. Dat is nu het shitty aan statistieken: of je zit in de afwijking links er van, of er rechts van.

Als vuistregel vind ik eigenlijk dat vanaf 2TB schijven je OF een filesysteem moet hebben dat tegen bad blocks kan OF een redundantie van minimaal 2 disks moet hebben. Om helemaal zeker te zijn is 1TB zelfs nog beter... (en voor de leukerd die nu afkomt met "ja maar mijn disks zijn 932GB", DAT ZIJN ER DUS VAN 1TB!). Compellent (high-end storage van Dell) houdt dit ook aan als vuistregel en er was blijkbaar ooit een klant die redeneerde dat zijn disks geen echte 1TB waren, dus had maar enkelvoudige pariteit en die hield bijna Compellent verantwoordelijk omdat die een "foute" advisory uit hadden staan.

Je kan er een hele discussie over voeren, dat klopt wel, ik stond er persoonlijk ook versteld van dat ik van de 4 disks die ik had (waarvan er 4 nieuwe zijn moeten komen ter vervanging) en die faalden dat ik NOOIT dataverlies heb gehad (toch niet geconstateerd). Dus daar valt vanuit mijn perspectief ook wel wat over te zeggen...

[ Voor 7% gewijzigd door HyperBart op 01-08-2013 15:30 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ja inderdaad, je kan natuurlijk geluk hebben maar er zit een goede logica achter de stellingen. Het is ook weer niet dat je schijven bij de bosjes vallen omdat je RAID gebruikt maar RAID (met Parity) is in vele situaties niet meer de betere keuzes met 2TB disks voor <80€ en het duurzame ZFS dat je zelfs kosten bespaart voor dure RAID controllers. Aangezien uBER's een groeiend probleem is dankzij de groeiende behoefte aan capaciteit, ligt de nadruk nu niet meer op hardware-failure van hardeschijven maar op bit-niveau fouten van en naar de disks.

Mijn persoonlijke ervaringen met RAID5 en 6 zijn ook niet zo positief, als een rebuild van 24 disks drie dagen duurt op fibre-enabled SAN solutions van duizenden euro. En bij een vervangende schijf draait de gehele array vele uren of dagen op lagere prestaties dankzij array rebuild. Daar word je nerveus van.

Acties:
  • 0 Henk 'm!

  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 15-10 08:06

OMX2000

By any means necessary...

Even iets anders dan ZFS en RAID5/6 discussies. Wat is de staat van BTRFS? Begint dat al enigszins stabiel te worden?

Dè developers podcast in je moerstaal : CodeKlets Podcast


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-10 13:07
Laatste keer dat ik dat probeerde viel het nog enigzinds tegen (lastig om btrfs te verwijderen en opnieuw te beginnen) en de snelheid was magertjes.

Ook had ik hier en daar nog wat kernel warnings...

Even niets...


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
Ik heb nog een veel leuker verhaal over btrfs :P

Ik had dit @ work voor mijn /home partitie, waar dus dagelijks redelijk wat writes/reads op komen. Dit bestandssysteem vulde zichzelf volledig. Er was ~500GB in gebruik voor ~50GB aan data. Hoop gedoe en geklooi met Ubuntu 12.10, en na een reboot werkt alles ineens weer. Toen toch maar de keuze gemaakt om terug te gaan naar Ext4. Ik vond dat zeker geen goede ervaring met btrfs. Over een jaar of wat kom ik weer eens kijken hoe het er dan mee is :)

Acties:
  • 0 Henk 'm!

  • webfreakz.nl
  • Registratie: November 2003
  • Laatst online: 21-08 15:56

webfreakz.nl

el-nul-zet-é-er

Had je een oude kernel?

"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
3.2.0 geloof ik, in ieder geval wat er standaard was in Ubuntu 12.10.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-10 13:07
Dat is voor BTRFS standaarden een dinosaurus kernel...

Even niets...


Acties:
  • 0 Henk 'm!

  • webfreakz.nl
  • Registratie: November 2003
  • Laatst online: 21-08 15:56

webfreakz.nl

el-nul-zet-é-er

Linux kernel 3.2.1 is van 12 Jan 2012. Dus met dat soort wazigheden met een filesystem dat in ontwikkeling is, dan zou ik snel een nieuwe kernel scoren ;)

"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
Zie dat maar te doen op een Ubuntu bak zonder zelf te gaan compilen :P Maar als die kernel zou oud is dan is het wss wel iets recenters geweest... Naja, in ieder geval iets van half 2012 ^_^

En dat dat antiek is dat weet ik ja :(

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-10 13:07
do-release-upgrade -d

Even niets...


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
Dat doet een release upgrade ja, maar dat gaat dus meer doen dan de kernel upgraden ;) Onderhand zit ik al lang op 13.04, maar weer met een onderhand outdated kernel...

Acties:
  • 0 Henk 'm!

  • EJPostema
  • Registratie: December 2010
  • Laatst online: 09-12-2024
FireDrunk schreef op donderdag 01 augustus 2013 @ 16:09:
Laatste keer dat ik dat probeerde viel het nog enigzinds tegen (lastig om btrfs te verwijderen en opnieuw te beginnen) en de snelheid was magertjes.

Ook had ik hier en daar nog wat kernel warnings...
Ik draai BTRFS zonder problemen op mijn NAS. Nu moet ik zeggen dat ik er weinig mee experimenteer en aan het kloten ben. Maar het werkt allemaal goed en stabiel.
Laatst een schijfje vervangen zonder problemen (had ivm geld gebrek nog een paar jaar oude en luide samsung schijf erin, die vervangen door een WD red)

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-10 13:07
Als je onder 13.04 do-release-upgrade -d doet, ga je naar 13.10, en krijg je kernel 3.9 volgens mij.

Even niets...


Acties:
  • 0 Henk 'm!

  • johnkeates
  • Registratie: Februari 2008
  • Laatst online: 04-07 16:30
Dat zou inderdaad genoeg ruimte bieden, waarschijnlijk moet ik dan in die behuizing eventuele guides wegwerken/hameren/slijpen/knippen, maar dan stuit ik alsnog op een ander probleem: hij is 533mm hoog, wat ongeveer 70mm te veel is.
Tsurany schreef op woensdag 31 juli 2013 @ 17:29:
[...]

Probleem is dat ATX kasten vaak gewoon niet de hoogte hebben om fatsoenlijk al die bays kwijt te kunnen. Je komt dan snel bij kasten zoals de Nexus Edge of Cosmos II uit die de extra hoogte benutten en op de begane grond extra HDD bays hebben geplaatst.

Meeste kasten hebben gewoon niet genoeg 5,25" bays om die compleet te vullen met 4in3 of 5in3 bays.
Precies ;( en veel kasten hebben ook gewoon extra gebakken lucht in de vorm van plastic opmaak, wat ik ook niet perse nodig heb. Misschien dat ik moet kijken naar alternatieven, split chassis met bijvoorbeeld een losse storage container waar een pak schijven in passen met een link naar de server. Maar zo'n link gaat dan wel veel bandbreedte nodig hebben.

Ik zit er over na te denken om op een manier een PCIe x16 of x8 slot in een los apparaat te krijgen, en dan via een van de bekende technologieen met het moederbord te verbinden. Thunderbolt is een optie als het werkend te maken is onder Linux, maar ik denk dat er al wel eerdere externe PCIe opties zijn.

Tweede keuze zou een andere technologie zijn, maar dat betekent in principe dat je een chassis krijgt met een eigen stukje software, meestal toch al wel embedded linux, en dan een of andere link, infiniband, fiber, ethernet enz. AoE zal er misschien ook nog wel zijn. Maar op het moment dat dat soort dingen naar boven komen zou een los ITX bordje met een goede proc en een x8 of x16 slot met een HBA voor 8 SATA/SAS poorten daar net zo goed bij in kunnen, en dan heb je dus gewoon een server er bij. Luxeproblemen dit.

Derde keuze (wat niet de derde keuze is om dat het minder goed zou zijn, maar om dat het niet bepaald turnkey is en vooral veel tijd gaat kosten) is zelf een chassis bouwen. Een bestaand ATX kastje nemen, en dan de achterkant, mobo tray en misschien een stukje van de rechthoekige constructie bewaren, en voor de rest gewoon ophanging maken voor een shitload aan bays. Bijvoorbeeld 3 stuks 5in3, zodat er 15 disks in passen, en dan misschien nog een 4in1 voor 2.5" drives. Maar dat wordt dus ontwerpen, reviewen, aanpassen en bouwen. Misschien te veel van het goede... Ik heb genoeg builds gezien om te weten dat het wel kan, maar het probleem is dat het niet heel erg schaalbaar is, en dat je altijd de onzekerheid houd over of het wel goed gaat werken. Zo'n bak met schijven wil natuurlijk ook goed gekoeld worden, wat met die 5in3 bays ook weer betekent dat ze standaard met een lawaai-fan geleverd worden, die moet dan dus vervangen worden en de rest van de behuizing zal dan ook aanpassingen qua airflow nodig hebben om dat de voorkant gewoon dicht zal zitten. (frontpanel I/O komt dan bovenop, of aan de zijkant, zodat de schijven alle ruimte hebben)

Misschien dat ik wat extra geld opzij moet zetten voor zo'n verrijdbaar mini-cabinet'je, en maar gewoon aan de rackmounts moet voor thuis. Of gaan verhuizen, zorgen dat er een geconditioneerd bijgebouw is en daar zo'n ding: http://rackmountsolutions...-open-frame-mini-rack.asp in hangen :p

Is er echt niemand die met 10+ schijven draait in een kast die niet zo verschrikkelijk hoog is?


Toevoeging: ik zie net dat Highflow nog wel een bazenchassis heeft staan! De Lian Li PC-343B.
Ding is 460mm hoog en er passen 4 (of misschien wel 6?) van die 5in3 bays in. Ruimte voor 20 (30?) schijven! Alleen wel een tikje duur.. Maarr, dit begint er wel op te lijken.

[ Voor 3% gewijzigd door johnkeates op 02-08-2013 00:32 ]


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Ik draai 10 disks in een HPxw9400. 4 in 3 bracket in de CDrom bays, 4 in de 3.5" voorziening, 1 op de bodemplaat voorziening en dan één met schroeven vast geschroeft door het rooster boven de PCI uitbreidingen. 9 disks netjes dus, 1 disk minder. Voor een archief machine is het goed genoeg.

Een tijdje terug had iemand een vaag merk 8 hot swap disk mitx behuizing gepost. Hing rond de $200.

[ Voor 15% gewijzigd door analog_ op 02-08-2013 01:09 ]


Acties:
  • 0 Henk 'm!

  • Goshimaplonker298
  • Registratie: Juni 2002
  • Laatst online: 15-10 14:28

Goshimaplonker298

BOFH Wannabee

Als de hotswap behuizingen fans hebben. Is het een optie om ze er naast te leggen. Heb ik ook een tijd gedaan met mijn setup.

Afbeeldingslocatie: http://img23.imageshack.us/img23/1824/k5je.jpg

Na deze setup ben ik overgegaan naar een coolermaster stacker 810 (later zelfs 2 810's op elkaar om alle 5 in 3 behuizingen krijt te kunnen.
Het is een fijne kast als je de usb/powerknop houder er uit haalt en hem mod ( zijn ook kits voor) heb je 12 5.25" bays om mee te spelen. Maar hij is 57.5 cm hoog. Dat is de tradeoff.

Acties:
  • 0 Henk 'm!

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 22:38
Mijn linux server deed een shutdown en een van mijn 10 dezelfde (WDRed3GB) ZFS disks lijkt een probleem te hebben.
Hij heeft moeite met smart uitlezen; dat duurt een halve minuut of zo en dan faalt hij. Vanaf het moment dat ik hem aanspreek begin hij zachtjes een tik geluid te geven elke 2 or 3 sec.

dmesg
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
[  198.846185] ata5.00: exception Emask 0x0 SAct 0x0 SErr 0x0 action 0x6 frozen
[  198.846263] ata5.00: failed command: IDENTIFY DEVICE
[  198.846314] ata5.00: cmd ec/00:01:00:00:00/00:00:00:00:00/00 tag 0 pio 512 in
[  198.846314]          res 40/00:00:01:4f:c2/00:00:00:00:00/00 Emask 0x4 (timeout)
[  198.846406] ata5.00: status: { DRDY }
[  198.846446] ata5: hard resetting link
[  208.848050] ata5: softreset failed (device not ready)
[  208.848119] ata5: hard resetting link
[  218.849955] ata5: softreset failed (device not ready)
[  218.850022] ata5: hard resetting link
[  229.411300] ata5: link is slow to respond, please be patient (ready=0)
[  253.856956] ata5: softreset failed (device not ready)
[  253.857040] ata5: limiting SATA link speed to 3.0 Gbps
[  253.857047] ata5: hard resetting link
[  259.039406] ata5: softreset failed (device not ready)
[  259.039489] ata5: reset failed, giving up
[  259.039524] ata5.00: disabled
[  259.039611] ata5: EH complete
[  259.039825] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO
[  259.039926] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO
[  274.930449] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO
[  274.930499] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO
[  274.930527] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO
[  274.930550] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO
[  277.619100] sd 4:0:0:0: [sdd] Unhandled error code
[  277.619111] sd 4:0:0:0: [sdd]  
[  277.619114] Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
[  277.619118] sd 4:0:0:0: [sdd] CDB: 
[  277.619121] Read(10): 28 00 76 66 b0 c8 00 00 08 00
[  277.619136] end_request: I/O error, dev sdd, sector 1986441416
[  277.619716] sd 4:0:0:0: [sdd] READ CAPACITY(16) failed
[  277.619728] sd 4:0:0:0: [sdd]  
[  277.619734] Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
[  277.619741] sd 4:0:0:0: [sdd] Sense not available.
[  277.619827] sd 4:0:0:0: [sdd] READ CAPACITY failed
[  277.619835] sd 4:0:0:0: [sdd]  
[  277.619839] Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
[  277.619846] sd 4:0:0:0: [sdd] Sense not available.
[  277.619967] sd 4:0:0:0: [sdd] Asking for cache data failed
[  277.620027] sd 4:0:0:0: [sdd] Assuming drive cache: write through
[  278.020232] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO
[  278.020281] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO
[  278.020329] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO
[  278.020527] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO
[  281.789023] sd 4:0:0:0: [sdd] READ CAPACITY(16) failed
[  281.789041] sd 4:0:0:0: [sdd]  
[  281.789047] Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
[  281.789054] sd 4:0:0:0: [sdd] Sense not available.
[  281.789141] sd 4:0:0:0: [sdd] READ CAPACITY failed
[  281.789148] sd 4:0:0:0: [sdd]  
[  281.789153] Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK
[  281.789159] sd 4:0:0:0: [sdd] Sense not available.
[  281.789280] sd 4:0:0:0: [sdd] Asking for cache data failed
[  281.789340] sd 4:0:0:0: [sdd] Assuming drive cache: write through
[  334.816457] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO
[  334.816506] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO
[  334.816533] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO
[  334.816556] program smartctl is using a deprecated SCSI ioctl, please convert it to SG_IO


smart
code:
1
2
3
4
5
6
7
8
9
10
root@server:~$ smartctl -a /dev/sdd
smartctl 5.41 2011-06-09 r3365 [x86_64-linux-3.5.0-23-generic] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net

Vendor:               /4:0:0:0
Product:
User Capacity:        600,332,565,813,390,450 bytes [600 PB]
Logical block size:   774843950 bytes
>> Terminate command early due to bad response to IEC mode page
A mandatory SMART command failed: exiting. To continue, add one or more '-T permissive' options.


De paar keer dat het me wel lukt om smart uit te lezen zie ik geen reallocated/pending sectors o.i.d.

Heb hem verwisseld met 2 andere schijven/kabels en zelfde probleem op die disk. Alle andere disks werken zonder problemen. De hele configuratie heeft driekwart jaar gewerkt.
Is dit een gevalletje terugsturen naar WD voor garantie?

Acties:
  • 0 Henk 'm!

  • redfoxert
  • Registratie: December 2000
  • Niet online
Durandal schreef op zondag 04 augustus 2013 @ 13:25:
Heb hem verwisseld met 2 andere schijven/kabels en zelfde probleem op die disk. Alle andere disks werken zonder problemen.
Is dit een gevalletje terugsturen naar WD voor garantie?
Yep lijkt me wel. Advance RMA en je hebt binnen een paar dagen een nieuwe disk in huis. Oude disk opsturen in de verpakking waarin je nieuwe kwam en klaar :)

https://discord.com/invite/tweakers


Acties:
  • 0 Henk 'm!

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 22:38
Eh? Wat bedoel je? Sturen ze je eerst een nieuwe op en hoef je daarna pas de oude op te sturen? (ik wordt rijk \o/ )

Is dat standaard bij WD, of moet ik iets speciaals doen?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-10 13:07
Je moet je creditcard gegevens geven, mocht je geen schijf terugsturen, berekenen ze de kosten voor de schijf.

Even niets...


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 16:25
:N

Al maar goed dat het niet op basis van je DT-regels is ;) ;) ;)

Acties:
  • 0 Henk 'm!

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 22:38
Tskk.. da's disk crash stress ;)

Acties:
  • 0 Henk 'm!

  • Ed.juh
  • Registratie: Februari 2011
  • Laatst online: 07-10 16:01
korte vragen (vermoedelijk lang antwoord)

Ik heb de beschikking over 5 x 2T (WD green) en 5 x 1T.
Daar wil ik een ZFS-NAS mee bouwen. Er staat me iets bij echter dat je die het beste steeds met 2 voudige hoeveelheden moet bouwen ( 2 - 4 - 6 - 8) Klopt dit ?

Qua geheugen vermoed ik dat 8 Gb genoeg zou moeten zijn ?
Een SSD voor OS en de zfs-caches lijkt me een goed plan. Uit mijn hoofd zou deze Samsung 840 Basic 250GB afdoende moeten zijn.
Qua CPU een dualcore intel afdoende moeten zijn? Er gaat geen virtualisatie op draaien of andere zaken. Het is puur opslag.

Geen hardware raid nodig. Dus ik vermoed met een 'simpele' SATA uitbreidingskaart op weg te kunnen.

Klopt dit allemaal, of sla ik de plank mis ?

Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Ed.juh schreef op zondag 04 augustus 2013 @ 21:48:
korte vragen (vermoedelijk lang antwoord)

Ik heb de beschikking over 5 x 2T (WD green) en 5 x 1T.
Daar wil ik een ZFS-NAS mee bouwen. Er staat me iets bij echter dat je die het beste steeds met 2 voudige hoeveelheden moet bouwen ( 2 - 4 - 6 - 8) Klopt dit ?
Dit klopt wel, maar het maakt geen groot verschil. Als je ze in raidz1 zet heb je precies 4 stuks, dus dat is een prima verdeling. Zo niet dan mis je misschien 5 procent aan performance

Qua geheugen vermoed ik dat 8 Gb genoeg zou moeten zijn ?
Voor 10 Disks ex OS en caching kan het ermee door, ze raden eigenlijk 1GB/disk aan. 12GB zou mooier zijn.

Een SSD voor OS en de zfs-caches lijkt me een goed plan. Uit mijn hoofd zou deze Samsung 840 Basic 250GB afdoende moeten zijn.
Koop de M500, dit is 120GB snel zat en perfect voor SLOG en L2ARC. Zie laatste paar bladzijdes ZFS topic en posts van CiPHER, waarin die uitlegt waarom de M500 meer dan prima is.

Qua CPU een dualcore intel afdoende moeten zijn? Er gaat geen virtualisatie op draaien of andere zaken. Het is puur opslag.
Dual-core is prima

Geen hardware raid nodig. Dus ik vermoed met een 'simpele' SATA uitbreidingskaart op weg te kunnen.
IBM 1015 wordt vaak zat gebruikt, dit is dus een veilige keuze waarmee genoeg ZFS builds zijn gemaakt.
Klopt dit allemaal, of sla ik de plank mis ?
Astu

Zelf draait hier sinds aantal dagen een 6x2TB raidz1 + 12GB ram + M500 voor SLOG/L2ARC en G530 CPU.

Met een lege pool haal ik hier 600MB read en 400MB write, behoorlijk snel dus.
Zo net met een pool getest die 40% vol was en die haalde 550MB read en 313MB write, meer dan genoeg dus!

[ Voor 9% gewijzigd door Dennisik op 04-08-2013 23:12 ]


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Als je tijd hebt, trek er 4GB uit, test en dan nog eens opnieuw 4GB eruit. Ben erg benieuwd naar de resultaten. Vooral de mate en schaling van degradatie.

[ Voor 16% gewijzigd door analog_ op 04-08-2013 23:28 ]


Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
analog_ schreef op zondag 04 augustus 2013 @ 23:28:
Als je tijd hebt, trek er 4GB uit, test en dan nog eens opnieuw 4GB eruit. Ben erg benieuwd naar de resultaten. Vooral de mate en schaling van degradatie.
Ben er mee bezig!

De resultaten zal ik in het ZFS topic gooien, daar is het wat meer relevant.
Link: Dennisik in "Het grote ZFS topic"

[ Voor 8% gewijzigd door Dennisik op 05-08-2013 10:11 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Met hulp van de BBG maart storageserver ben ik tot dit systeem gekomen.

ASRock B75 Pro3-M
Intel Pentium G2020 Boxed
be quiet! Pure Power L7 300W
3x Scythe Slip Stream SY1225SL12L, 120mm
Nexus Thrio 310 Silent Case
2x Corsair CMV16GX3M2A1333C9
IBM ServeRAID M1015 SAS/SATA Controller for System x
8x Seagate ST4000VN000, 4TB
5x Hitachi Travelstar 5K1000, 1TB
1x Crucial 2.5" M500 120GB

Tijdens het bouwen ben ik er achter gekomen dat de voeding maar 1 12V P4 connector heeft (4 pins).
Het moederbord heeft een ATX12V1 aansluiting (8 pins).
Zijn er hier splitters voor of is de voeding dan te zwak?
Ik heb er zelf geen splitters voor kunnen vinden.
Of past deze voeding niet bij het moederbord?

Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
Je kunt die enkele 4 pins connector in de 8 pin steken, deze past maar op één manier. Als je zorgt dat het klipje aan de goede kant zit, dan moet het ding helemaal aan de zijkant komen te zitten zodat het klipje vastklikt. Je hebt geen processor die serieus veel vermogen trekt, dus dit mag geen probleem zijn.

Ik heb hier bijv een Xeon lopen met een hoger TDP dan jouw CPU, en ook dit werkt gewoon op een enkele 12V P4 stekker :)

Acties:
  • 0 Henk 'm!

Verwijderd

Bedankt, het werkt.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Zoals gezegt kan het allemaal prima, maar de kwaliteit van de voeding is ruk doordat er Capxon condensators in zitten...

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Dat is niet zo mooi van die voeding.
Is het verstandig als ik een andere voeding neem voor de server?

Heeft er iemand tips om m1015 in IT te flashen?
Ik krijg steeds de error:
ERROR: Failed to initialize PAL. Exiting Program

Ik heb een ook ander moederbord geprobeerd, maar die start niet van usb op.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Problemen komen pas na een paar jaar dus je hoeft geen haast te maken. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-10 13:07
Verwijderd schreef op dinsdag 06 augustus 2013 @ 23:49:
Dat is niet zo mooi van die voeding.
Is het verstandig als ik een andere voeding neem voor de server?

Heeft er iemand tips om m1015 in IT te flashen?
Ik krijg steeds de error:
ERROR: Failed to initialize PAL. Exiting Program

Ik heb een ook ander moederbord geprobeerd, maar die start niet van usb op.
Nog een ander bord proberen, je kan ook nog een ander PCIe slot proberen, maar die error betekend vaak gewoon dat dat bord je niet gaat helpen met het flashen.

Zo heb ik hier een Supermicro (Socket 1156) bord gehad die wilde, niet, maar een Biostar AM2+ bord werkte wel.

Ook mijn nieuwe Supermicro bord (Socket C32) werkt weer wel.

Even niets...


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 16:25
Ed.juh schreef op zondag 04 augustus 2013 @ 21:48:

Qua geheugen vermoed ik dat 8 Gb genoeg zou moeten zijn ?
8GB is in thuis opstellingen vaak al meer dan genoeg. Die vuistregel van 1GB per 1TB netto space is een enterprise vuistregel...
Verwijderd schreef op dinsdag 06 augustus 2013 @ 23:49:
Heeft er iemand tips om m1015 in IT te flashen?
Ik krijg steeds de error:
ERROR: Failed to initialize PAL. Exiting Program

Ik heb een ook ander moederbord geprobeerd, maar die start niet van usb op.
Dat ligt aan je moederbord. Ik heb snel even een PC op kantoor kunnen lenen om dat fratsje uit te halen. Op mijn SuperMicro ging het ook niet...

[ Voor 43% gewijzigd door HyperBart op 07-08-2013 09:00 ]


Acties:
  • 0 Henk 'm!

  • Delta1981
  • Registratie: Juni 2011
  • Laatst online: 21:00
Verwijderd schreef op dinsdag 06 augustus 2013 @ 23:49:
Heeft er iemand tips om m1015 in IT te flashen?
Ik krijg steeds de error:
ERROR: Failed to initialize PAL. Exiting Program
Heb je ook al geprobeerd om de M1015 in een uefi shell te flashen?

Acties:
  • 0 Henk 'm!

Verwijderd

Delta1981 schreef op woensdag 07 augustus 2013 @ 09:20:
[...]


Heb je ook al geprobeerd om de M1015 in een uefi shell te flashen?
Ik heb het nog niet voor elkaar gekregen om een uefi boot usb te maken.
Heb je een tip hoe ik die kan maken?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 14-10 13:07
UEFI heeft een eigen boot shell, je kan geen UEFI USB boot disk maken.

Als je bios het niet ondersteund om naar UEFI te booten, kan je er ook niet in flashen.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

De ASRock B75 Pro3-M schijnt een UEFI System Browser te hebben.

Supports ASRock XFast RAM, XFast LAN, XFast USB, OMG, Internet Flash, On/Off Play, Dehumidifier, UEFI System Browser

edit:

Helaas in uefi wordt de kaart niet herkent.
Met welk moederbord zou het wel gaan?

[ Voor 23% gewijzigd door Verwijderd op 07-08-2013 12:16 ]


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
Verwijderd schreef op dinsdag 06 augustus 2013 @ 23:49:
Dat is niet zo mooi van die voeding.
Is het verstandig als ik een andere voeding neem voor de server?

Heeft er iemand tips om m1015 in IT te flashen?
Ik krijg steeds de error:
ERROR: Failed to initialize PAL. Exiting Program

Ik heb een ook ander moederbord geprobeerd, maar die start niet van usb op.
Ik had hier ook problemen mee... Met wat proberen was het enige moederbord hier waarbij ik geen PAL error kreeg mijn oude AMD AM2+ moederbord. Die kon echter weer niet de volgende stap doen, dat lukte alleen op een van mijn Intel borden...

Waar woon je ergens? Misschien dat ik kan helpen?

Acties:
  • 0 Henk 'm!

Verwijderd

Ondertussen heb ik 5 moederborden geprobeert (zowel AMD als INTEL.) en ben nog niks verder.
Xudonax schreef op woensdag 07 augustus 2013 @ 12:31:
[...]


Ik had hier ook problemen mee... Met wat proberen was het enige moederbord hier waarbij ik geen PAL error kreeg mijn oude AMD AM2+ moederbord. Die kon echter weer niet de volgende stap doen, dat lukte alleen op een van mijn Intel borden...

Waar woon je ergens? Misschien dat ik kan helpen?
Ik woon in het midden van het land en heb vervoer.
Als je zou willen helpen zou ik dat heel fijn vinden.

Acties:
  • 0 Henk 'm!

  • webbier
  • Registratie: Mei 2010
  • Laatst online: 14-10 16:19
Ik had eenzelfde probleem en heb het met het volgende forum topic op servethehome opgelost, misschien heb je er wat aan.

http://forums.servethehom...-m1015-experiences-5.html

Acties:
  • 0 Henk 'm!

Verwijderd

webbier schreef op woensdag 07 augustus 2013 @ 14:14:
Ik had eenzelfde probleem en heb het met het volgende forum topic op servethehome opgelost, misschien heb je er wat aan.

http://forums.servethehom...-m1015-experiences-5.html
Bedankt, maar dat heb ik al geprobeert.
En deze werkt bij mij ook niet.
De m1015 wordt na het leegmaken niet meer herkent door mijn moederborden.
Pagina: 1 ... 131 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.