Acties:
  • 0 Henk 'm!

Verwijderd

GRAID5 doet background rebuild, dus je zou direct al de array in gebruik moeten kunnen nemen. Kan zijn dat FreeNAS dat zelf niet pikt ofzo, maar je array hoort er gewoon te zijn.

Weet wel dat GRAID5 niet zo heel veilig is voor je data. GRAID3 is dan nog beter. Ook kan de snelheid fluctueren. Als je ZFS kunt gebruiken is dat veel beter en veiliger. Dus bij mij rijst de vraag: waarom GRAID5 en niet ZFS?

Acties:
  • 0 Henk 'm!

  • Ashe
  • Registratie: November 2001
  • Laatst online: 13-10 10:39
Heren,

Ik heb sinds 2.5 jaar een fileserver draaien met volgende specificaties:
- Lian Li A71F big tower case
- Asus P5Q Deluxe
- Riva TNT PCI grafische kaart (geïnstalleerd toen ik merkte dat het moederbord geen onboard VGA had)
- Intel Celeron E3300
- 1GB ram
- 1 x 500GB WDC WD5000AADS (boot disk)
- 10 x 2TB WDC WD20EARS (data)
- EX-3508 – 8 ports SATA 2 PCIe Controller

Dit geheel wordt aangestuurd via Slackware Linux 13.1 in een software raid 6 met de 10 disks.

Deze machine heeft probleemloos aan al mijn fileserver behoeften voldaan maar sinds deze zomer is de SATA controller wat lastig beginnen doen tijdens de warmste dagen. Deze stond ook iets te dicht bij de grafische kaart vrees ik. Het is zelfs zover dat 2 van de 8 poorten niet meer stabiel werken waardoor ik al 2 keer een kapotte raid 6 heb gehad. Gelukkig scheelde er nooit iets met de disks (ik hou alles in het oog met dagelijkse short self tests en wekelijkse long selftests, alsook de verschillende key warden in de SMART outputs per disk) waardoor ik de raid 6 terug kon opstarten.

Op dit moment gebruik ik dus 5 onboard SATA connectoren en 6 op de controller kaart voor mijn in totaal 11 disks.

Echter ben ik beginnen lezen over fileservers op basis van ZFS (onder FreeBSD) aangezien ik die controller niet meer vertrouw. Ik heb vorige week een geflashte (IT mode) IBM M1115 SAS/SATA kaartje op de kop getikt.

Toen ik deze kaart vandaag wou installeren merkte ik dat mijn server niet wou opstarten toen ik de kaart in de PCIe 2.0 of PCIx x16 slots stak. De kaart uit de server halen zorgde ervoor dat de server wel opstartte. Met de kaart erin krijg ik niet eens een post/beep/sound/beeld.

Een beetje beginnen lezen in mijn moederbord manual en al snel bleek (denk ik) dat de PCIe 2.0 sloten enkel gebruikt kunnen worden met grafische kaarten. Er bleef dus enkel nog het universele PCIe x16 slot over maar met de M1115 kaart daarin wil de server ook niets doen, geen post, beep, sound of beeld. Ik dacht nochtans dat PCIe 2.0 insteekkaarten volledig backwards compatible waren met PCIe 1.0 sloten.

Nu ben ik dus op zoek naar een mogelijke oplossing maar ik begin meer en meer te denken dat ik op zoek moet naar een SuperMicro moederbord met wat modernere processor.

Moest er iemand van jullie raad kunnen geven over wat het compatibiliteitsprobleem (en eventuele oplossing) kunnen zijn, dan zou dat zeer welkom zijn. Echter denk ik dat het moederbord gewoon te oud is geworden (uitgebracht in mei 2008) voor de toch wel heel recente M1115 kaart (die is uitgekomen in maart 2012).

Moest het een verloren zaak zijn, zeg het dan ook gerust en dan ga ik op zoek naar een nieuw moederbord, processor en geheugen. Goede voorstellen zijn dan zeer zeker welkom en dan vooral moederborden die goed werken met de M1115 kaart.

Ik weet dat voor FreeBSD met ZFS RAM geheugen heel belangrijk is en de processor kracht minder. Een Xeon is geen vereiste en een moderne Core i3 zou al voldoende moeten zijn voor typische fileserving needs thuis. Ik ga ook geen virtualisatie doen, het is puur file storage en file server (streaming van full Blu-rays over het netwerk heeft voldoende aan minder dan 100Mbit). Echter wil ik wel een beetje future proof zijn.

Moest ik een migratie opstarten richting FreeBSD / ZFS, dan gaat het nog leuk worden aangezien ik een migratieplan moet opstarten. Ik heb namelijk niet voldoende back-up storage om tijdelijk de hele 15TB te back-uppen. ;-) Ik denk echter wel een 5-tal 4TB disks te kopen dan om het stroomverbruik te verminderen en alles in een RAID-Z pool te steken waarna ik later nog altijd makkelijk disks kan bijkopen om alzo uit te breiden, zonder in ruimtegebrek te komen in mijn kast.

Je merkt het, ik zit nog met veel vragen. Het liefst van al zou ik voorlopig gewoon mijn M1115 kaart aan de praat willen krijgen zodat ik een migratie naar ZFS kan uitstellen/plannen voor een capacity extension op latere basis. Maar als ik sowieso al een nieuw moederbord/processor/geheugen zou moeten kopen, dan bestaat de kans dat ik toch een migratie opstart.

Alvast bedankt op voorhand voor jullie hulp/raad.

Acties:
  • 0 Henk 'm!

  • Goku33
  • Registratie: Oktober 2002
  • Laatst online: 12-10 12:25

Goku33

Ownage!

Verwijderd schreef op zondag 06 oktober 2013 @ 17:27:
GRAID5 doet background rebuild, dus je zou direct al de array in gebruik moeten kunnen nemen. Kan zijn dat FreeNAS dat zelf niet pikt ofzo, maar je array hoort er gewoon te zijn.

Weet wel dat GRAID5 niet zo heel veilig is voor je data. GRAID3 is dan nog beter. Ook kan de snelheid fluctueren. Als je ZFS kunt gebruiken is dat veel beter en veiliger. Dus bij mij rijst de vraag: waarom GRAID5 en niet ZFS?
Eerlijk antwoord: omdat ik niet beter wist toen ik mijn NAS voor het eerst installeerde. Ik heb dit inmiddels een jaar of 3 zo draaien, en dat was de eerste keer dat ik iets van een NAS had. Ik heb mij er toen in verdiept en raid 5 gekozen wegens redundancy + toch redelijk goede snelheid. Ik was in de veronderstelling dat de data zo veilig was omdat een disk kapot mag gaan en na het vervangen daarvan zou alles weer gerestored moeten kunnen worden.
Ik heb er geen probleem mee ooit te switchen naar een anders vorm zoals ZFS (al zal ik me ook moeten verdiepen in wat dat precies inhoudt.

Echter moet ik nu eerst weer bij mijn data kunnen komen. De disk rebuild (store verify progress) waar ik eerder over sprak is nu na plusmin 8 uur voltooid (verify completed).
Freenas weet dus op de één of andere manier dat er een raid 5 array aanwezig is. Maar hoe krijg ik deze array uit freenas 0.7.2 nu weer toegankelijk in het freenas 9.1?

Auto-import volume laat geen opties zien:
Afbeeldingslocatie: http://static.dyp.im/DEZL67sFjx/f583ff5bc0666711c72e3ca44a12ecab.png

Onder 'import volume' vind ik enkel de 4 losse disks:
Afbeeldingslocatie: http://static.dyp.im/CFCNbQfBAg/183cd7c1178c41e05ead36000c4986da.png
Maar ik ben bang dat als ik hier iets kies dat hij data gaat wissen? Of moet ik hier eerst de 4 disks importeren, waarna hij de array weer zal vinden?

Omdat het een oudere software nas is, dacht ik misschien het legacy import window, maar:
Afbeeldingslocatie: http://static.dyp.im/2To0PREjyR/d3d14e77e0b6936858f86acd97cd55b8.png
Die rode letters "Existing data will be cleared" zorgen ervoor dat ik hier sowieso nergens op klik.

Dus... nu heb ik 4 losse disks, maar nog geen raid volume. Hoe krijg ik dit terug?

Hier vind ik de volgende zin:
Supported volumes are UFS stripes (RAID0), UFS mirrors (RAID1), UFS RAID3, as well as existing ZFS pools. UFS RAID5 is not supported as it is an unmaintained summer of code project which was never integrated into FreeBSD.
Heb ik dikke vette pech?

De USB stick met die freenas 0.7.2 installatie heb ik hier ook nog steeds. Dus ik heb daar weer eens van geboot, gaat nog prima. Nu werkt de raid echter ook ineens niet meer in die installatie...
Afbeeldingslocatie: http://static.dyp.im/vMOqlS8RzJ/4a2b4e16fe160454093e0253b66555ff.png
Raid gestopt? Wat is dit?
Ik begin nu wanhopig te worden. Er staat echt data op deze schijven die ik terug wil!

[ Voor 14% gewijzigd door Goku33 op 07-10-2013 00:23 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 12-10 08:00
Ashe schreef op zondag 06 oktober 2013 @ 22:30:
Heren,

Ik heb sinds 2.5 jaar een fileserver draaien met volgende specificaties:
- Lian Li A71F big tower case
- Asus P5Q Deluxe
- Riva TNT PCI grafische kaart (geïnstalleerd toen ik merkte dat het moederbord geen onboard VGA had)
- Intel Celeron E3300
- 1GB ram
- 1 x 500GB WDC WD5000AADS (boot disk)
- 10 x 2TB WDC WD20EARS (data)
- EX-3508 – 8 ports SATA 2 PCIe Controller

Dit geheel wordt aangestuurd via Slackware Linux 13.1 in een software raid 6 met de 10 disks.

Deze machine heeft probleemloos aan al mijn fileserver behoeften voldaan maar sinds deze zomer is de SATA controller wat lastig beginnen doen tijdens de warmste dagen. Deze stond ook iets te dicht bij de grafische kaart vrees ik. Het is zelfs zover dat 2 van de 8 poorten niet meer stabiel werken waardoor ik al 2 keer een kapotte raid 6 heb gehad. Gelukkig scheelde er nooit iets met de disks (ik hou alles in het oog met dagelijkse short self tests en wekelijkse long selftests, alsook de verschillende key warden in de SMART outputs per disk) waardoor ik de raid 6 terug kon opstarten.

Op dit moment gebruik ik dus 5 onboard SATA connectoren en 6 op de controller kaart voor mijn in totaal 11 disks.

Echter ben ik beginnen lezen over fileservers op basis van ZFS (onder FreeBSD) aangezien ik die controller niet meer vertrouw. Ik heb vorige week een geflashte (IT mode) IBM M1115 SAS/SATA kaartje op de kop getikt.

Toen ik deze kaart vandaag wou installeren merkte ik dat mijn server niet wou opstarten toen ik de kaart in de PCIe 2.0 of PCIx x16 slots stak. De kaart uit de server halen zorgde ervoor dat de server wel opstartte. Met de kaart erin krijg ik niet eens een post/beep/sound/beeld.

Een beetje beginnen lezen in mijn moederbord manual en al snel bleek (denk ik) dat de PCIe 2.0 sloten enkel gebruikt kunnen worden met grafische kaarten. Er bleef dus enkel nog het universele PCIe x16 slot over maar met de M1115 kaart daarin wil de server ook niets doen, geen post, beep, sound of beeld. Ik dacht nochtans dat PCIe 2.0 insteekkaarten volledig backwards compatible waren met PCIe 1.0 sloten.

Nu ben ik dus op zoek naar een mogelijke oplossing maar ik begin meer en meer te denken dat ik op zoek moet naar een SuperMicro moederbord met wat modernere processor.

Moest er iemand van jullie raad kunnen geven over wat het compatibiliteitsprobleem (en eventuele oplossing) kunnen zijn, dan zou dat zeer welkom zijn. Echter denk ik dat het moederbord gewoon te oud is geworden (uitgebracht in mei 2008) voor de toch wel heel recente M1115 kaart (die is uitgekomen in maart 2012).

Moest het een verloren zaak zijn, zeg het dan ook gerust en dan ga ik op zoek naar een nieuw moederbord, processor en geheugen. Goede voorstellen zijn dan zeer zeker welkom en dan vooral moederborden die goed werken met de M1115 kaart.

Ik weet dat voor FreeBSD met ZFS RAM geheugen heel belangrijk is en de processor kracht minder. Een Xeon is geen vereiste en een moderne Core i3 zou al voldoende moeten zijn voor typische fileserving needs thuis. Ik ga ook geen virtualisatie doen, het is puur file storage en file server (streaming van full Blu-rays over het netwerk heeft voldoende aan minder dan 100Mbit). Echter wil ik wel een beetje future proof zijn.

Moest ik een migratie opstarten richting FreeBSD / ZFS, dan gaat het nog leuk worden aangezien ik een migratieplan moet opstarten. Ik heb namelijk niet voldoende back-up storage om tijdelijk de hele 15TB te back-uppen. ;-) Ik denk echter wel een 5-tal 4TB disks te kopen dan om het stroomverbruik te verminderen en alles in een RAID-Z pool te steken waarna ik later nog altijd makkelijk disks kan bijkopen om alzo uit te breiden, zonder in ruimtegebrek te komen in mijn kast.

Je merkt het, ik zit nog met veel vragen. Het liefst van al zou ik voorlopig gewoon mijn M1115 kaart aan de praat willen krijgen zodat ik een migratie naar ZFS kan uitstellen/plannen voor een capacity extension op latere basis. Maar als ik sowieso al een nieuw moederbord/processor/geheugen zou moeten kopen, dan bestaat de kans dat ik toch een migratie opstart.

Alvast bedankt op voorhand voor jullie hulp/raad.
Ik denk dat je eerlijk gezegd gewoon pech hebt. Je P5Q zal inderdaad niet zomaar die kaart gaan slikken, ik ben bang dat je daar inderdaad niets aan kan doen.

Maar zeggen dat je persé een SuperMicro bord nodig hebt klopt ook weer niet. Veel moderne borden hebben dat probleem niet meer, ik heb mijn M1015 in een hele reeks borden gehad en daar werkt hij prima in. (Intel, ASRock, SuperMicro, werken allemaal)

Je zou dus een goedkoop ASRock B75-Pro3-M + G1610 combo'tje kunnen kopen... Zuiniger en presteert ook nog eens een stuk beter, en je M1115 werkt ook gewon prima.

Bovendien kan je je installatie gewoon 1 op 1 meenmen :)

Even niets...


Acties:
  • 0 Henk 'm!

  • maniak
  • Registratie: Augustus 2000
  • Laatst online: 21-09 08:52
Ik heb maar een Intel PRO/1000 CT gekocht als vervanging voor de onboard RealTek NIC, hopelijk lost dit mijn probleem op. Meteen maar een Cisco SLM2008T 8-port Gigabit Smart Switch gekocht :)

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 22:58
FireDrunk schreef op maandag 07 oktober 2013 @ 10:17:
[...]

Ik denk dat je eerlijk gezegd gewoon pech hebt. Je P5Q zal inderdaad niet zomaar die kaart gaan slikken, ik ben bang dat je daar inderdaad niets aan kan doen.

Maar zeggen dat je persé een SuperMicro bord nodig hebt klopt ook weer niet. Veel moderne borden hebben dat probleem niet meer, ik heb mijn M1015 in een hele reeks borden gehad en daar werkt hij prima in. (Intel, ASRock, SuperMicro, werken allemaal)

Je zou dus een goedkoop ASRock B75-Pro3-M + G1610 combo'tje kunnen kopen... Zuiniger en presteert ook nog eens een stuk beter, en je M1115 werkt ook gewon prima.

Bovendien kan je je installatie gewoon 1 op 1 meenmen :)
Of hij kiest voor een Avoton moederbordje >:) . Waren daar geen reviews van die ASrock die nu gingen uitkomen?

HyperBart in "Het grote ZFS topic"

Acties:
  • 0 Henk 'm!

  • Habana
  • Registratie: Oktober 2005
  • Laatst online: 22:08
Vraag ik me toch af hoe Synology dit doet, is ook maar een software raid, deze disabled volledig auto de LCC van de WD greens, en als zoals je zegt TLER enkel nut heeft bij Hardware raid hoe gaat Synology er dan mee om, zo worden uiteindelijk de Red's als nas drive verkocht.

@FireDrunk onder, Niet helemaal, mijn WD20EARX zijn/waren ook aangeprezen toen ik ze kocht als een geschikte nas drive in de WD's eigen sheets, net zoals de Red's nu, waar het verschil enkel is dat deze als specifieke Nas device word gepresenteerd.

[ Voor 34% gewijzigd door Habana op 07-10-2013 15:25 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 12-10 08:00
Waarschijnlijk hebben ze gewoon gemonitored welke commando's er daadwerkelijk door de WDidle tool naar de disks gestuurd worden, en sturen ze deze zelf ook... Kwestie van goed monitoren wat er over de SATA controller gaat.

Wat heeft een NAS drive met WD green te maken? WD zegt heel duidelijk dat Red's voor NAS devices geschikt zijn, en Greens niet?

Even niets...


Acties:
  • 0 Henk 'm!

  • Ashe
  • Registratie: November 2001
  • Laatst online: 13-10 10:39
Ik ben zeer zeker geïnteresseerd in dergelijke Avoton bordjes, alleen zijn ze blijkbaar zeer moeilijk te vinden in België (en Nederland vermoed ik ook). :-)

Het systeem op basis van ASRock B75-Pro3M valt zeer goed te doen! De Haswell variant (ASRock B85M-Pro4) lijkt me ook een optie voor een kleine meerprijs. Niet dat ik de performance nodig heb maar futureproofing kan nooit kwaad. :-)

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 22:58
Tja, beetje geduld hebben, ze komen nu mondjesmaat beschikbaar...

Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 06-10 15:48
Hoe schadelijk is het om SMART-data en andere parameters frequent uit te lezen?

Ik ben een script aan het maken die ik via een cron job dagelijks (misschien wekelijks) wil laten lopen om zo wat stats te hebben en problemen met disks vroeg op te sporen.

Ik dacht dat ik hier ergens had gelezen dat te veel requests niet echt goed zijn voor je schijven, of ik moet het gedroomd hebben 8)7

Acties:
  • 0 Henk 'm!

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 10-10 19:40
Mijn tool loopt om de 10 of 15 minuten en leest ook SMART uit. Draait een jaar en ik heb naar mijn weten nog geen problemen gehad.
Hoe zou zoiets dan fout moeten gaan?

Acties:
  • 0 Henk 'm!

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 10-10 19:40
Verwijderd schreef op maandag 07 oktober 2013 @ 02:03:
De Greens hebben als voordeel dat je headparking kunt instellen, terwijl de Reds dit naar mijn weten permanent en onveranderlijk hebben uitgeschakeld in de firmware.
Wat bedoel je precies met head parking? Spin down?

Acties:
  • 0 Henk 'm!

Verwijderd

De 3Gbps LSI 1068E SAS-controller heeft een bug met te snel opvragen van SMART data. Verder heeft smartmontools een parameter waarbij je voorkomt dat de schijf opspint als deze zich in ruststand bevindt. Afgezien hiervan kun je naar hartelust SMART-data opvragen.

Acties:
  • 0 Henk 'm!

Verwijderd

Headparking is het parkeren van de leeskop. De oudere WD Greens deden dit iedere 8 seconden wat voor veel headparks zorgde. In de SMART data kun je dit zien als Load Cycle Count (LCC) en de specificaties geven meestal 300.000 tot 600.000 load cycles aan. Echter kun je aan dat aantal gemakkelijk komen als je headparking standaard aan laat staan.

In moderne uitvoeringen van de WD Green is de timer volgens mij wel vergroot; ik geloof 30 seconden. Met de DOS-utility WDIDLE kun je dat nog tot 300 seconden oprekken. Tussen de 30 en 200 seconden vind ik wel een geschikte instelling, zodat je wel de voordelen hebt van headparking maar deze niet zo agressief staat afgesteld dat je er last van zou krijgen of dit voor extra slijtage zou zorgen waarbij je na een jaar gebruik al door je opgegeven load cycles heen bent.

Acties:
  • 0 Henk 'm!

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 10-10 19:40
Goed dus dat is dan niet hetzelfde als spin down (wat iig gewoon werkt op de Reds). Vraag blijft waarom je je kop zou willen parkeren zonder in spindown te gaan.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 12-10 08:00
Stroom besparen? Zo'n kop word ook gestuurd door elektrische motoren...

Even niets...


Acties:
  • 0 Henk 'm!

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 10-10 19:40
FireDrunk schreef op dinsdag 08 oktober 2013 @ 13:55:
Stroom besparen? Zo'n kop word ook gestuurd door elektrische motoren...
Niet om hem op zijn plek te houden. Als er geen access is beweegt de kop niet.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 12-10 08:00
Durandal schreef op dinsdag 08 oktober 2013 @ 17:12:
[...]

Niet om hem op zijn plek te houden. Als er geen access is beweegt de kop niet.
Ik denk dat dat toch nog enigzins stroom kost, hij blijft volgens mij constant verifieren of de kop op de goede positie staat ivm vallen en dergelijke. Als de disk een tik krijgt moet er software aan te pas komen om de kop opnieuw op zijn goede plek te zetten.

Als de kop geparkeerd staat, staat hij vast en hoeft al die logica niet meer te werken.

Scheelt misschien maar een paar mA, maar toch...

Even niets...


Acties:
  • 0 Henk 'm!

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 10-10 19:40
FireDrunk schreef op dinsdag 08 oktober 2013 @ 18:04:
[...]

Ik denk dat dat toch nog enigzins stroom kost, hij blijft volgens mij constant verifieren of de kop op de goede positie staat ivm vallen en dergelijke. Als de disk een tik krijgt moet er software aan te pas komen om de kop opnieuw op zijn goede plek te zetten.

Als de kop geparkeerd staat, staat hij vast en hoeft al die logica niet meer te werken.

Scheelt misschien maar een paar mA, maar toch...
Waarom riskeert de fabrikant dan een slecht reputatie met disks die dan voor die paar mA binnen een jaar door de specs heen zijn?
Er moet wat anders spelen dunkt mij. Het verhaal is niet sluitend.
(tegen vallen doet de software overigens niet veel tenzij er een accelerometer in zit)

Acties:
  • 0 Henk 'm!

  • sloth
  • Registratie: Januari 2010
  • Niet online
HyperBart schreef op maandag 07 oktober 2013 @ 13:02:
[...]


Of hij kiest voor een Avoton moederbordje >:) . Waren daar geen reviews van die ASrock die nu gingen uitkomen?

HyperBart in "Het grote ZFS topic"
Benchmarks van de Supermicro A1SAi-2750F:
Intel Atom C2750 – 8 Core Avoton / Rangeley Benchmarks – Fast and Low Power.

De review van dat Asrock bord laat nog even op zich wachten, zijn blijkbaar wat probleempjes met de sample waar servethehome mee test.

[ Voor 12% gewijzigd door sloth op 09-10-2013 01:01 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 12-10 08:00
Die schijven zij bedoeld voor desktops van normale thuisgebruikers die maar een paar uur per dag aan staan.
Dan doe je ineens 3-4 keer zo lang met de schijf (qua load cycles).

Het zijn gewoon geen 24/7 schijven... Heeft niets met reputatie te maken, heeft met doel van het type te maken.

Green is voor af en toe gebruik, Blue is voor regulier zakelijk gebruik (minimaal 8-9 uur per dag aan), Red is voor 24/7 gebruik, Black is voor performance (ten koste van geluid en stroomverbruik), en daarna komt de SAS lijn.

Ze hebben van alles wat, en het staat zeer duidelijk op hun site...

Even niets...


Acties:
  • 0 Henk 'm!

  • Habana
  • Registratie: Oktober 2005
  • Laatst online: 22:08
Zegt mij maar een ding, in welk tijdsbestek lees je het verhaal, op die zelfde website stond drie jaar geleden ook dat mijn WD20EARX (Greens) ook prima geschikt waren voor gebruik in een nas omgeving en klopt ook wel want ze draaiden bijna drie jaar probleemlooos in een Synology nas en nu hun verdere leven nu in een ZFS Nas/servertje en nog steeds 100% en de 3TB Reds ter vervanging geven enkel problemen, on off on off van uit hybernation, echte nas drives toch

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 12-10 08:00
Tja, er zit altijd een deel marketing in die praatjes van fabrikanten, maar soms hebben ze wel ergens ver weg een punt :)

Het is soms lastig om te distilleren waar het om gaat...

Even niets...


Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
FireDrunk schreef op woensdag 09 oktober 2013 @ 08:45:
Die schijven zij bedoeld voor desktops van normale thuisgebruikers die maar een paar uur per dag aan staan.
Dan doe je ineens 3-4 keer zo lang met de schijf (qua load cycles).

Het zijn gewoon geen 24/7 schijven... Heeft niets met reputatie te maken, heeft met doel van het type te maken.

Green is voor af en toe gebruik, Blue is voor regulier zakelijk gebruik (minimaal 8-9 uur per dag aan), Red is voor 24/7 gebruik, Black is voor performance (ten koste van geluid en stroomverbruik), en daarna komt de SAS lijn.

Ze hebben van alles wat, en het staat zeer duidelijk op hun site...
Ik had de indruk dat bij de greens de nadruk meer ligt op verbruik. Ik draai zelf met WD30EURS , dat is een green AV-GP type disk. WD adverteert met "24x7 reliability for video streaming" , en geeft er 3 jaar garantie op.

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 12-10 08:00
Klopt, dat is dus weer een andere serie. Goede kans dat de load cycle timer daar weer anders staat.

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 07:37

Compizfox

Bait for wenchmarks

FireDrunk schreef op woensdag 09 oktober 2013 @ 08:45:
Die schijven zij bedoeld voor desktops van normale thuisgebruikers die maar een paar uur per dag aan staan.
Dan doe je ineens 3-4 keer zo lang met de schijf (qua load cycles).

Het zijn gewoon geen 24/7 schijven... Heeft niets met reputatie te maken, heeft met doel van het type te maken.

Green is voor af en toe gebruik, Blue is voor regulier zakelijk gebruik (minimaal 8-9 uur per dag aan), Red is voor 24/7 gebruik, Black is voor performance (ten koste van geluid en stroomverbruik), en daarna komt de SAS lijn.

Ze hebben van alles wat, en het staat zeer duidelijk op hun site...
Weet je zeker dat dat niet gewoon marketinggelul is? Als ik het goed heb zijn Reds gewoon dezelfde schijven als Greens, maar dan met andere firmware (o.a. andere default AAM/APM-values en TLER-support)

Het verschil tussen Greens en Blues is simpelweg dat Blues op 7200 rpm draaien en dus vooral sneller zijn met random writes/reads, dus als je er een OS op draait bijvoorbeeld. (Maar daar gebruik ik SSD's voor)
Greens draaien dan wel op 5400 rpm, maar zijn voor storage prima omdat de sequential read/write nauwelijks lager is.
Voor ZFS zou ik gewoon voor Greens gaan. Die zijn het goedkoopste (dacht ik) en ook het zuinigst.

[ Voor 19% gewijzigd door Compizfox op 10-10-2013 16:28 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 12-10 08:00
Marketing is het sowieso, maar gelul, nee... Er is daadwerkelijk verschil in firmware, dus is het iets om rekening mee te houden. Is het het geld waard omdat het alleen maar een softwarematig verschil is en niet hardwarematig? Dat moet je zelf weten...

Even niets...


Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 06-10 15:48
In navolging van deze post van Durandal en de daaropvolgende reacties lijkt het me misschien wel interessant om ofwel wat onderdelen toe te voegen aan de topicstart, of gewoon een nieuw topic op te richten die een een aantal nuttige zaken bundelt inzake het "improven" van je NAS. Bijvoorbeeld:
  • Monitoring
    • Nagios
    • Cacti
    • Zabbix en andere alternatieven
  • Problemen met schijven detecteren
    • S.M.A.R.T.
    • Korte beschrijving van de meest nuttige parameters
    • Vaak voorkomende problemen
    • Fsck, chkdsk, ...
  • Scripts
    • Cronjobs
    • Handige shellscripts
    • Pythonscript die bepaalde zaken uitleest (Q heeft er een paar)
  • Varia
    • (Web)logs uitlezen om zo ongewenste bezoekers op te sporen
    • Stukje over iptables misschien?
    • pfSense
    • Verschillende backup opties toelichten
    • ...
Ik som maar enkele dingen op hoor. Indien er interesse is wil ik gerust een paar stukjes schrijven, ik ben toch al een tijdje aan het rondsnuffelen hoe ik mijn NAS "veiliger" kan maken.

Acties:
  • 0 Henk 'm!

Verwijderd

Quick intro: de discussie gaat of WD Green geschikt is voor 24/7 operatie of dat je daar een Red voor nodig hebt.
FireDrunk schreef op donderdag 10 oktober 2013 @ 16:30:
Marketing is het sowieso, maar gelul, nee...
Ik durf eigenlijk wel te zeggen dat het gelul is. Net zoals de WD Red serie een 'NAS schijf' is ook gelul is. Niet alle NAS hebben TLER nodig, zoals Synology en vast nog wel meer. Het is gewoon een goedkopere versie van de RE4 - die misschien wel fysiek verschillend was. Gewoon een WD Green met een ander stickertje, jaartje extra garantie en firmware die TLER inschakelt en headparking uitschakelt. De productielijn is hoogstwaarschijnlijk dezelfde en pas aan het einde wordt bepaald of het een green of red wordt. Cherry picking zou in theorie kunnen, maar ik denk dat als dit al zo is maar miniem plaatsvindt. Zoals net een extra testcycle om nog net wat meer zekerheid te bieden. Maar zelfs dat acht ik eigenlijk twijfelachtig.

Maar het ging erom, of een Green schijf geschikt is voor 24/7 gebruik. Ik zou stellen dat vrijwel iedere schijf het liefst 24/7 draait in een zo constant mogelijke omgeving. Het is eigenlijk juist anderom. De serverschijven zijn niet geschikt voor desktopgebruik. Dit komt omdat ze vele minder specced start/stopcycli hebben dan desktopschijven, die overduidelijk gemaakt zijn om vaker te kunnen op en downspinnen. Dit terwijl serverschijven vaak gebouwd zijn voor 100% duty cycle met de leeskop. Het is voor mij natuurlijk ook maar speculeren over wat dat in de praktijk kan betekenen, maar je kunt denken aan zwaardere/robuustere mechanische componenten die meer wear kunnen verdragen.

Om mijn gedachtengang kracht bij te zetten, moet het toch opvallen dat de Green AV drive wel 24/7 geschikt zou zijn. Dit terwijl AV gewoon een firmware tweak is voor TLER=0 dus recovery totaal uitgeschakeld. Dit zodat er geen frame drops kunnen plaatsvinden en de hardeschijf gewoon of faalt of levert maar altijd een lage latency blijft houden. Als deze schijf 24/7 geschikt, is de Green dat ook. Firmware kan daar echt niet zoveel aan doen, het gaat immers om mechanische wear.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 12-10 08:00
Daar ben ik het niet helemaal mee eens, tuurlijk is wat je zegt waar, maar de firmware kan veel meer dan alleen maar de schijf aansturen, net als bij een SSD kan er iets aan wear leveling gedaan worden. Op een harde schijf is het misschien minder belangrijk dan op een SSD, maar het kan best.

Simpel gezegd, we weten het niet, wat er allemaal in de firmware zit, en tot iemand een binary comparison doet zullen we het ook nooit weten...

Ik vind niet dat je in een topic als hier kan roepen dat het allemaal niet uitmaakt als we niet de inhoudelijke data hebben die zoiets bevestigd. Het kan zeker zo zijn, maar voor nu durf *ik* persoonlijk mensen niet klakkeloos aan te raden om voor een green te gaan omdat die "toch hetzelfde is als een Red" (op garantie na).

Even niets...


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 10-10 09:53
SanderH_ schreef op donderdag 10 oktober 2013 @ 20:42:
In navolging van deze post van Durandal en de daaropvolgende reacties lijkt het me misschien wel interessant om ofwel wat onderdelen toe te voegen aan de topicstart, of gewoon een nieuw topic op te richten die een een aantal nuttige zaken bundelt inzake het "improven" van je NAS. Bijvoorbeeld:

...

Ik som maar enkele dingen op hoor. Indien er interesse is wil ik gerust een paar stukjes schrijven, ik ben toch al een tijdje aan het rondsnuffelen hoe ik mijn NAS "veiliger" kan maken.
Het klinkt wel interessant. Ik zou het sowieso in een nieuw topic beginnen. Dan kunnen de usual suspects daar kan naar verwijzen. Het blijven dan schonere topics en dan sneeuwen de tips enz. niet onder.
Wat je zou kunnen doen is om, zodra je wat stukjes hebt, die live te gooien. Je kunt dan later wat mede auteurs toevoegen aan de startpost om verder mee te helpen.
In eerste aanleg zou je naar mijn idee nog niet direct een nadere onderverdeling hoeven te maken. Je kunt dan kijken of de reacties voornamelijk een kant opgaat en de rest dan laten afsplitsen.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Mirickle
  • Registratie: Oktober 2000
  • Laatst online: 21:40
Vraagje aan de NAS-bouwers hier. Hoe backupt men? Dat lijkt me steeds lastiger worden met vele TBs aan data.

Zo wil ik bijv. een (nog redelijk bescheiden) netto-8-TB ZFS NASje bouwen.

Op dit moment heb ik 3 TB in mijn NAS, met een offline 1:1 backup. Maar met 8 TB wordt dat al lastiger, en om nou meteen twee NASen te bouwen voor mirroring vind ik wat te ver gaan :)

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 12-10 08:00
Snapshots

Even niets...


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
Mijn NAS *is* mijn backup. Het OS e.d. kan ik zo terug installeren, dat is weinig boeiends. De data is primair een backup van wat er op mijn laptop/PC rondzwerft. En om nou een backup te gaan backuppen... ;)

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 06-10 19:19
Mijn backup is de films opnieuw downloaden als raid-z2 met in de steek zou laten met redundantie.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 21:17
Mirickle schreef op vrijdag 11 oktober 2013 @ 15:14:
Vraagje aan de NAS-bouwers hier. Hoe backupt men? Dat lijkt me steeds lastiger worden met vele TBs aan data.

Zo wil ik bijv. een (nog redelijk bescheiden) netto-8-TB ZFS NASje bouwen.

Op dit moment heb ik 3 TB in mijn NAS, met een offline 1:1 backup. Maar met 8 TB wordt dat al lastiger, en om nou meteen twee NASen te bouwen voor mirroring vind ik wat te ver gaan :)
Als je glasvezel hebt gewoon encrypted naar nieuwsgroepen back-uppen. Meest goedkope manier. :+

Acties:
  • 0 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 07:26
Als je 8TB wilt backuppen denk ik dat je de verkeerde prioriteiten stelt. Kan ke niet voorstellen dat je 8TB aan persoonlijke data hebt.

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 21:17
Digitalisering van je cd's, dvd's, blue-rays? Dan ben je er zo.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Dan heb je toch al backups, namelijk de originele media :P

Het zal waarschijnlijk uit de hand lopen als er niet duidelijk gemaakt wordt wat de bedoeling is.
Als je gewoon je 8TB 1:1 wil backuppen, moet je ergens die ":1" aan opslag hebben. Cloud storage, tweede NAS, ...
Als je belangrijke gegevens (stel 1TB) wil backuppen: externe HDD ?
Als je gewoon meer veiligheid wil: ZFS zou met RAIDZ1 al één defecte HDD opvangen, met RAIDZ2 twee,...

Acties:
  • 0 Henk 'm!

  • UltraSub
  • Registratie: Mei 2003
  • Laatst online: 06-10 07:22
Crashplan unlimited? ;)

Acties:
  • 0 Henk 'm!

  • Mirickle
  • Registratie: Oktober 2000
  • Laatst online: 21:40
GioStyle schreef op vrijdag 11 oktober 2013 @ 17:26:
Digitalisering van je cd's, dvd's, blue-rays? Dan ben je er zo.
Dit deels ja. Ik heb dan inderdaad de originelen als backup, maar rippen, encoden, taggen, daar zit heel veel tijd in.

En deels gedownloade media, die ik toch ook niet kwijt wil.

1:1 backup is misschien onnodig ja, maar wel gemakkelijk in het gebruik, gewoon een diff mirror maken met ftpcopy. Maar gemiddeld doet men dat dus niet zie ik :)

RAID-Z* is fijn voor de extra veiligheid, daarom wil het ook gaan gebruiken, maar ik zie het niet als backup-mechanisme. Blikseminslag, ontploffende voeding, diefstal, kat die je server omgooit etc etc en je bent nog steeds je data kwijt.

[ Voor 22% gewijzigd door Mirickle op 12-10-2013 14:21 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Ik zou dan toch eens kijken naar 2 servers met Ceph: Ceph, an open source distributed file system

Dan ben je van al die genoemde problemen af. Zeker als je de 2e server op een andere geografische locatie zet.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Je kan natuurlijk het ook minder efficient oplossen door twee 4TB schijven in een simpel NAS'je te kopen: pricewatch: Seagate Business Storage 2-bay (200 series) 8TB
Goedkoop is het niet maar het kan wel dienen.

Acties:
  • 0 Henk 'm!

Verwijderd

Phuncz schreef op zaterdag 12 oktober 2013 @ 18:29:
Je kan natuurlijk het ook minder efficient oplossen door twee 4TB schijven in een simpel NAS'je te kopen: pricewatch: Seagate Business Storage 2-bay (200 series) 8TB
Goedkoop is het niet maar het kan wel dienen.
Of als snelheid geen issue is, dan kan je voor dat bedrag zelfs klaar zijn inclusief 2x4TB schijven (nu 170/st). Kijk maar eens naar de Zyxel NSA 320 Een vriend van mij streamt hier trouwens gewoon een HD film vanaf naar een client. Dus traag is hij niet, maar je moet geen wonderen verwachten.

Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Is er al iemand hands on gegaan met Ceph?

[ Voor 202% gewijzigd door analog_ op 13-10-2013 01:38 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Ja, we hebben een Ceph cluster draaien. Voor de geïnteresseerden, zie mijn inventaris of in deze post: http://gathering.tweakers.net/forum/view_message/41024434

Acties:
  • 0 Henk 'm!

  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 10-10 12:23
ThinkPadd schreef op vrijdag 11 oktober 2013 @ 17:25:
Als je 8TB wilt backuppen denk ik dat je de verkeerde prioriteiten stelt. Kan ke niet voorstellen dat je 8TB aan persoonlijke data hebt.
2 externe harde schijven van 4TB? Ikzelf doe dit dus ook, een backup maken van alles ipv alleen persoonlijke data ;). Dit is meer luiheid dan kostenreductie.

Acties:
  • 0 Henk 'm!

  • latka
  • Registratie: Januari 2002
  • Laatst online: 01:55
Voordat ik nog meer hardware ga kopen wil ik graag weten of ik een SAS/SATA HBA in een PCI-E x16 kan gebruiken (specifiek op een Intel DH61WWB3 moederbord). Ik wil gebruik gaan maken van een Highpoint DC7280.
Ik heb ooit (lang geleden) begrepen dat Intel zijn chipset/bios/moederbord zo afstelt dat alleen een grafische kaart in een x16 slot zou werken. Ik hoor graag of dit inderdaad klopt.

Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
Ik heb een IBM M1015 in het x16 slot van mijn Intel DH77DF bord zitten. Dus het is in ieder geval niet zo met alle Intel moederborden. Over jouw specifieke bord durf ik niet met zekerheid iets te zeggen. Wel een hele toffe HBA dat je daar hebt, ben benieuwd hoe goed dat werkt :) Wat voor systeem ga je ermee opbouwen?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 12-10 08:00
Het is echt een toffe HBA, maar ik lees *heel* veel slechte verhalen over die controller qua drivers...

Even niets...


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
En geen SMART passthrough zo te lezen... Dat is balen, want dat heeft al een keer mijn data gered met m'n M1015 :( Then again, als je daadwerkelijk 32 schijven gebruikt zul je ook niet meer op iets als RAID-Z1 zitten ofzo :P

Acties:
  • 0 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 07:26
EnerQi schreef op zondag 13 oktober 2013 @ 10:08:
[...]


2 externe harde schijven van 4TB? Ikzelf doe dit dus ook, een backup maken van alles ipv alleen persoonlijke data ;). Dit is meer luiheid dan kostenreductie.
Ieder z'n keuzes :) Ik heb het geld niet liggen om 2x 4TB schijven te kopen (we praten hier wel over meer dan 300 euro voor alleen 2 schijven). Films e.d. zoek ik dan wel opnieuw. Foto's en documenten staan natuurlijk netjes offsite op een externe HDD.

Acties:
  • 0 Henk 'm!

Verwijderd

In de pricewatch zie je de lsi-sas-9211-8i-(sas9211-8i-sgl). Die kost ongeveer 220 €.
Waarom is deze zo veel duurder dan de M1015i (ongeveer 130 €) ?

Acties:
  • 0 Henk 'm!

  • Ravefiend
  • Registratie: September 2002
  • Laatst online: 12-10 16:52

Ravefiend

Carpe diem!

Verwijderd schreef op maandag 14 oktober 2013 @ 12:15:
In de pricewatch zie je de lsi-sas-9211-8i-(sas9211-8i-sgl). Die kost ongeveer 220 €.
Waarom is deze zo veel duurder dan de M1015i (ongeveer 130 €) ?
Goeie vraag waar ik zelf ook al een antwoord heb gezocht maar nog niet heb gevonden. Beide zijn tenslotte gebasseerd op de LSI SAS2008 en als je verder kijkt naar de PCB layout dan zit er quasi dezelfde componenten op:

LSI 9211-8i:
Afbeeldingslocatie: http://www.lsi.com/PublishingImages/hba-9211-8i-large.jpg

IBM M1015:
Afbeeldingslocatie: http://www.redbooks.ibm.com/Redbooks.nsf/e03826cbbba0636c852569d000606d00/05db372b00aaea608525760a0059a7ca/Contents/0.3A6?OpenElement&FieldElemFormat=jpg

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 12-10 08:00
De M1015 is een OEM kaart, garantie gaat dus via IBM en niet via LSI. LSI's eigen support channels werken het liefst met grote partijen, daarom is direct support krijgen bij LSI voor eindgebruikers heel duur.

Je betaald gewoon meer voor het direct krijgen van support bij LSI.

Kaarten zelf zijn verder hetzelfde.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

In dat geval gaan we zien waar ik zo'n M1015 op de kop kan tikken.

Hoe sluit ik 7 sata disks hier op aan ? zijn er 1 naar 8 kabels of is het beter om 2, 1 op 4 kabels te kopen ?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 12-10 08:00
Enige wat mogelijk is, is 1->4 sata, 1->4 sas, 1->1 sas interconnect.

Even niets...


Acties:
  • 0 Henk 'm!

  • Ashe
  • Registratie: November 2001
  • Laatst online: 13-10 10:39
Ik heb ondertussen mijn Asus P5Q Deluxe vervangen door een Asrock B75 Pro3-M, een Core i3 (besloten om er toch iets meer mee te doen) en 8GB geheugen.

Ik heb even nog geaarzeld om voor een Haswell set-up te gaan maar het Asrock B85M Pro3 moederbord kwam maar niet binnen en de performance gain zou te beperkt zijn. Ik plan deze machine nog een jaartje of 3 bij te houden en dan zou de LGA1150 socket toch al niet meer van toepassing zijn (vermoed ik).

De M1115 (crossflashed naar IT mode) draait perfect onder Linux (Slackware 13.1) en na een rebuild van 14 uur (2 disks), staat de 16TB RAID 6 terug leuk te draaien alsof er niets is gebeurd. De performance is stevig verhoogd (vorige had een rebuild per schijf van 22uur). Het zal de combinatie van processorkracht en extra bandbreedte van PCIe2.0x8 zijn. :-)

Ik heb wel wat moeten klooien aangezien mijn opstartschijf (/dev/sda) hernoemd werd naar /dev/sdi en dat vond de kernel tijdens het booten niet leuk. Snel even de /etc/fstab aangepast en in /etc/lilo.conf een addappend="root=/dev/sdi2" en het geheel is opgelost. Heb dan ook maar snel de laatste kernel gecompiled zodat ik terug wat "mee" ben (van 2.6.29 naar 3.11.4).

Ik heb ook gebruik gemaakt van mijn "maintenance periode" en een nieuwe voeding gestoken en wat beter kabel management gedaan. Overall ben ik best wel tevreden.

Dit is sowieso een zoethouder aangezien ik later dit jaar officieel plan te migreren naar FreeBSD met ZFS. De hardware is er alvast klaar voor (ik zal nog 8GB bijsteken op dat moment), alleen zal ik via een tijdelijke "back-up disk" een pijnlijke data migratie doen naar een nieuwe set van 4TB schijven aangezien ik geen nieuw systeem zal maken en het dus zal zijn:
- back-up nemen op 4TB schijf
- 2TB schijven afkoppelen en 4TB schijven aankoppelen. Ook nieuwe bootdisk aankoppelen.
- back-up terugplaatsen
- oude schijven terug aankoppelen en back-up maken
- ...

Bedankt voor al de hulp heren!

Acties:
  • 0 Henk 'm!

  • Aganim
  • Registratie: Oktober 2006
  • Nu online

Aganim

I have a cunning plan..

Inmiddels ben ik al een tijdje aan het uitdenken van een netto 32TB ZFS systeem (omdat het kan! tm), waarbij ik op het volgende ben uitgekomen:

Case: Codegen 4U-55 (10 3.5" drives extern, 2 intern)
NIC: Mellanox MT25204 10Gb/s Infiniband HCA (2x stuks + kabel reeds in bezit)

#ProductPrijsSubtotaal
1Intel Core i3 4340 Boxed€ 133,95€ 133,95
1Asus Z87-WS€ 254,-€ 254,-
10Seagate Desktop HDD.15 (OEM), 4TB€ 145,50€ 1.455,-
1Kingston DataTraveler Micro USB 2.0 16GB Zwart€ 9,32€ 9,32
1Scythe Kozuti 40mm Super-Low Profile€ 25,40€ 25,40
1Corsair Vengeance CMZ32GX3M4A1600C9€ 293,90€ 293,90
1Conceptronic PCI Express Card SATA 600€ 25,45€ 25,45
1Corsair CX430M€ 42,99€ 42,99
2Samsung 840 series Pro 128GB€ 114,95€ 229,90
Bekijk collectie
Importeer producten
Totaal€ 2.469,91


Het idee: FreeNas of NAS4Free wordt vanaf de USB stick geladen. De twee 840's komen in een mirror, welke zal dienen als SLOG en voor L2ARC. De HDD's worden geplaatst in een RAID-Z2 configuratie, dus goed voor 40 - (2x4) = 32TB storage.

Waar ik nog niet helemaal over uit ben, is of de mirror voor de ZIL eigenlijk echt nodig is. Als ik het goed begrijp heb je eigenlijk heb je pas een probleem wanneer de SLOG komt te overlijden, tegelijk met een uitval van de server. Dan zouden de laatste transacties in het log bekeken moeten worden, wat uiteraard dan niet meer mogelijk is.

Wellicht dat een investering in een enkele SSD met Supercaps nuttiger is, iemand die me kan voorzien van advies? (Of het compleet niet eens is met mijn build, onderbouwde kritiek is uiteraard altijd welkom ;) )

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 12-10 08:00
Waarom zo'n belachelijk duur moederbord?
En inderdaad, je kan beter voor 1 SSD met supercaps gaan. Als je zil uitvalt gaat zil gewoon terug naar je pool. Dus je performance kakt in, maar het blijft allemaal prima werken.

Even niets...


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Corsair CX430M heeft condensators van CapXon en die zijn van slechte kwaliteit, je kunt dus beter een andere voeding kiezen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Aganim
  • Registratie: Oktober 2006
  • Nu online

Aganim

I have a cunning plan..

Waarom zo'n belachelijk duur moederbord?
Eerlijk gezegd omdat ik goede ervaring heb met de vorige generatie van de WS serie.

Maar een Gigabyte GA-Z87X-UD5H of ASRock Z87 Extreme6 zijn ook prima, 10x SATA, dubbele netwerkaansluiting en genoeg uitbreidingsmogelijkheden qua PCI-E poorten. Scheelt alweer grofweg een 70-100 euro.
Corsair CX430M heeft condensators van CapXon en die zijn van slechte kwaliteit
Morgen even opzoek naar een alternatief voor de voeding en een andere SSD dus, bedankt voor de adviezen tot dusver. :)

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Is de gekozen i3 trouwens niet erg duur, voor 25 euro meer heb je een i5.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 12-10 08:00
Aganim schreef op woensdag 16 oktober 2013 @ 00:38:
[...]

Eerlijk gezegd omdat ik goede ervaring heb met de vorige generatie van de WS serie.

Maar een Gigabyte GA-Z87X-UD5H of ASRock Z87 Extreme6 zijn ook prima, 10x SATA, dubbele netwerkaansluiting en genoeg uitbreidingsmogelijkheden qua PCI-E poorten. Scheelt alweer grofweg een 70-100 euro.


[...]

Morgen even opzoek naar een alternatief voor de voeding en een andere SSD dus, bedankt voor de adviezen tot dusver. :)
Oh wacht, je neemt dat bord vanwege de vele SATA aansluitingen. Dat zou ik niet doen, pak liever een losse controller een een veel, veel simpeler moederbord. Die extra chips die op die borden zitten zijn niet altijd van even goede kwaliteit.

Een ASRock H77-Pro4-M voldoet al bijna aan jouw eisen, als je daar nog een extra losse ASMedia controller in prikt heb je ook 10x SATA. Pak je 2 van die controllertjes kan je ook nog een setje SSD's kwijt. Marvell controllers (zoals op veel van Gigabyte's, en ASUS' borden zitten), zijn vaak wel geschikt voor ZFS, maar aan de trage kant.


Je wil voor Haswell gaan zie ik net, dan zijn je keuzes inderdaad al wat kleiner. Ik zou toch gaan voor een M1015 controller in dat geval.

Het allergrootste verschil is het stroomverbruik. Dat ASUS bord verbruikt idle al snel een dikke 20W meer dan een simpele ASRock.

[ Voor 11% gewijzigd door FireDrunk op 16-10-2013 08:58 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Aganim
  • Registratie: Oktober 2006
  • Nu online

Aganim

I have a cunning plan..

Ik had mijn keuze ook wat wat duidelijker moeten toelichten, ik zal vanavond nog eens rondsnuffelen.

Acties:
  • 0 Henk 'm!

  • BCC
  • Registratie: Juli 2000
  • Laatst online: 21:58

BCC

Ik ben van plan deze te kopen voor een ZFS setup (cache op de SSD, 2 schijven in mirror raid). Ik zit alleen nog erg te dubben over de behuizing: ik wil zo klein mogelijk en 4x3.5 en 1x2.5 kwijt kunnen. Zijn er nog suggesties?

#ProductPrijsSubtotaal
1Intel Core i5 3470 Boxed€ 162,90€ 162,90
1Intel Desktop Board DQ77MK€ 119,61€ 119,61
2Western Digital Green WD40EZRX, 4TB€ 150,95€ 301,90
1BitFenix Phenom Mini-ITX Zwart€ 0,-€ 0,-
1Lian Li PC-Q18€ 107,-€ 107,-
2Kingston HyperX KHX1600C10D3B1/8G€ 63,09€ 126,18
1be quiet! Pure Power L8 300W€ 39,30€ 39,30
1Intel 320 120GB€ 113,91€ 113,91
Bekijk collectie
Importeer producten
Totaal€ 970,80

Na betaling van een licentievergoeding van €1.000 verkrijgen bedrijven het recht om deze post te gebruiken voor het trainen van artificiële intelligentiesystemen.


Acties:
  • 0 Henk 'm!

  • webfreakz.nl
  • Registratie: November 2003
  • Laatst online: 21-08 15:56

webfreakz.nl

el-nul-zet-é-er

@BCC:

Ik wilde zeggen: kijk eens naar BitFenix voor een kast, maar dat had je al gedaan :)

"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!


Acties:
  • 0 Henk 'm!

  • imdos
  • Registratie: Maart 2000
  • Laatst online: 13-10 10:33

imdos

I use FreeNAS and Ubuntu

@BCC:

Zo klein mogelijk, dan voldoet de HP Microserver N54L precies aan je eisen. Die komt echter wel standaard al met een mainboard met AMD dual core, voeding e.d.

Het is wel niet top notch, in vergelijking met je i5, maar performed niet slecht. Ter vergelijking, ik heb nu een N36L nu met 6 disks (3TB) in RAID-Z1 op FreeNAS 9.1.1 draaien en haal makkelijk over de 10 Mb over Gbit netwerk via NFS naar mijn Core2Duo. Zit denk ik op de 400Mb.

pvoutput. Waarom makkelijk doen, als het ook moeilijk kan! Every solution has a new problem


Acties:
  • 0 Henk 'm!

  • BCC
  • Registratie: Juli 2000
  • Laatst online: 21:58

BCC

@imdos Dat is inderdaad ook een mooi ding, maar ik heb de i5 gepakt vanwege de virtualisatie opties, waar ik ook gelijk mee wil experimenteren (Proxmox op Debian met ZFS, of zoiets :)) En in de HP past maar 2GB ...

Na betaling van een licentievergoeding van €1.000 verkrijgen bedrijven het recht om deze post te gebruiken voor het trainen van artificiële intelligentiesystemen.


Acties:
  • 0 Henk 'm!

  • mcied
  • Registratie: Juni 2009
  • Laatst online: 06:24
Ik wil al een tijdje een zfs opslag server in elkaar zetten, ik wil beginnen met 3x4tb en een ssd als cache. verder moet er ook gedownload worden via nieuwsgroepen, torrents en gesynct via BTSync

Ik wil als de opslag vol is 3x4/5 tb toe kunnen voegen t.z.t. dus vandaar de 8x sata

Nu is mijn vraag is deze processor snel genoeg?

#ProductPrijsSubtotaal
1Intel Pentium G2020 Boxed€ 47,-€ 47,-
1ASRock B75 Pro3-M€ 53,85€ 53,85
3Seagate Desktop HDD.15 (OEM), 4TB€ 145,50€ 436,50
1Cooler Master N300 (Closed)€ 33,50€ 33,50
1Kingston KVR1333D3N9/8G€ 54,95€ 54,95
1Seasonic G-Serie 360Watt€ 58,-€ 58,-
1Crucial 2.5" M500 120GB€ 79,50€ 79,50
Bekijk collectie
Importeer producten
Totaal€ 763,30

Acties:
  • 0 Henk 'm!

  • imdos
  • Registratie: Maart 2000
  • Laatst online: 13-10 10:33

imdos

I use FreeNAS and Ubuntu

BCC schreef op woensdag 16 oktober 2013 @ 22:05:
@imdos Dat is inderdaad ook een mooi ding, maar ik heb de i5 gepakt vanwege de virtualisatie opties, waar ik ook gelijk mee wil experimenteren (Proxmox op Debian met ZFS, of zoiets :)) En in de HP past maar 2GB ...
Die HP wordt std. geleverd met 2 Gb; er past echter 16 (2x8) in, zie het HP topic voor info welke modules supported zijn.

HP zelf gaat echter uit van maar 8 Gb.

Eigenlijk zou een NAS zou toch geen virtualisatie zaken of andere resource intensieve zaken moeten doen, en alleen zo snel mogelijk bestanden serveren. :X

Let wel; ik draai ook Couch, SAB e.d. op mijn N36L O-)

[ Voor 16% gewijzigd door imdos op 17-10-2013 13:21 . Reden: kleine toevoeging ]

pvoutput. Waarom makkelijk doen, als het ook moeilijk kan! Every solution has a new problem


Acties:
  • 0 Henk 'm!

  • imdos
  • Registratie: Maart 2000
  • Laatst online: 13-10 10:33

imdos

I use FreeNAS and Ubuntu

mcied schreef op donderdag 17 oktober 2013 @ 08:52:
Ik wil al een tijdje een zfs opslag server in elkaar zetten, ik wil beginnen met 3x4tb en een ssd als cache. verder moet er ook gedownload worden via nieuwsgroepen, torrents en gesynct via BTSync
[...]
Nu is mijn vraag is deze processor snel genoeg?
Ja, mogelijk wel, maar hoe snel wil je data kunnen serveren? Ik denk eerder dat je geheugen te weinig is. Ik zie maar 8 Gb. Kan je beter meer geheugen inprikken en die SSD later nemen.

Zie ook hier een uitgebreid relaas over hardware en tevens tips voor ZFS.

P.S. Ik draai zelf ook FreeNAS (ondertussen 12,1 T; 6x3TB), in software-RAID en geheugen is cruciaal voor goede performance. Dus of goede HW-raid controller en geen ZFS of een sloot geheugen!

My 2 cents ... :*)

[ Voor 4% gewijzigd door imdos op 17-10-2013 13:28 ]

pvoutput. Waarom makkelijk doen, als het ook moeilijk kan! Every solution has a new problem


Acties:
  • 0 Henk 'm!

  • mcied
  • Registratie: Juni 2009
  • Laatst online: 06:24
imdos schreef op donderdag 17 oktober 2013 @ 13:26:
[...]

Ja, mogelijk wel, maar hoe snel wil je data kunnen serveren? Ik denk eerder dat je geheugen te weinig is. Ik zie maar 8 Gb. Kan je beter meer geheugen inprikken en die SSD later nemen.

Zie ook hier een uitgebreid relaas over hardware en tevens tips voor ZFS.

P.S. Ik draai zelf ook FreeNAS (ondertussen 12,1 T; 6x3TB), in software-RAID en geheugen is cruciaal voor goede performance. Dus of goede HW-raid controller en geen ZFS of een sloot geheugen!

My 2 cents ... :*)
Het moederbord heeft 4 dimms, er is er 1 bezet dus ik kan altijd het geheugen uitbreiden als het te traag is. Dus max 32 gig
Ik wou de ssd partioneren en er het os opzetten/ zil en slog.

Acties:
  • 0 Henk 'm!

  • imdos
  • Registratie: Maart 2000
  • Laatst online: 13-10 10:33

imdos

I use FreeNAS and Ubuntu

mcied schreef op donderdag 17 oktober 2013 @ 14:01:
[...]


Het moederbord heeft 4 dimms, er is er 1 bezet dus ik kan altijd het geheugen uitbreiden als het te traag is. Dus max 32 gig
Oke, prima, maar meer is beter. Ik kan niet in je portemonee kijken, maar daar zit meer snelheidswinst in dan met een SSD.
Ik wou de ssd partioneren en er het os opzetten/ zil en slog.
1: Let op; bij FreeNAS kan je je SSD niet inzetten als boot-schijf, dan ben je alle overige ruimte kwijt. Mocht je echter voor Linux / FreeBSD o.i.d. gaan, dan heb je daar geen last van.
2: Ergo, sinds FreeNAS 9.1.1 zit er een util in die test of je daadwerkelijk voordeel hebt aan een cache / L2ARC / zil.
3: Als je zil / slog (ook?) corrupt raken is je ZFS naar de filistijnen, Ik hoop dat je een UPS of iets neemt 8)7

pvoutput. Waarom makkelijk doen, als het ook moeilijk kan! Every solution has a new problem


Acties:
  • 0 Henk 'm!

  • mcied
  • Registratie: Juni 2009
  • Laatst online: 06:24
imdos schreef op donderdag 17 oktober 2013 @ 15:15:
[...]

Oke, prima, maar meer is beter. Ik kan niet in je portemonee kijken, maar daar zit meer snelheidswinst in dan met een SSD.

[...]

1: Let op; bij FreeNAS kan je je SSD niet inzetten als boot-schijf, dan ben je alle overige ruimte kwijt. Mocht je echter voor Linux / FreeBSD o.i.d. gaan, dan heb je daar geen last van.
2: Ergo, sinds FreeNAS 9.1.1 zit er een util in die test of je daadwerkelijk voordeel hebt aan een cache / L2ARC / zil.
3: Als je zil / slog (ook?) corrupt raken is je ZFS naar de filistijnen, Ik hoop dat je een UPS of iets neemt 8)7
Oke dus als ik het zo hoor kan ik beter de ssd eruit halen, er 16 gb geheugen instoppen, ZFSguru of FreeNas op een usb stick zetten.

Als ik dan ooit een ssd erin wil moet ik er dan 2 instoppen.

Acties:
  • 0 Henk 'm!

  • BCC
  • Registratie: Juli 2000
  • Laatst online: 21:58

BCC

Ja, maar dan moet je ook weer opletten dat je er twee van verschillende fabrikanten, series en liefst technieken pakt. Twee SSDs in Mirror Raid helpt namelijk niet, aangezien die beide bij exact het zelfde aantal writes dood zullen gaan.

[ Voor 20% gewijzigd door BCC op 17-10-2013 17:12 ]

Na betaling van een licentievergoeding van €1.000 verkrijgen bedrijven het recht om deze post te gebruiken voor het trainen van artificiële intelligentiesystemen.


Acties:
  • 0 Henk 'm!

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 10-10 19:40
BCC schreef op donderdag 17 oktober 2013 @ 17:11:
Twee SSDs in Mirror Raid helpt namelijk niet, aangezien die beide bij exact het zelfde aantal writes dood zullen gaan.
Nu zeg je dat de levensduur van een cel in een SSD voorgeprogrammeerd is en vast staat.

Acties:
  • 0 Henk 'm!

  • imdos
  • Registratie: Maart 2000
  • Laatst online: 13-10 10:33

imdos

I use FreeNAS and Ubuntu

mcied schreef op donderdag 17 oktober 2013 @ 15:35:
[...]


Oke dus als ik het zo hoor kan ik beter de ssd eruit halen, er 16 gb geheugen instoppen, ZFSguru of FreeNas op een usb stick zetten.
Ja, als je voorkeur uitgaat naar een makkelijk OS met ZFS support. Als je een beetje meer vrijheid wil in configuratie en bereidt bent vrije tijd op te geven zou je ook Linux of FreeBSD zelf kunnen installeren.
Als ik dan ooit een ssd erin wil moet ik er dan 2 instoppen.
2 SSD's is absoluut geen vereiste, Tenzij je een RAID opstelling wil voor je SSD. 1 SSD met L2ARC en/of data of reguliere swap (ja, die heb je nodig, anders lever je ruimte op je HDD's in (en kun je misschien geen APM doen)), dit is maximaal 2,5x je hoeveelheid geheugen voor een volledige dump, mocht je een crash hebben (Althans dat was vroeg altijd de stelregel in Linux en andere UNIX'en).

pvoutput. Waarom makkelijk doen, als het ook moeilijk kan! Every solution has a new problem


Acties:
  • 0 Henk 'm!

  • BCC
  • Registratie: Juli 2000
  • Laatst online: 21:58

BCC

Durandal schreef op donderdag 17 oktober 2013 @ 19:56:
[...]

Nu zeg je dat de levensduur van een cel in een SSD voorgeprogrammeerd is en vast staat.
Nee, maar aangezien je twee ssds exact hetzelfde laat doen en gezien het feitbdat Ssd cellen een beperkt aantal writes aankunnen is de kans dat ze zeer dicht in de buurt van elkaar dood gaan erg groot. Veel groter dan bij een hdd.

Na betaling van een licentievergoeding van €1.000 verkrijgen bedrijven het recht om deze post te gebruiken voor het trainen van artificiële intelligentiesystemen.


Acties:
  • 0 Henk 'm!

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 10-10 19:40
Bij mij gingen 2 reguliere HDDs binnen een uur na elkaar dood, en 2 andere bleken later ook slecht te zijn. Wel mijn raid5 kwijt.
Zelfde merk, zelfde serie, dat wel, maar toch.

Ik denk echter niet dat het zo verschillend is voor SDDs. Die banen in een IC zijn echt niet allemaal uniform even dik. Daar zit veel variatie tussen en de levensduur van een schakeling in een IC kan je niet echt voorspellen. De ene zal eerder falen dan de andere.
Dat beperkt aantal writes is gebaseerd op een statistisch minimum.

Acties:
  • 0 Henk 'm!

  • BCC
  • Registratie: Juli 2000
  • Laatst online: 21:58

BCC

Zelfde merk en zelfde serie is natuurlijk zowieso niet zo slim om een Raid Array mee op te bouwen.
Maar laat ik het dan zo zeggen: het internet is over het nut van SSDs in een Mirror Raid verdeeld :)

En dat is voor mij reden genoeg om wel een SSD in te zetten als ZFS Cache, maar bijvoorbeeld NIET een mirror op te bouwen met SSDs in Raid aangezien ik mijn data best belangrijk vind.

Na betaling van een licentievergoeding van €1.000 verkrijgen bedrijven het recht om deze post te gebruiken voor het trainen van artificiële intelligentiesystemen.


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 22:58
BCC schreef op donderdag 17 oktober 2013 @ 17:11:
Ja, maar dan moet je ook weer opletten dat je er twee van verschillende fabrikanten, series en liefst technieken pakt. Twee SSDs in Mirror Raid helpt namelijk niet, aangezien die beide bij exact het zelfde aantal writes dood zullen gaan.
Nou, dat is ook wat overdreven... Daarom doe je aan overprovisioning en de kans statistisch gezien dat op ZFS een block op 2 SSD's onleesbaar is, is bijna nihil.

Het mixen van technieken is ook larie. Je moet opletten dat je als ZIL SSD's gebruikt die tegen stroomuitvallen kunnen OF een UPS gebruiken. Dat zijn de gevoeligheden van ZFS, niets meer niks minder.

Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
zil+ups=queue cipher/firedrunk met voeding falen.

[ Voor 34% gewijzigd door analog_ op 18-10-2013 17:37 ]


Acties:
  • 0 Henk 'm!

  • Stenii
  • Registratie: November 2011
  • Laatst online: 01-07-2021
Ik begin een beetje te kampen met ruimte gebrek bij mijn pc, ik zit er nu aan te denken om een klein thuisservertje te bouwen. Het is voornamelijk voor mijn films, muziek en ik wil af en toe wat bestanden backuppen. Ik ben al een beetje gaan kijken en ik heb al een systeempje samengesteld en ik zat te denken om er freeNAS op te zetten. Is het dan ook handig om ZFS te nemen als bestand systeem. Ik heb nog een oude laptop schijf daar wil ik freeNAS op installeren.

Ik heb thuis ook nog 2 andere hardeschijven liggen, kan je bij ZFS met verschillende soorten schijven werken?

Systeem
Intel Pentium G860 Boxed
€ 62,30 € 62,30
Asus P8-H77-I
€ 93,94 € 93,94
2x Seagate Barracuda 7200.14 ST2000DM001, 2TB
€ 74,85 € 149,70
Fractal Design Node 304 Zwart
€ 69,40 € 69,40
Corsair XMS3 CMX8GX3M1A1333C9 8gb
€ 66,70 € 66,70
be quiet! Pure Power L7 300W
€ 37,95 € 37,95

Pak ik dit zo een beetje slim aan? Of zie ik dingen over het hoofd. Alvast bedankt!

Gr Sten

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 22:58
analog_ schreef op vrijdag 18 oktober 2013 @ 17:37:
zil+ups=queue cipher/firedrunk met voeding falen.
Huh? Ik heb hier al tijden een Supermicro + ZIL en een UPS, niks aan de hand. Uiteraard is het beter dat je een supercapped SSD gebruikt, dan ben je nog veiliger, maar als je voeding echt vonk zegt helpt dat ook niet hoor ;)

Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
Heb je mij weer met m'n schijf problemen :) Ik heb mijn ZFS NAS enige tijd geleden uitgezet, en toen waren er bij mijn weten niet/nauwelijks fouten in de SMART data. Nu zet ik de bak vandaag aan en krijg ik een waarschuwing naar mijn hoofd dat /dev/sdf nu aan het falen is. Kan dit een meetfout zijn (kan ik gokken, RAIDZ2 FTW!) of is dit gewoon echt einde verhaal voor deze schijf?

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
$ sudo smartctl -A /dev/sdf
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.11.1-200.fc19.x86_64] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF READ SMART DATA SECTION ===
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000b   050   050   062    Pre-fail  Always   FAILING_NOW 1195900928
  2 Throughput_Performance  0x0005   100   100   040    Pre-fail  Offline      -       0
  3 Spin_Up_Time            0x0007   169   169   033    Pre-fail  Always       -       1
  4 Start_Stop_Count        0x0012   100   100   000    Old_age   Always       -       452
  5 Reallocated_Sector_Ct   0x0033   100   100   005    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x000b   100   100   067    Pre-fail  Always       -       0
  8 Seek_Time_Performance   0x0005   100   100   040    Pre-fail  Offline      -       0
  9 Power_On_Hours          0x0012   086   086   000    Old_age   Always       -       6477
 10 Spin_Retry_Count        0x0013   100   100   060    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       127
191 G-Sense_Error_Rate      0x000a   100   100   000    Old_age   Always       -       0
192 Power-Off_Retract_Count 0x0032   100   100   000    Old_age   Always       -       32
193 Load_Cycle_Count        0x0012   058   058   000    Old_age   Always       -       427590
194 Temperature_Celsius     0x0002   253   253   000    Old_age   Always       -       18 (Min/Max 15/49)
196 Reallocated_Event_Count 0x0032   100   100   000    Old_age   Always       -       2
197 Current_Pending_Sector  0x0022   100   100   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0008   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x000a   200   200   000    Old_age   Always       -       0
223 Load_Retry_Count        0x000a   100   100   000    Old_age   Always       -       0


Wel valt me op dat de waarde niet groeit als ik ZFS een scrub laat doen...

Sterker nog, enige tijd na het beginnen van de scrub is de Raw_Read_Error_Rate ineens weer 0... Wat heb ik nou dan weer voor een vage schijf erin hangen?

Acties:
  • 0 Henk 'm!

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 07:51
Stenii schreef op vrijdag 18 oktober 2013 @ 19:42:
Intel Pentium G860 Boxed
€ 62,30 € 62,30
'k Zou iig een andere CPU pakken, die is nog Sandy Bridge gebaseerd. Voor minder geld heb je ook een Ivy Bridge versie, bv pricewatch: Intel Pentium G2030 Boxed

Acties:
  • 0 Henk 'm!

  • maniak
  • Registratie: Augustus 2000
  • Laatst online: 21-09 08:52
Ik heb nu een tijdje FreeNAS draaien en wil er nu meer mee, voornamelijk een soort "persoonlijke cloud" creëren. Nu is er een plugin "ownCloud" die dit blijkbaar mogelijk maakt. Het installeren van de plugin ging goed maar het starten niet. Nu blijkt dat ik Apache en PHP moet installeren op de NAS maar daar zijn geen plugins voor.

Na wat zoeken kom ik het volgende tegen: http://forums.freenas.org...1-into-plugin-jail.11519/

Maar wat ik niet begrijp, wat is "Jails"? Is het een soort virtual deel waar geïnstalleerde software in kan draaien als een vorm van beveiliging? Tevens zie ik de commando's "portsnap fetch extract" en "cd /usr/ports/lang/php5 && make config" voorbij komen. Hij kent geen portsnap en ik kan ook geen directory /urs/ports vinden..

Iemand die me wat tips kan geven om Apache en PHP geïnstalleerd te krijgen voor ownCloud? Of kan ik dit beter niet doen en zijn er betere personal cloud oplossingen voor FreeNAS 9?

Acties:
  • 0 Henk 'm!

  • webfreakz.nl
  • Registratie: November 2003
  • Laatst online: 21-08 15:56

webfreakz.nl

el-nul-zet-é-er

maniak schreef op dinsdag 22 oktober 2013 @ 15:21:
Maar wat ik niet begrijp, wat is "Jails"? Is het een soort virtual deel waar geïnstalleerde software in kan draaien als een vorm van beveiliging?
Wikipedia: FreeBSD jail

"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!


Acties:
  • 0 Henk 'm!

  • maniak
  • Registratie: Augustus 2000
  • Laatst online: 21-09 08:52
En ik maar zoeken met Google en weinig over kunnen vinden.. goed om te weten dat ik dus ook hiermee dingen kan uitproberen zonder mijn FreeNAS om zeep te helpen :) Nu nog een goeie manier vinden om Apache + PHP te draaien.

Acties:
  • 0 Henk 'm!

  • Eagleman7
  • Registratie: Januari 2009
  • Laatst online: 24-07 03:01
Ik heb op het moment dit systeem draaien thuis:

Dit systeem draait onder esxi en ik heb op het moment 2 HDD's ge forward doormiddel van RDM.

#ProductPrijsSubtotaal
1Intel Core i5 4670 Boxed€ 187,90€ 187,90
1Intel Desktop Board DB85FL€ 76,50€ 76,50
1Western Digital Red WD30EFRX, 3TB€ 116,95€ 116,95
1BitFenix Merc Alpha€ 32,-€ 32,-
1Kingston DataTraveler 100 G2 8GB Zwart€ 7,81€ 7,81
1Intel Gigabit CT Desktop Adapter€ 21,83€ 21,83
1Crucial Ballistix Sport BLS4C8G3D1609ES2LX0BEU€ 284,50€ 284,50
1be quiet! Pure Power L7 300W€ 37,95€ 37,95
1Seasonic G-Serie 360Watt€ 57,-€ 57,-
1Crucial RealSSD C300 2.5" 64GB€ 193,-€ 193,-
1Samsung 840 series Pro 256GB€ 194,-€ 194,-
Bekijk collectie
Importeer producten
Totaal€ 1.209,44



Ik sta nu voor de keuze om een extra harde schijf er bij te kopen ( ik heb nog ongeveer 1 TB over van de 2 harde schijfen die ik nu heb ) en deze dan LVM te gebruiken om een pool van 6 TB te maken met 2 WD RED's.

Of toch maar voor een IBM ServeRAID M1015 SAS/SATA Controller te gaan en deze doormiddel van VT-D te forwarden naar een ZFS machine en dan een pool te maken van 4 TB in totaal: TB 1 TB WD Green + 3 TB WD RED.

De laatstgenoemde lijkt mij een stuk veiliger om te doen maar 130 euro voor een SAS/SATA Controller blijft natuurlijk veel geld.

Wat adviseren jullie mij om te doen?

Acties:
  • 0 Henk 'm!

  • ilovebrewski
  • Registratie: Augustus 2010
  • Laatst online: 02-04 21:37
Ik heb begin dit jaar gekozen voor een setup van ZFSguru met 5 stuks 3 TB WD RED in RAIDZ1. Hiervoor gekozen vanwege de garantie van 3 jaar en het lage vermogen.
Echter wil ik nog steeds TLER uitschakelen omdat ik een ZFS configuratie heb. Zijn er mensen die hier ervaring mee hebben? WDTLER.exe schijnt niet meer te werken met deze harde schijven.

[ Voor 11% gewijzigd door ilovebrewski op 29-10-2013 13:08 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 12-10 08:00
Eagleman7 schreef op woensdag 23 oktober 2013 @ 11:33:
Ik heb op het moment dit systeem draaien thuis:

Dit systeem draait onder esxi en ik heb op het moment 2 HDD's ge forward doormiddel van RDM.

#ProductPrijsSubtotaal
1Intel Core i5 4670 Boxed€ 187,90€ 187,90
1Intel Desktop Board DB85FL€ 76,50€ 76,50
1Western Digital Red WD30EFRX, 3TB€ 116,95€ 116,95
1BitFenix Merc Alpha€ 32,-€ 32,-
1Kingston DataTraveler 100 G2 8GB Zwart€ 7,81€ 7,81
1Intel Gigabit CT Desktop Adapter€ 21,83€ 21,83
1Crucial Ballistix Sport BLS4C8G3D1609ES2LX0BEU€ 284,50€ 284,50
1be quiet! Pure Power L7 300W€ 37,95€ 37,95
1Seasonic G-Serie 360Watt€ 57,-€ 57,-
1Crucial RealSSD C300 2.5" 64GB€ 193,-€ 193,-
1Samsung 840 series Pro 256GB€ 194,-€ 194,-
Bekijk collectie
Importeer producten
Totaal€ 1.209,44



Ik sta nu voor de keuze om een extra harde schijf er bij te kopen ( ik heb nog ongeveer 1 TB over van de 2 harde schijfen die ik nu heb ) en deze dan LVM te gebruiken om een pool van 6 TB te maken met 2 WD RED's.

Of toch maar voor een IBM ServeRAID M1015 SAS/SATA Controller te gaan en deze doormiddel van VT-D te forwarden naar een ZFS machine en dan een pool te maken van 4 TB in totaal: TB 1 TB WD Green + 3 TB WD RED.

De laatstgenoemde lijkt mij een stuk veiliger om te doen maar 130 euro voor een SAS/SATA Controller blijft natuurlijk veel geld.

Wat adviseren jullie mij om te doen?
Welk guest OS gaat het om?

Even niets...


Acties:
  • 0 Henk 'm!

  • Eagleman7
  • Registratie: Januari 2009
  • Laatst online: 24-07 03:01
Op dit moment Ubuntu, later misschien Archlinux

Acties:
  • 0 Henk 'm!

  • soulcrusher
  • Registratie: Augustus 2009
  • Laatst online: 09-10 00:03
Ik ben ook bezig met het bouwen van een NAS. Heb zojuist een testopstelling draaien met de volgende harware:
#ProductPrijsSubtotaal
1AMD A8-3870K Black Edition€ 70,49€ 70,49
1ASRock AMD A75 A75M-ITX€ 32,15€ 32,15
1WD Red SATA 6 Gb/s WD30EFRX, 3TB€ 116,-€ 116,-
1Fractal Design Node 304 Zwart€ 66,71€ 66,71
1Scythe Mugen 4 PCGH Edition€ 37,30€ 37,30
1Transcend JetRam JM1600KLN-2G€ 18,97€ 18,97
1be quiet! Pure Power L7 300W€ 37,95€ 37,95
Bekijk collectie
Importeer producten
Totaal€ 379,57

Momenteel heb ik maar 1 WDRed om te kijken hoe alles functioneerd maar wil graag uitbreiden tot 6 Reds RaidZ2 met uiteraard 8-16 gb geheugen. Ik heb echter nog een paar vraagjes:
Is het nodig TLER uit te schakelen?
Is een picopsu 160watt toereikend voor bovenstaande hardware met 6 Reds?
Is het beter om een extra ssd of 2.5 inch hdd toe te voegen voor de downloads die bezig zijn om zo energie te sparen? Of is het verschil tussen idle en load bij Reds verwaarloosbaar?
Is het verstandig om spindowns toe te laten of is het beter om ze altijd te laten draaien?

iRacing Profiel


Acties:
  • 0 Henk 'm!

Verwijderd

PicoPSU ga je niet redden; die CPU trekt zelf al 100W laat staan de rest. Met één schijf gaat het wel werken, maaar met 6 kan het te krap worden. Discussie over TLER kun je boven lezen. Hardeschijven verbruiken bijna niets extra tussen idle en actief (read/write). Dat laatste boeit ook weinig omdat je het percentueel maar heel weinig doet vergeleken met 24/7 idle. Je kunt ook overwegen Green te halen ipv Red.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 12-10 08:00
Eagleman7 schreef op dinsdag 29 oktober 2013 @ 14:17:
[...]


Op dit moment Ubuntu, later misschien Archlinux
Als je nu MDADM gebruikt kan je toch prima een disk erbij zetten? Ik snap je afweging niet zo. Of je nou 2 of 3 disks via RDM doorgeeft maakt toch niet zoveel uit?

Even niets...


Acties:
  • 0 Henk 'm!

  • soulcrusher
  • Registratie: Augustus 2009
  • Laatst online: 09-10 00:03
Verwijderd schreef op dinsdag 29 oktober 2013 @ 15:36:
PicoPSU ga je niet redden; die CPU trekt zelf al 100W laat staan de rest. Met één schijf gaat het wel werken, maaar met 6 kan het te krap worden. Discussie over TLER kun je boven lezen. Hardeschijven verbruiken bijna niets extra tussen idle en actief (read/write). Dat laatste boeit ook weinig omdat je het percentueel maar heel weinig doet vergeleken met 24/7 idle. Je kunt ook overwegen Green te halen ipv Red.
Ik dacht wel dat een PicoPSU krap zou worden, maar dacht wellicht kan cpu undervolten/clocken helpen. Het systeem trekt standaard met 1 Red 100 watt met booten en 40 watt idle (~10%).
Over TLER, ik heb vanalles gelezen, waaronder je post van een paar pagina's terug. Mijn gedachte was dat het niet zoveel interesseerde of je het aan had of niet bij ZFS. Maar aangezien hierboven iemand het uit wou zetten begon ik toch te twijfelen.

Bedankt iig voor de adviezen, ik zal het wel gewoon zo laten qua voeding.

iRacing Profiel


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 12-10 08:00
TLER is niet dodelijk voor ZFS, het is hooguit een functie die tegenwerkt als het er echt op aan komt (recovery zonder redundantie).

Als je gewoon keurig je diskjes vervangt en je aan de regeltjes houdt verder is er niets aan de hand.

Even niets...

Pagina: 1 ... 136 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.