Acties:
  • 0 Henk 'm!

  • De Fluppe
  • Registratie: April 2008
  • Laatst online: 18-02 21:03
Volgens de website van ASRock worden bij het Q1900DC-ITX bordje 2 SATA Power Cables meegeleverd.

Accessories
- Quick Installation Guide, Support CD, I/O Shield
- 2 x SATA Data Cables
- 2 x SATA Power Cables
- 1 x WiFi Module Screw

Gaat het om kabels met een aansluiting voor 1 HDD, of zijn deze al gesplit?
Het bordje heeft 2 SATA_PWR aansluitngen en 4 SATA data poorten.

Kortom, is het noodzakelijk om een Silverstone SST-CP06 4x SATA te bestellen als ik 4 HDD's wil installeren?

Google en Youtube unboxing video's gaven jammer genoeg geen uitsluitsel! :)

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 23:00
Geen idee, maar je suggestie gaat sowieso niet werken. Je hebt een kabel met een mini plug nodig.

Acties:
  • +1 Henk 'm!

Verwijderd

Natuurlijk gaat dat wel werken. Want hij sluit die splitterkabel natuurlijk aan op de Mini-kabel. Die heeft aan de ene kant een mini-plug die in het moederbord gaat, maar aan de andere kant een gewone SATA power plug die normaliter in je hardeschijf of SSD gaat, maar nu in die splitterkabel. Dus dat gaat zeker wel werken.

Ik heb het bordje hier, maar kabels enzo moet ik wel opzoeken want die gebruik ik niet. Ik gebruik één ATX voeding voor alle systemen, vandaar. Dus als je geduld hebt kan ik het binnenkort voor je uitzoeken. Tenzij iemand anders al het verlossende woord kan geven. :)

Acties:
  • +1 Henk 'm!

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 23:32
De Fluppe schreef op zondag 20 september 2015 @ 12:34:
Volgens de website van ASRock worden bij het Q1900DC-ITX bordje 2 SATA Power Cables meegeleverd.

Gaat het om kabels met een aansluiting voor 1 HDD, of zijn deze al gesplit?
Het bordje heeft 2 SATA_PWR aansluitngen en 4 SATA data poorten.
De vraag is al vaker gesteld, ook in dit topic. Zie daarnaast:Harrie in "Het grote DIY RAID NAS topic deel 3"

[ Voor 6% gewijzigd door Nielson op 20-09-2015 13:58 ]


Acties:
  • +1 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 23:00
Ja, ik snap je punt. Dan moet je dus beide kabels gebruiken. Je kan niet die Silverstone kabel rechtstreeks op het moederbord aansluiten.

Acties:
  • 0 Henk 'm!

  • Scorpei
  • Registratie: Oktober 2006
  • Laatst online: 23-03-2022
Korte vraag tijd :D!

Even samenvatten in een vogelvlucht: Ik heb een DIY NAS, bestaand uit linux 8x1tb software raid6. Nu wil/heb ik deze vervangen (mede door uitvallen van 2 disks...) door een nieuwe set, maar zit ik nog te twijfelen over de opbouw. Essentie: ik wil mijn data veilig hebben, binnen redelijkheid. Er zijn (nog) geen kinderen, maar het is met name dat soort data en belastingen die ik veilig wil hebben. Encryptie hoeft van mij niet (en dedup ook niet). Dit is mede gezien de grootte effectief de enige plek waar deze data komt te staan. Gedeeltelijk komt data wel ook op de user PCs natuurlijk, maar ik ga er van uit dat het daar NIET veilig staat en dus geen goede 'backup' is.

De hardware voor nu:
-M-ITX ASRock E3C224D2 met 8gb ECC ram (2 reepjes van 4)
-32gb USB stick (2.0) op de interne header
-1x8TB usb3 Seagate Archive disk
-APC Back-Up CS 350 (UPS) met nieuwe accu (gracefull powerdown na powerfailure)
-Pico PSU 60W (kan vervangen worden door Nexus 430W silent bijvoorbeeld)

Nadeeltje dat ik ondervind is dat ik het niet lekker aan de praat krijg met FreeNAS en USB3. Kan zijn dat dat aan mijn instellingen ligt (iemand een suggestie?), maar daarvoor moet ik een reinstall doen. Na aanzetten van USB3 vind hij namelijk de root niet meer terwijl grub nog wel netjes start.

Waar ik bang voor bang: URE, extreme rebuild tijden (waarbij URE weer een rol gaat spelen), bitrot, fout op een plek die de hele pool stuk laat zijn (URE/bitrot op de verkeerde plek)
Waar ik minder bang voor ben: virus infecties (maar speelt wel mee natuurlijk), user error (op te vangen met snapshots van zeg 1 week bewaartijd?), brand, blikseminslag (opgevangen door de UPS), stroomverbruik (de machine staat niet 24/7 aan maar zal meestal zeg eens per week mogen draaien om de backups weg te schrijven).

Ik twijfel nu over de volgende setups:
- 3x4tb raidz1 + 8tb USB mirror (dus alles aan de machine) | minder kans op parity problemen en ook bij de rebuild, er is altijd een extra parity beschikbaar (soort parity =2 of copies =2)
- 3x4tb raidz1 + 8tb voor snapshots (dus backup los van machine) | veiliger bij blikseminslag, maar meer kans op dataverlies lijkt me (er is voor de 8tb geen parity data)
- 2x8tb mirror (dus alles aan de machine) | lange rebuild times en met een URE van 10^14 vrijwel gegarandeerd een failure?
- 1x8tb + 1x8tb USB backup uit snapshots | Geen realistische optie denk ik door gebrek aan parity? Maar eigenlijk is het verder vrijwel hetzelfde als een mirror setup)
- Andere oplossing waar ik nog niet aan heb gedacht

Alles draait op ZFS in verband met de copy on write en parity checks voor bitrot (scrubben). Dat laatste mag hij van mij minimaal maandelijks doen, maar kost toch vlot een dag. Ik probeer natuurlijk mijn disks altijd van verschillende batches en het liefste van verschillende merken te draaien. Slecht voor performance, minder risico op failure (zie de huidige array die 2 Hitatchi overleden heeft, de samsung en WDs draaien nog perfect).

Graag hoor ik jullie suggesties :)! OP het moment leun ik zelf erg naar de 3x4 raidz1 + mirror optie. Los van het afbranden van het huis (ik las ergens 1 / 10.000 kans) lijkt me dat de meest robuuste oplossing wat betreft de HDD data veiligheid.

Owner of http://scorpei.com/


Acties:
  • 0 Henk 'm!

  • Nindustries
  • Registratie: Januari 2012
  • Laatst online: 17-09 15:03
Scorpei schreef op maandag 21 september 2015 @ 11:47:
Nadeeltje dat ik ondervind is dat ik het niet lekker aan de praat krijg met FreeNAS en USB3. Kan zijn dat dat aan mijn instellingen ligt (iemand een suggestie?), maar daarvoor moet ik een reinstall doen. Na aanzetten van USB3 vind hij namelijk de root niet meer terwijl grub nog wel netjes start.
FreeNAS werkt inderdaad soms niet goed met USB3.0.
Al dit eens gedaan?
when using a USB stick, USB 3.0 support is disabled by default as it currently is not compatible with some hardware, including Haswell (Lynx point) chipsets. If you receive a “failed with error 19” message when trying to boot FreeNAS®, make sure that xHCI/USB3 is disabled in the system BIOS. While this will downclock the USB ports to 2.0, the bootup and shutdown times will not be significantly different. To see if USB 3.0 support works with your hardware, follow the instructions in Tunables to create a “Tunable” named xhci_load, set its value to YES, and reboot the system.

[ Voor 35% gewijzigd door Nindustries op 21-09-2015 11:56 ]

~ beware of misinformation.


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 01:48
Scorpei schreef op maandag 21 september 2015 @ 11:47:


Waar ik bang voor bang: URE, extreme rebuild tijden (waarbij URE weer een rol gaat spelen), bitrot, fout op een plek die de hele pool stuk laat zijn (URE/bitrot op de verkeerde plek)
Vanaf 4TB spindles begin ik voor dubbele pariteit te gaan. Just my 2 cents, kans wordt te groot dat ik een URE tegenkom imho.
Waar ik minder bang voor ben: virus infecties (maar speelt wel mee natuurlijk), user error (op te vangen met snapshots van zeg 1 week bewaartijd?), brand, blikseminslag (opgevangen door de UPS), stroomverbruik (de machine staat niet 24/7 aan maar zal meestal zeg eens per week mogen draaien om de backups weg te schrijven).
Snapshotten en senden naar onafhankelijke disk.
Ik twijfel nu over de volgende setups:
- 3x4tb raidz1 + 8tb USB mirror (dus alles aan de machine) | minder kans op parity problemen en ook bij de rebuild, er is altijd een extra parity beschikbaar (soort parity =2 of copies =2)
- 3x4tb raidz1 + 8tb voor snapshots (dus backup los van machine) | veiliger bij blikseminslag, maar meer kans op dataverlies lijkt me (er is voor de 8tb geen parity data)
Dat tweede lijkt me prima. 3 x 4TB is goed te doen, 8TB als backup destination is perfect...
- 2x8tb mirror (dus alles aan de machine) | lange rebuild times en met een URE van 10^14 vrijwel gegarandeerd een failure?
Ik heb nu al een horrorverhaal gehoord van die 8TB disks via DM waardoor ik al heel argwanend ben om daar uberhaupt mijn data met RAIDZ3 op te slaan...
- 1x8tb + 1x8tb USB backup uit snapshots | Geen realistische optie denk ik door gebrek aan parity? Maar eigenlijk is het verder vrijwel hetzelfde als een mirror setup)
- Andere oplossing waar ik nog niet aan heb gedacht
Geen voorstander van bovenstaande opties...
Alles draait op ZFS in verband met de copy on write en parity checks voor bitrot (scrubben). Dat laatste mag hij van mij minimaal maandelijks doen, maar kost toch vlot een dag.
:S Ik heb 10 x 4TB in RAIDZ2, een scrub duurt bij mij 7 of 9h, ben het even kwijt...
Ik probeer natuurlijk mijn disks altijd van verschillende batches en het liefste van verschillende merken te draaien. Slecht voor performance, minder risico op failure (zie de huidige array die 2 Hitatchi overleden heeft, de samsung en WDs draaien nog perfect).

Graag hoor ik jullie suggesties :)! OP het moment leun ik zelf erg naar de 3x4 raidz1 + mirror optie. Los van het afbranden van het huis (ik las ergens 1 / 10.000 kans) lijkt me dat de meest robuuste oplossing wat betreft de HDD data veiligheid.
Ik ben het met je eens, alhoewel ik 1/3 aan pariteit wel veel verlies vind, maar goed als je dat niet wil staat daar natuurlijk een hogere investering tegenover...

Acties:
  • 0 Henk 'm!

  • Scorpei
  • Registratie: Oktober 2006
  • Laatst online: 23-03-2022
Thnx Nindustries! Dat heb ik inderdaad geprobeerd. Met de BIOS op SmartAuto voor Intel Mode USB 3.0 (don't ask me :P) en de tunable blijft mijn seagate USB2.0 snelheden houden. Zet ik die op Enable (andere optie is Disable) werkt de seagate op USB3 snelheden (ik zie in ieder geval een andere melding bij het opstarten van freenas, iets met USB 5GHz?) maar kan hij dus de root device (root partition) niet meer vinden met Error 2 ("Mounting from zfs:freenas-boot/ROOT/default failed with error 2"). Iets dat meestal voorkomt als je die disk verplaatst naar een USB3 poort en die op disabled staat.

Als ik USB legacy 3.0 uit zet (van enable af naar disable) werkt in z'n geheel USB niet meer voor keyboard en muis en mag ik de bios batterij verwijderen.

Kanttekening bij mn array vraag, de USB3 disk is in een pre-built behuizing gekocht en wil ik ook graag zou houden (als USB3 disk). Een soort hot-swap on the cheap.

<edit> zag nog net een nieuwe reactie binnen schieten, zo even kijken ;) </edit>

Owner of http://scorpei.com/


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 26-09 16:30
HyperBart schreef op maandag 21 september 2015 @ 15:53:
Vanaf 4TB spindles begin ik voor dubbele pariteit te gaan. Just my 2 cents, kans wordt te groot dat ik een URE tegenkom imho.

[...]

:S Ik heb 10 x 4TB in RAIDZ2, een scrub duurt bij mij 7 of 9h, ben het even kwijt...
Met 10 schijven zou ik dat ook doen :) Ik heb er 5 in Z1, dus dezelfde parity/byte-verhouding :P Het belangrijkste (want die ~14 TB is lang niet allemaal kritisch) zet ik inderdaad met send/receive over naar een NAS ~100 km verderop.

Hoe lang een scrub er over doet zou ik niet weten, FreeNAS mailt me alleen als hij begint :?

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Scorpei
  • Registratie: Oktober 2006
  • Laatst online: 23-03-2022
Goed te horen dat scrubben iig niet al te lang duurt. Een rebuild is natuurlijk een tweede. Voor een mirror zou dat best zeg 1 dag kunnen zijn met 8TB (die bedoelde ik met mijn kost 24u).
http://www.calctool.org/CALC/prof/computing/transfer_time

Ik twijfel met name tussen de eerste twee opties inderdaad.
- mirror(8tb,(3x4TB RaidZ1))
- 3x4TB RaidZ1 + snapshots naar single 8TB (waarschijnlijk via USB)

De UREs is dan meer wat mijn keuze bepaalt op het moment. Als ik kijk naar 10^14de URE dan zou een succesvolle (volledige) rebuild van de array (dus tweede optie) minder dan 50/50 kansen hebben. Daarom dat ik twijfel over de eerste optie om zo effectief een volledige tweede parity disk te hebben. Alleen voeg je dan de risico's toe van het gebrek van een echte backup.

Misschien is het een non-discussie hoor, de kans dat die URE ook nog in een stuk zit dat de hele array omzeep helpt zal klein zijn, en anders staat de data nog op de snapshot (met zelf mogelijk fouten / URE). Als er iets anders omvalt is dat bestandje waarschijnlijk nog gewoon van de snapshot disk te halen.

Dus is dan de "veiligste" optie de snapshot disk als echte snapshot te gebruiken en een raidz1 array aan te houden als main pool. Als hij dan rebuild voor lief nemen dat er best eens een enkele bit om kan vallen (100% garantie heb je toch nooit). Heeft iemand van jullie dat al eens meegemaakt? Kortom: gaat ZFS dan heel erg zeuren of is het vrij gemakkelijk om een enkel bestandje te redden uit je snapshots?

@Paul: Freenas mailt je niet als hij klaar is en wat de resultaten waren? Dat lijkt me onpraktisch...
@Nindustries: die Tunable heb ik dus gemaakt als een loader:
Variable: xhci_load
Value: YES
Type: Loader (drop down)
Comment: USB3.0 support enable
Enabled: vinkje

Owner of http://scorpei.com/


Acties:
  • +1 Henk 'm!

  • Harrie
  • Registratie: November 2000
  • Laatst online: 22:22

Harrie

NederVlaming

De Fluppe schreef op zondag 20 september 2015 @ 12:34:
Volgens de website van ASRock worden bij het Q1900DC-ITX bordje 2 SATA Power Cables meegeleverd.

Accessories
- Quick Installation Guide, Support CD, I/O Shield
- 2 x SATA Data Cables
- 2 x SATA Power Cables
- 1 x WiFi Module Screw

Gaat het om kabels met een aansluiting voor 1 HDD, of zijn deze al gesplit?
Het bordje heeft 2 SATA_PWR aansluitngen en 4 SATA data poorten.

Kortom, is het noodzakelijk om een Silverstone SST-CP06 4x SATA te bestellen als ik 4 HDD's wil installeren?

Google en Youtube unboxing video's gaven jammer genoeg geen uitsluitsel! :)
De kabels die je er bij krijgt kunnen elk 2 schijven voeden. Dus als je bij 4 schijven blijft, heb je voldoende aan de meegeleverde kabels.

Acties:
  • 0 Henk 'm!

  • maccert
  • Registratie: Januari 2007
  • Laatst online: 07-09 20:08
Heren,
Moet zeggen dat er erg veel informatie te vinden is in dit topic, toppie.
Zelf heb ik een nas gebouwd met xpenology en ben daar zeer tevreden over, alles werkt naar behoren.

Mijn config:
U-NAS NSC-400
Gigabyte GA-Z97N-WIFI
Intel Core i5-4570
4 * 2TB
1* samsung ssd
16gb memory
xpenology op usb

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 26-09 16:30
Scorpei schreef op maandag 21 september 2015 @ 17:12:
@Paul: Freenas mailt je niet als hij klaar is en wat de resultaten waren? Dat lijkt me onpraktisch...
Klopt. Gelukkig krijg je de info wel als je zelf ' zpool status' uitvoert in een shell. De laatste scrub duurde 11 uur en 22 minuten en vond 0 fouten.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Scorpei
  • Registratie: Oktober 2006
  • Laatst online: 23-03-2022
Thanks Paul! Dat vind ik wel een leuke voor de statistiek. Als ik me niet vergis draaide jij 5x4tb? Met een URE van 1/10^14de zou je dan verwachten dat je toch tijdens de scrub een error tegen zou mogen komen. Tenminste als ik alle rekenvoorbeelden die op internet staan mag geloven. Als ik zelf ga rekenen is het wat anders maar mijn statistiek is lang geleden ;). Ook is natuurlijk alle rekenen leuk, totdat je toevallig 2 disks hebt die er uit knallen of toevallig de enige bent met 100% goed presterende (consument) schijven.

Voor mijn vraag: raidz1(3x4tb) it is! Met de externe schijf voor de snapshots een denk ik toch vrij stevige strategie die ik anderen aan kan bevelen. Met UPS, ZFS+scrub en ECC slaap ik dan in ieder geval vrij rustig, totdat een SATA kabel met fouten gaat strooien oid ^^.

Essentie van mn rekensom: kans op falend lezende sector (uitgaande van vast gegeven, normaal verdeelde populatie en elke bit een gelijke kans) = 1-(1/10^14)*8 (kortom 1 - de kans op een URE in een byte uitgaande van 1/10^14 URE van een schijf)
Totaal gelezen bytes met mijn setup van 2 disks 4tb (en 1 fail): (8*10^12) (kortom 8 tera)
Dus kans op GEEN URE tijdens rebuild: ((1-(1/10^14)*8)^(8*10^12))*100% = 53%

Dat komt wel in de buurt van de berekeningen die ik online heb gezien (al zijn die vaak meer richting 38%, waarschijnlijk door het meenemen van een kans op drive-failure), maar het stomme is bij jouw scrub zou je dat dan dus ook verwachten eens in de zoveel keer. De definitie is natuurlijk wel maximum guaranteed (afhankelijk van wie je gelooft) en de vraag is hoe dat specifiek nummer ooit is vastgesteld. Iemand daar toevallig een research paper over?
Leuke over MTTF: https://www.cs.cmu.edu/~bianca/fast07.pdf

[ Voor 0% gewijzigd door Scorpei op 22-09-2015 13:36 . Reden: spelfout ]

Owner of http://scorpei.com/


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 26-09 16:30
Mja, hij scrubt iedere maand, en ik heb nog nooit een error in de scrub gezien. Volgens mij is dat getal vooral een (soort van) garantie, geen statistisch gemiddelde :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
Paul schreef op dinsdag 22 september 2015 @ 10:29:
Mja, hij scrubt iedere maand, en ik heb nog nooit een error in de scrub gezien. Volgens mij is dat getal vooral een (soort van) garantie, geen statistisch gemiddelde :)
is mijn idee ook. Draai regelmatig scrubs op meerdere pools van 6x 3TB t/m 12x 4TB Seagate consumer schijven en er komen maar sporadisch fouten voorbij.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Hier ook nog geen verdwaalde checksum fouten gezien. Maar dat is natuurlijk geen maatstaaf :)

Even niets...


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 01:48
Hier ook nog niet, met 10 x 4TB had ik statistisch wise wel eens verwacht een foutje tegengekomen te zijn.

En nochtans heb ik netjes log outputs en doe ik 2 x week een scrub... Binnenkort eens wat parsen ofzo.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
2 * per week... Dan staat je pool dus (uitgaande van 9 uur), 18 van de 168 uur te scrubben...

Dat is 10% van de tijd :P

Even niets...


Acties:
  • 0 Henk 'm!

  • Scorpei
  • Registratie: Oktober 2006
  • Laatst online: 23-03-2022
De twijfel de twijfel... Tis zo'n duur grapje hè zo'n NAS ;).
Schijven 266.7+126.90 (verschillende schijven van verschillende leveranciers, 3x4tb)
Server: 205e (*excl voeding, die had ik nog, tweedehands overgenomen)
UPS (had ik nog, niet de accu dus): 26e
Case voor meer disks: 26e
Backup-disk: 300e

Somma: 925e.....
Misschien nog terug krijgen van m'n oude schijfjes; 6*20= 120e
100 euro per terabyte om 'veilig' te stellen.... :P

Owner of http://scorpei.com/


Acties:
  • 0 Henk 'm!

Verwijderd

Scorpei schreef op dinsdag 22 september 2015 @ 10:21:
Thanks Paul! Dat vind ik wel een leuke voor de statistiek. Als ik me niet vergis draaide jij 5x4tb? Met een URE van 1/10^14de zou je dan verwachten dat je toch tijdens de scrub een error tegen zou mogen komen. Tenminste als ik alle rekenvoorbeelden die op internet staan mag geloven. Als ik zelf ga rekenen is het wat anders maar mijn statistiek is lang geleden ;).
De fout die veel mensen maken is dat URE in bits wordt opgegeven. Dus dan denken ze één bit dus dan heb je 8 bits * 4096 = 4K nodig om één bad sector te krijgen. Dat is echter niet zo. Eén onleesbare bit betekent een bad sector van 4K.

Het gaat namelijk om uncorrectable Bit-Error-Rate, niet om raw Bit-Error-Rate. uBER wil dus zeggen dat de ECC-laag zijn werk al gedaan heeft. Als er dan nog één bit is die niet gecorrigeerd kan worden, is de inhoud van de gehele sector onbekend. Volgens de ATA8-ACS2 specificatie mag een ATA-opslagapparaat nooit data terugsturen waarvan bekend is dat deze onjuist is. Kortom, de eerste beste uncorrectable bit betekent dat de hele sector wordt afgekeurd.

uBER 10^-14 betekent dus gemiddeld een bad sector elke dag bij 100% duty cycle. En bij een veel normalere duty cycle zoals consumenten hun schijf gebruiken, eens per 3 tot 6 maanden. Dat is echter als je veel samples (duizenden hardeschijven) zou testen want per exemplaar kan het denk ik sterk verschillen. Ook ben ik niet overtuigd dat uBER totaal lineair afhankelijk is van de duty cycles. Ik denk dat je bij 1% duty cycle meer dan 1% van de berekende bad sectors zou krijgen. Dus iets van statische uBER en dynamische uBER waarbij alleen dat laatste afhankelijk is van de duty cycle.

Concluderend kun je stellen dat uBER 10^-14 met 2TB+ betekent dat bad sectors gewoon heel normaal zijn. Dus moet je je daar tegen kunnen wapenen.

Acties:
  • 0 Henk 'm!

  • Scorpei
  • Registratie: Oktober 2006
  • Laatst online: 23-03-2022
CiPHER, zouden de anderen in dit topic dan niet eventueel meer fouten moeten zien in hun scrubs (is echt een vraag btw,voor dat het aanvallend klinkt)? Kortom jij zegt ook na 2tb disks eigenlijk raidz2? Dan zal ik iig mn array maar aanmaken als degraded z2...

Owner of http://scorpei.com/


Acties:
  • 0 Henk 'm!

Verwijderd

Voor het beschermen tegen uBER alleen is enkelvoudige redundancy voldoende. Alleen met een disk failure + uBER heb je aan enkelvoudige redundancy niet genoeg, en zou je dus aan RAID-Z2 moeten denken.

Maar ZFS is een apart verhaal. Legacy RAID kan helemaal stuk/failed raken als tijdens een rebuild de overige disks bad sectors krijgen. Maar bij ZFS is dat niet zo. Heb je geluk dan betreft het de metadata en die heeft dankzij ditto blocks sowieso een extra laag bescherming (copies=2). Ook data van datasets die specifiek met copies=2 zijn aangemaakt, hebben dergelijke bescherming. Voor reguliere data met copies=1 geldt dat deze stuk kunnen gaan, maar dan zie je precies om welk bestand dit gaat.

Bij legacy RAID werkt dat heel anders. Je hele opslagvolume kan verloren/ontoegankelijk raken bij een paar bad sectors. Dat kan terwijl alle disks in gezonde staat zijn. Immers: een paar bad sectors valt gewoon binnen de opgegeven specificatie van uBER=10^-14. En dat is ook de praktijk die ik vaak ervaar. ZFS pools waarvan de helft van de disks wel een paar bad sectors hebben. ZFS krijg je daar niet klein mee - maar legacy RAID oplossingen kun je daarmee op de knieën krijgen.

Je pool aanmaken als degraded RAID-Z2 dus met één disk missende, is een heel goed idee. Dan kun je later alsnog je pool upgraden naar een RAID-Z2 en begin je min of meer met een RAID-Z. Qua performance mis je ook niet veel. Want ondanks de populaire gedachte is XOR zo'n beetje de makkelijkste instructie voor je CPU die vrijwel memory bottlenecked is. Dus 10 tot 20GB/s is vrij normaal voor een beetje CPU. Je latency gaat wel iets omhoog, maar voor massaopslag is dat niet relevant.

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 01:48
Verwijderd schreef op dinsdag 22 september 2015 @ 16:22:
Voor het beschermen tegen uBER alleen is enkelvoudige redundancy voldoende. Alleen met een disk failure + uBER heb je aan enkelvoudige redundancy niet genoeg, en zou je dus aan RAID-Z2 moeten denken.

Maar ZFS is een apart verhaal. Legacy RAID kan helemaal stuk/failed raken als tijdens een rebuild de overige disks bad sectors krijgen. Maar bij ZFS is dat niet zo. Heb je geluk dan betreft het de metadata en die heeft dankzij ditto blocks sowieso een extra laag bescherming (copies=2). Ook data van datasets die specifiek met copies=2 zijn aangemaakt, hebben dergelijke bescherming. Voor reguliere data met copies=1 geldt dat deze stuk kunnen gaan, maar dan zie je precies om welk bestand dit gaat.

Bij legacy RAID werkt dat heel anders. Je hele opslagvolume kan verloren/ontoegankelijk raken bij een paar bad sectors. Dat kan terwijl alle disks in gezonde staat zijn. Immers: een paar bad sectors valt gewoon binnen de opgegeven specificatie van uBER=10^-14. En dat is ook de praktijk die ik vaak ervaar. ZFS pools waarvan de helft van de disks wel een paar bad sectors hebben. ZFS krijg je daar niet klein mee - maar legacy RAID oplossingen kun je daarmee op de knieën krijgen.

Je pool aanmaken als degraded RAID-Z2 dus met één disk missende, is een heel goed idee. Dan kun je later alsnog je pool upgraden naar een RAID-Z2 en begin je min of meer met een RAID-Z. Qua performance mis je ook niet veel. Want ondanks de populaire gedachte is XOR zo'n beetje de makkelijkste instructie voor je CPU die vrijwel memory bottlenecked is. Dus 10 tot 20GB/s is vrij normaal voor een beetje CPU. Je latency gaat wel iets omhoog, maar voor massaopslag is dat niet relevant.
Mja, maar wat ik dan raar vind is dat ik (kan het ook eens navragen bij de nieuwe werkgever, groot NetApp-partner) vanuit mijn ervaring met storage slechts één keer een RAID array ben tegengekomen die helemaal naar de zak was. Ik heb het nu niet over het al dan niet detecteren van files die bitrot zijn, dat is een totaal andere discussie, maar echt een array die op zijn bek ging omdat de disks niet de gewenste data konden aanleveren tijdens een rebuild. Ik draai ZFS omdat ik EN bitrot EN tegen uBER beschermd wil zijn met commodity disks en hardware en dat wanneer ik een error tegenkom tijdens een resilver, dat ik dan hoogstens een file kwijt ben ipv de hele array die "euh sorry ik hang me op zegt" zegt, maar nogmaals, in mijn relatief korte carriere ben ik dat nog maar één keer tegengekomen en toen was de HP RAID 5 array ook al een half jaar op degraded aan het draaien...

Ik pretendeer hier niet statistisch representatieve data aan te kunnen leveren, maar met ervaringen met EqualLogic, Compellent, HP MSA, HP EVA en beperkt NetApp heb ik muv die ene keer nog nooit een klant gehad die belde "euh, onze RAID 5 array is er aan door". Ik vraag me dan soms af of het ook gewoon niet "indekkerij" is van de disk-fabrikanten en dat het in de praktijk allemaal veel beter meevalt...
FireDrunk schreef op dinsdag 22 september 2015 @ 11:20:
2 * per week... Dan staat je pool dus (uitgaande van 9 uur), 18 van de 168 uur te scrubben...

Dat is 10% van de tijd :P
Heb het al gereduceerd naar 5% nu :D

[ Voor 84% gewijzigd door HyperBart op 22-09-2015 20:09 ]


Acties:
  • 0 Henk 'm!

Verwijderd

HyperBart schreef op dinsdag 22 september 2015 @ 20:00:
Mja, maar wat ik dan raar vind is dat ik (kan het ook eens navragen bij de nieuwe werkgever, groot NetApp-partner) vanuit mijn ervaring met storage slechts één keer een RAID array ben tegengekomen die helemaal naar de zak was.
Nou, we moeten wel twee dingen gescheiden houden. Een Legacy RAID array die op de fles gaat, dus FAILED aangeeft, maar nog wel te recoveren is - theoretisch in elk geval. In bijna alle gevallen betreft het dit soort failures. De gebruiker weet niet meer hoe de array gered kan worden, dus geeft het maar op. Als die duidelijk FAILED ziet dan kan ik zulke gebruikers wel begrijpen - dat staat er niet voor niets, toch? FOUT!

Heb je non-TLER disks, dan is het kinderspel om je array op de fles te krijgen. Twee schijfjes in een RAID5 of drie schijfjes in een RAID6 die even niet snel genoeg reageren door bad sector recovery, en ze worden uit de array gesmeten en de array gaat op zijn bek.

Laatst nog op GoT hier een Areca RAID6 die op de fles ging. Tsja...
Ik draai ZFS omdat ik EN bitrot EN tegen uBER beschermd wil zijn met commodity disks en hardware en dat wanneer ik een error tegenkom tijdens een resilver, dat ik dan hoogstens een file kwijt ben ipv de hele array die "euh sorry ik hang me op zegt" zegt
Dat is ook precies waarvoor ik ZFS gebruik. :)

De extra features zijn leuk meegenomen, maar wat jij nu zegt is de hele kern. Eigenlijk is ZFS het enige volwassen, bruikbare en stabiele opslagsysteem op dit moment - alle andere opslagmethoden die voor consumenten toegankelijk zijn (dus geen clustered filesystems enzo) zijn ofwel onbeschermde systemen van een vorig tijdperk (RAID/NTFS/Ext4/UFS/SHR), of zijn nog niet volwassen genoeg (Btrfs, ReFS).
maar nogmaals, in mijn relatief korte carriere ben ik dat nog maar één keer tegengekomen en toen was de HP RAID 5 array ook al een half jaar op degraded aan het draaien...
Dat komt denk ik vooral omdat zakelijke gebruikers geen consumenten schijven gebruiken. Die gebruiken schijven met een veel betere uBER, zoals 10^-15. Dat is al 10x minder bad sectors. En je hebt ook schijven die 10^-16 doen - dus 100x minder bad sectors. Dat scheelt toch al enorm. Met 10x minder bad sectors betekent dit in de praktijk dat je heel af en toe wel een schijfje hebt die als gefaald wordt gekenmerkt, maar niet dat opeens 3 of 4 schijven dit probleem hebben in korte tijd.

Bovendien hebben schijven voor zakelijke gebruikers (SOHO/Enterprise) ook de beschikking over TLER, waardoor simpelweg het niet op tijd reageren geen reden kan zijn om de hele schijf maar af te keuren, omdat die één klein lullig sectortje niet kon lezen. Tsjonge.... 8)7

[ Voor 4% gewijzigd door Verwijderd op 22-09-2015 20:26 ]


Acties:
  • 0 Henk 'm!

  • Habana
  • Registratie: Oktober 2005
  • Laatst online: 24-09 22:56
BTRFS nog niet volwassen genoeg, daar denkt Synology schijnbaar toch iets anders over, die komen in 2016 met DSM6.0 en met BTRFS, ik denk niet dat ze hier mee zouden komen als ze daar geen vertrouwen in zouden hebben.

Acties:
  • 0 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 16:40

DukeBox

loves wheat smoothies

Habana schreef op dinsdag 22 september 2015 @ 21:23:
die komen in 2016 met DSM6.0 en met BTRFS
Zit ook al in 5.2 voor de nieuwe high end modellen.

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!

Verwijderd

Habana schreef op dinsdag 22 september 2015 @ 21:23:
BTRFS nog niet volwassen genoeg, daar denkt Synology schijnbaar toch iets anders over, die komen in 2016 met DSM6.0 en met BTRFS
Ja wat ze nu hebben is helemaal ruk... Ext4 ..... :')

En even terug in de tijd met Ubuntu, die ook graag naar Ext4 wilde toen het nog niet helemaal volwassen was. Gevolg: tig systemen met filesystem corruptie. Inclusief ondergetekende had daar last van. Lolz... En dan te bedenken dat Ext4 een kleine update is van Ext3 wat weer een update is van Ext2 wat van UFS afkomstig is uit de jaren 80 of wat. Kom op man... :F

Acties:
  • 0 Henk 'm!

  • Loekie
  • Registratie: Juli 2001
  • Laatst online: 26-09 14:11
Mjah, zo lang je geruchten hoort over kernel-updates die een compleet bestandssysteem over de kling jagen ga ik er niet zelf aan beginnen(testen). Laat Synology het dan maar voor je doen/testen.
Old and stable klinkt mss niet sexy, maar voor iets banaals als storage vind ik het prima. Het sexy gedeelte doe ik wel met clients die de storage aanspreken.

specs


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
Verwijderd schreef op dinsdag 22 september 2015 @ 20:25:
[...]
Nou, we moeten wel twee dingen gescheiden houden. Een Legacy RAID array die op de fles gaat, dus FAILED aangeeft, maar nog wel te recoveren is - theoretisch in elk geval. In bijna alle gevallen betreft het dit soort failures. De gebruiker weet niet meer hoe de array gered kan worden, dus geeft het maar op. Als die duidelijk FAILED ziet dan kan ik zulke gebruikers wel begrijpen - dat staat er niet voor niets, toch? FOUT!
Ik stoor me juist aan het promoten van ZFS op deze oneigenlijke argumentatie. Ik draai al jaren hardware raid en ik heb nog nooit effectief data verloren door bitrot of een hardware raid fout.
Ben wel eens een raidset met data kwijt geraakt maar die fout was niet te redden met een moderner filesysteem en kwam door een paar domme acties van mijzelf 8)7
Enige deel van je post waar ik het dus wel mee eens ben is dat de gebruiker vaak het probleem is. Mijn ervaring met ZFS tot nu toe is dat je als gebruiker veel meer fout kunt doen als bij hardware raid. Vraag me ook af of mensen met ZFS daardoor niet net zo veel of meer data kwijt raken. Dit ondanks dat het filesysteem beter is.

Acties:
  • 0 Henk 'm!

Verwijderd

BartNL schreef op dinsdag 22 september 2015 @ 21:39:
Ik stoor me juist aan het promoten van ZFS op deze oneigenlijke argumentatie. Ik draai al jaren hardware raid en ik heb nog nooit effectief data verloren door bitrot of een hardware raid fout.
Oh.. jij hebt het niet meegemaakt; dus het probleem bestaat niet? Moet ik uitleggen dat hier een fout in je logica zit? O-)

Was jij niet ook over op ZFS inmiddels? Je RAID0 van een paar dozijn schijven had je toch in het verleden? Ik had het stiekem wel interessant gevonden als je dat nog een aantal jaren zou draaien, gewoon om af te wachten totdat het zaakje in elkaar dondert. Niet dat ik je dat gun overigens, zo ben ik nou ook weer niet. Maar stiekem... in een donker steegje in mijn hersenen.... :*)

Ik heb denk ik wel 100 legacy RAIDs op de fles zien gaan van mensen waar ik persoonlijk bij betrokken was. Zelf ook meegemaakt, ik heb veelvuldig met RAID gewerkt. Onboard RAID (FakeRAID), software RAID op Windows en Linux en BSD, zelfs Vinum nog mee gewerkt, en natuurlijk Areca hardware RAID. Ik denk ongeveer te weten hoe het spul werkt. :7

Dat jij nog niet gebeten bent door legacy RAID, tsja.. het is statistisch wel een uitzondering gezien dat jij toch behoorlijk veel schijven had, en volgens mij ook nog in RAID0 staat me bij? Maarja, je hebt ook verstokte rokers die 99 jaar worden. Maar betekent dit dat roken gezond is? 8)7
Mijn ervaring met ZFS tot nu toe is dat je als gebruiker veel meer fout kunt doen als bij hardware raid. Vraag me ook af of mensen met ZFS daardoor niet net zo veel of meer data kwijt raken. Dit ondanks dat het filesysteem beter is.
Ik kan me eigenlijk geen enkel geval herinneren sinds de geboorte van ZFS. Hoor je ooit over iemand die zijn ZFS pool gefaald is? Afgezien van teveel schijven die doodgaan - daar kan ZFS ook weinig tegen beginnen. Maar afgezien daarvan? Ooit, ergens, iemand?!

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
SLOG detachen?
L2ARC crashen?

Oooit waren dat dingen die je pool sloopten :)

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Niet slopen - L2ARC sowieso niet. sLOG kun je pas detachen vanaf versie 19. Als dat gebeurde terwijl je pool lager was, kon je pas vanaf een nieuwe ZFS versie je pool weer importeren met de -F parameter, waarbij de transaction group werd teruggedraaid en je dus wel wat recente writes kwijt was.

Maar toch; deze bekende beperkingen destijds kan toch niet zijn waar BartNL op doelt? Die bedoelt dat door user error je je data kwijt bent - definitief. En daar is hierbij geen sprake van.

Integendeel - RAID heeft altijd een belofte gedaan: met goedkope hardware (I van Inexpensive ook al wordt dat tegenwoordig stilletjes vervangen door Independent) een veilig opslagmedium creëren. Deze belofte heeft RAID nooit kunnen waarmaken. Het beschermt weliswaar tegen disk failure, maar voegde zijn eigen kwetsbare laag toe aan de storage-chain die zelf kan falen en daarmee het hele opslagvolume met zich mee kan trekken. ZFS maakt wèl de originele belofte waar - ZFS is wat RAID had moeten zijn. ZFS is het begin van moderne opslag in de 21e eeuw. Er komen vast veel betere 3e en 4e generatie filesystems, maar voor nu is ZFS de heilige graal van opslag, helemaal voor thuis waar je bent overgeleverd aan legacy meuk.

Daarom mijn motto: Wanneer ga jij jouw data beschermen? Kies voor ZFS! :*) 8) :Y

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
Verwijderd schreef op dinsdag 22 september 2015 @ 21:46:
Was jij niet ook over op ZFS inmiddels?
nee, heb een ZFS testserver en de performance daarvan is nog dusdanig dat ik mijn data daar nog niet naar over ga zetten. Ik zie er op dit moment, om eerder genoemde redenen, nog geen noodzaak toe om de boel over te zetten maar verwacht dat nog wel ooit te doen. Van de data die ik niet door een NAS probleem mag kwijtraken wordt een backup gemaakt.
Voornaamste hindernis qua performance lijkt SMB waarmee ik lang geen 10Gbit naar de NAS haal. Ook intern kopiëren op de NAS van de ene naar de andere pool werkt te traag d.w.z. ik haal niet de snelheden die ik zou verwachten.
Probleem zie ik ook dat wanneer ik eenmaal data ga overzetten ik niet meer met de NAS wil prutsen. Met de huidige staat van FreeNAS of ZFSGuru op mijn NAS vind ik dat nog wel nodig.

Verwijderd

Is het niet zo dat met nieuwe SMB-protcollen met Multipathing je geen problemen meer hebt om 10G vol te trekken? Ik heb zelf ook enorm veel interesse in 10G, dus ik zit enigszins in hetzelfde schuitje. :)

Wat betreft 'prutsen met de NAS' - ik ken enorm veel mensen die ZFSguru of een ander ZFS NAS product draaien en dat jarenlang zonder problemen doen, zonder onderhoud of aandacht te besteden aan de NAS. Wat is exact je hindernis daarbij dan?

En tsja, geen noodzaak vinden om nu naar ZFS over te stappen.... die noodzaak zie je pas onder ogen zodra je legacy RAID gecrashed is?! Dan is het toch te laat? Ik weet niet hoe belangrijk je data is, maar je snapt onderhand toch wel dat ZFS je een veel hoger niveau van bescherming biedt dan legacy RAID?! Daar mag toch geen meningsverschil over bestaan, lijkt me?

Wat ik zei over dat ik stiekem wacht tot je legacy RAID op de fles gaat... ik zou er niet op wachten. Beter nu switchen totdat het noodlot je treft. Je voelt je alleen maar een verliezer als het eenmaal zover is. Beter nu meegaan met de flow. Vroeger toen Jason - de grondlegger van ZFSguru - op HardOCP over ZFS begon werd hij uitgelachen. Nu draait bijna iedereen daar ZFS. Er zijn voorlopers en achterlopers. Zorg dat je niet teveel achterloopt, anders kun je wel eens gegrepen worden door het Monster wat Legacy Storage heet.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
Dat mensen geen onderhoud plegen, betekend natuurlijk niet dat het niet nodig is :)
Dat is hetzelfde als zeggen dat niet roken automatisch betekend dat je gezond bent, terwijl sporten misschien wel goed voor je is :)

Sprak de ras IT-er :+

Even niets...


  • novastorm76
  • Registratie: April 2010
  • Laatst online: 24-09 10:53
Verwijderd schreef op woensdag 23 september 2015 @ 00:10:
Daar mag toch geen meningsverschil over bestaan, lijkt me?
Ik denk eerder dat het gewoon "gewenning" en onwetendheid is bij een boel mensen. Ik heb hordes collega's gehad die zweerden bij een verouderd systeem. Niet omdat het zo goed was, maar meer omdat ze dat kenden en het reageerde zoals ze verwachten. Maar zodra de pleuris uitbrak dan kwamen ze niet verder dan de procedures/aantekeningen.

Je kan mensen niet dwingen over te stappen. ze moeten de noodzaak zien, ongeacht de vergelijkingen/testen. ik ben in ieder geval over ;)

  • TimPie Vink
  • Registratie: September 2004
  • Laatst online: 04-04-2023
Ik heb al eens eerder gepost. Na veel lezen en ervaring opdoen op VM's met algemeen linux denk ik dat ik klaar ben om te orderen. Nu wil ik mijn lijstje nog 1x langs jullie brengen voor opmerkingen. Ik woon in Zuid Afrika, dus ik moet alles via Amazon / Ebay kopen, aangezien ze hier nog niet zo bezig zijn met de home servers, en ik dus geen winkels kan vinden lokaal om deze spullen aan te schaffen.

Ik ga de server gebruiken voor data opslag van Science onderzoeken waar ik mee bezig ben, deze bestaan uit:
  • Grote HD opnames met video camera
  • MySQL databases
  • Raw bestanden (veeeel txt/csv etc files)
  • Veel fotos van wildlife cameras (100000+)
Ik backup off site (naar de andere kant van de farm) naar een raspberry pi met 2 4TB harde schijven op dit moment, ik ben nog een beetje aan het zoeken of ik dit nog wat veiliger kan maken. De backup is incremental met changes die worden opgeslagen voor 30 dagen en daarna 1 per maand. (Video is niet included in dit door de grootte op dit moment)

Mijn lijstje zover
  • ASrock C2550D41 ($289.95)
  • OF ASrock C2750 ($457.95)
  • Crucial 16GB ECC UDIMM Server memory
  • Silverstone DS380B Case
  • Seasonic SS-350SFE 350W active PFC power
  • Starting with 5 WD green 4TB schijven
  • later uitbreiden met nog 5 WD 4TB schijven
  • Moet nog even een flashdrive zoeken waar ik OS op kan draaien.
Ik denk dat ik ZFSonLinux wil draaien, maar ben nog niet helemaal zeker. Ik lees verschillende ervaringen, en ga hier dus nog een beetje over oplezen.
Ik heb een 2kva UPS dat zo'n beetje all mijn computers en peripheral apparaten kan draaien op solar, deze is genoeg om het systeem van stroom te voorzien voor tenminste 4 uur als de stroom uitgaat 'snachts.
Hebben jullie nog suggesties of toevoegingen?

  • idef1x
  • Registratie: Januari 2004
  • Laatst online: 23:14
Habana schreef op dinsdag 22 september 2015 @ 21:23:
BTRFS nog niet volwassen genoeg, daar denkt Synology schijnbaar toch iets anders over, die komen in 2016 met DSM6.0 en met BTRFS, ik denk niet dat ze hier mee zouden komen als ze daar geen vertrouwen in zouden hebben.
Is raid5/6 support in btrfs al productierijp dan? Of verwacht Synology dat tegen die tijd wel?
Als ik zo even erop zoek lijkt het wel stabiel te zijn inmiddels (btrfs wiki), maar lijkt me nog wat pril om te gebruiken?

  • albino71
  • Registratie: Augustus 2006
  • Niet online

albino71

Leef rijk, sterf arm

Ik kijk hier, en op het zuinige server topic, af en toe mee en ik vraag me iets af.

Hoe krijgt Synology het voor elkaar dat het hele apparaat gaat slapen en nog maar 2W gebruikt oid, en op het moment dat ik de NAS benader via mijn netwerk, wordt hij wakker.

Eigenlijk interesseert het me meer of dit ook met een zelfgemaakte server/NAS mogelijk is.

Te koop....


  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
Verwijderd schreef op woensdag 23 september 2015 @ 00:10:
Is het niet zo dat met nieuwe SMB-protcollen met Multipathing je geen problemen meer hebt om 10G vol te trekken?
nee, haal met een fresh install niet meer dan 2Gb en na wat prutsen richting 4Gb maar dat is dan niet stabiel.
Wat is exact je hindernis daarbij dan?
ik verander per week van ZFSGuru naar FreeNAS en weer terug omdat geen van beide werkt zoals ik hoop. Uiteindelijk zou ik 2 SAS expanders (nu nog cia Areca legacy raid) aan deze doos willen hangen maar voordat ik dat doe zou de basis moeten werken.
En tsja, geen noodzaak vinden om nu naar ZFS over te stappen.... die noodzaak zie je pas onder ogen zodra je legacy RAID gecrashed is?! Dan is het toch te laat? Ik weet niet hoe belangrijk je data is, maar je snapt onderhand toch wel dat ZFS je een veel hoger niveau van bescherming biedt dan legacy RAID?! Daar mag toch geen meningsverschil over bestaan, lijkt me?
met de Areca controller denk ik te weten wat ik wel en niet kan doen in geval de array problemen geeft. Uitval van een disk is in de praktijk meerdere keren voorgekomen en is dankzij de disk redundantie tot nu toe probleemloos opgevangen, ook bij 12x 4TB in raid6.
Zorg dat je niet teveel achterloopt, anders kun je wel eens gegrepen worden door het Monster wat Legacy Storage heet.
meeste data die op de NAS staat is vervangbaar. Het werkte bij mij juist goed om een keer heel veel data te zijn kwijtgeraakt. Nadat ik dacht alles opnieuw op de NAS te hebben staan was dat nog maar 30% van hetgeen er voorheen op stond...

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 27-09 13:07
albino71 schreef op woensdag 23 september 2015 @ 09:44:
Ik kijk hier, en op het zuinige server topic, af en toe mee en ik vraag me iets af.

Hoe krijgt Synology het voor elkaar dat het hele apparaat gaat slapen en nog maar 2W gebruikt oid, en op het moment dat ik de NAS benader via mijn netwerk, wordt hij wakker.

Eigenlijk interesseert het me meer of dit ook met een zelfgemaakte server/NAS mogelijk is.
Wake on Direct Packet heet dat geloof ik, maar dat is niet echt een gevestigde standaard volgens mij.
Die 2W is alleen maar om de NIC actief te houden, en te kijken of er pakketjes gestuurd worden direct aan het IP van je NAS. Zo ja, gaat hij aan.

Probleem is dat een Ping ook al een direct packet is, waardoor je NAS daar ook wakker van zou kunnen worden...

Ik lees niet echt veel succes verhalen daar over. Bovendien word je NAS wel wakker, maar moet daarna nog 60+ seconden opstarten...

Mijn server boot in uberhaupt 20 seconden ofzo... Met een Wake on LAN appje op je telefoon kan je ook een heel eind komen.

[ Voor 6% gewijzigd door FireDrunk op 23-09-2015 10:05 ]

Even niets...


  • Scorpei
  • Registratie: Oktober 2006
  • Laatst online: 23-03-2022
@TimPie Vink: Mooi platform (en super vette toepassing :))! De avaton borden zijn hier erg goed voor geschikt! Wat ik heb begrepen is de goedkopere oplossing (c2550) ook snel genoeg voor een dergelijke array (en vebruikt toch 6W minder peak). Waar ik over nadacht toen ik je post las:

- WD Green is een veel besproken schijf... natuurlijk wel wat lagere power-draw waarvoor je waarschijnlijk die hebt gekozen? Hier in mijn mdadm array (raid5 en later 6) nooit problemen mee gehad, maar ze worden toch vaak afgeraden (o.a. vanwege gebrek aan TLER en veelvuldig headparking). Zorg er als het kan voor dat je in ieder geval nooit precies dezelfde schijven koopt (andere productiedata / batches en eventueel andere merken / types; daarbij wel rekening houden met minimale verschillen van disk-opslagruimte omdat bij ZFS elke vdev exact even groot moet zijn).
- Eventueel aanvullen met een log / cache SSD (mijn suggestie zou dan read zijn denk ik L2arc)?
- 16gb ECC lijkt me genoeg, mits je geen encryptie of dedup aan hebt staan (dat is 1gb per 1tb ongeveer afhankelijk van je use-case, 'rule-of-thumb')
- Welk level raid wil je toepassen? Ik denk dat je raidz2 wilde gebruiken (5 schijven dus 2 voor parity en effectief 12tb over voor data)? Dat lijkt me geen slechte optie bij een dergelijke setup. Vooral gezien UREs*. Raidz1 zou ik hierbij afraden dan. Kanttekening bij raidz2 is dat mogelijk de performance wel lager is dan een (groep) mirror's. Voordeel: er mogen 2 random schijven de geest geven, waarbij bij de mirror er eigenlijk max 1 weg mag vallen natuurlijk uit een set. Nadeel: je rebuilds duren langer.
- Volgens mij heb je hier over nagedacht, maar zorg ook voor een gracefull shutdown als de stroom onverhoopt langer weg blijft dan 4 uur.
- Het gebruik van ZFS send/receive icm snapshots is een hele mooie oplossing voor je backup naar een offsite. Die moet natuurlijk ook voorzien zijn van een UPS/gracefull shutdown
-Flashdrive: het OS is bijzonder onbelangrijk lijkt me, dus vrijwel allemaal zijn ze goed. Mocht je besluiten voor een freenas setup houd even rekening met (het gebrek aan) USB3 ondersteuning. Eventueel is het wel een optie om je root ook ZFS te draaien en die in mirror te zetten. Dat geeft minder problemen mocht de USB stick ooit stukgaan. Ik neem aan dat je die niet zo 1,2,3 vervangt daar in Afrika!
- Houdt rekening met het feit dat ZFS na 85% volle array toch wat moeite krijgt met performance

*Zie de posts van de afgelopen paar dagen in dit thread

[ Voor 3% gewijzigd door Scorpei op 23-09-2015 11:10 ]

Owner of http://scorpei.com/


  • mux
  • Registratie: Januari 2007
  • Laatst online: 18-09 16:37

mux

99% efficient!

albino71 schreef op woensdag 23 september 2015 @ 09:44:
Ik kijk hier, en op het zuinige server topic, af en toe mee en ik vraag me iets af.

Hoe krijgt Synology het voor elkaar dat het hele apparaat gaat slapen en nog maar 2W gebruikt oid, en op het moment dat ik de NAS benader via mijn netwerk, wordt hij wakker.

Eigenlijk interesseert het me meer of dit ook met een zelfgemaakte server/NAS mogelijk is.
Zoals FD al zegt: er zit een gigantische opstarttijd achter die 2W, en het is in veel opzichten gewoon en veredelde WoL. Met een SSD kun je vandaag de dag gemakkelijk in sub-10s opstarten, dus de manier om dit na te bootsen is om WoL te activeren en een magic packet te sturen.

  • TimPie Vink
  • Registratie: September 2004
  • Laatst online: 04-04-2023
Scorpei schreef op woensdag 23 september 2015 @ 11:01:
@TimPie Vink: Mooi platform (en super vette toepassing :))! De avaton borden zijn hier erg goed voor geschikt! Wat ik heb begrepen is de goedkopere oplossing (c2550) ook snel genoeg voor een dergelijke array (en vebruikt toch 6W minder peak). Waar ik over nadacht toen ik je post las:
Ik denk dan inderdaad dat ik voor de C2550 ga, nog genoeg uitbreidingsruimte, voor het moment nog geen encryptie nodig. Niemand snapt mijn data toch haha.
- WD Green is een veel besproken schijf... natuurlijk wel wat lagere power-draw waarvoor je waarschijnlijk die hebt gekozen? Hier in mijn mdadm array (raid5 en later 6) nooit problemen mee gehad, maar ze worden toch vaak afgeraden (o.a. vanwege gebrek aan TLER en veelvuldig headparking). Zorg er als het kan voor dat je in ieder geval nooit precies dezelfde schijven koopt (andere productiedata / batches en eventueel andere merken / types; daarbij wel rekening houden met minimale verschillen van disk-opslagruimte omdat bij ZFS elke vdev exact even groot moet zijn).
Wat zouden eventuele andere schijven zijn die aan te raden zijn, met TLER, of zijn de kosten van deze schijven (zowel aanschaf als stroomverbruik) een factor hoger?
- Eventueel aanvullen met een log / cache SSD?
Ja ik denk dat ik er een klein SSDtje inzet, 2x 64gb oid in een mirror om de OS op te draaien vor de logs /cache. Deze dingen kunnen toch makkelijk samen neem ik aan? Ik denk dat dit makkelijker is dan een USB stick, misschien wat duurder, maar de snelheid zou ook moeten toenemen.
- 16gb ECC lijkt me genoeg, mits je geen encryptie of dedup aan hebt staan (dat is 1gb per 1tb ongeveer afhankelijk van je use-case, 'rule-of-thumb')
Ik kan er altijd nog 16GB bijpluggen, dus ik denk dat ik hier maar mee start.
- Welk level raid wil je toepassen? Ik denk dat je raidz2 wilde gebruiken (5 schijven dus 2 voor parity en effectief 12tb over voor data)? Dat lijkt me geen slechte optie bij een dergelijke setup. Vooral gezien UREs*. Raidz1 zou ik hierbij afraden dan. Kanttekening bij raidz2 is dat mogelijk de performance wel lager is dan een (groep) mirror's. Voordeel: er mogen 2 random schijven de geest geven, waarbij bij de mirror er eigenlijk max 1 weg mag vallen natuurlijk uit een set. Nadeel: je rebuilds duren langer.
Ik denk aan RaidZ2 ja, ik moet nog even het grafiekje bekijken van de optimale schijfconfiguratie om de final pool samen te stellen, het hangt daar dus ook even vanaf hoeveel schijven ik een een pool wil zetten. De schijven koop ik lokaal, dus ik wilde eerst de configuratie goed hebben.
- Volgens mij heb je hier over nagedacht, maar zorg ook voor een gracefull shutdown als de stroom onverhoopt langer weg blijft dan 4 uur.
Ik zou moeten opzoeken hoe ik een gracefull shutdown moet doen, enige code hiervoor? Ik had er inderdaad over nagedacht, misschien een kort stukje python schijven, maar ik neem aan dat er verschillende opties voor zijn.
- Het gebruik van ZFS send/receive icm snapshots is een hele mooie oplossing voor je backup naar een offsite. Die moet natuurlijk ook voorzien zijn van een UPS/gracefull shutdown
-Flashdrive: het OS is bijzonder onbelangrijk lijkt me, dus vrijwel allemaal zijn ze goed. Mocht je besluiten voor een freenas setup houd even rekening met (het gebrek aan) USB3 ondersteuning. Eventueel is het wel een optie om je root ook ZFS te draaien en die in mirror te zetten. Dat geeft minder problemen mocht de USB stick ooit stukgaan. Ik neem aan dat je die niet zo 1,2,3 vervangt daar in Afrika!
Ja die backups zie ik wel zitten, ik denk dat ik toch voor een SSD ga voor de OS, zal deze beslissing een beetje later maken.

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 01:48
TimPie Vink schreef op woensdag 23 september 2015 @ 09:10:
Ik heb al eens eerder gepost. Na veel lezen en ervaring opdoen op VM's met algemeen linux denk ik dat ik klaar ben om te orderen. Nu wil ik mijn lijstje nog 1x langs jullie brengen voor opmerkingen. Ik woon in Zuid Afrika, dus ik moet alles via Amazon / Ebay kopen, aangezien ze hier nog niet zo bezig zijn met de home servers, en ik dus geen winkels kan vinden lokaal om deze spullen aan te schaffen.

Ik ga de server gebruiken voor data opslag van Science onderzoeken waar ik mee bezig ben, deze bestaan uit:
  • Grote HD opnames met video camera
  • MySQL databases
  • Raw bestanden (veeeel txt/csv etc files)
  • Veel fotos van wildlife cameras (100000+)
Ik backup off site (naar de andere kant van de farm) naar een raspberry pi met 2 4TB harde schijven op dit moment, ik ben nog een beetje aan het zoeken of ik dit nog wat veiliger kan maken. De backup is incremental met changes die worden opgeslagen voor 30 dagen en daarna 1 per maand. (Video is niet included in dit door de grootte op dit moment)

Mijn lijstje zover
  • ASrock C2550D41 ($289.95)
  • OF ASrock C2750 ($457.95)
  • Crucial 16GB ECC UDIMM Server memory
  • Silverstone DS380B Case
  • Seasonic SS-350SFE 350W active PFC power
  • Starting with 5 WD green 4TB schijven
  • later uitbreiden met nog 5 WD 4TB schijven
  • Moet nog even een flashdrive zoeken waar ik OS op kan draaien.
Ik denk dat ik ZFSonLinux wil draaien, maar ben nog niet helemaal zeker. Ik lees verschillende ervaringen, en ga hier dus nog een beetje over oplezen.
Ik heb een 2kva UPS dat zo'n beetje all mijn computers en peripheral apparaten kan draaien op solar, deze is genoeg om het systeem van stroom te voorzien voor tenminste 4 uur als de stroom uitgaat 'snachts.
Hebben jullie nog suggesties of toevoegingen?
Opsplitsen in filesystems :Y . Compressie heel efficient zetten op die FS'en waar die text en CSV bestanden op staan.

Spindown aanzetten en alles op SSD draaien van je OS en een goed shutdown procedure'tje als de stroom uitvalt.

FireDrunk kan je de naam geven van een goede USB 3 stick, ik heb dezelfde maar kan niet op de naam komen (stiletto USB stickje)


Ik vind het verder jammer dat je voor Avoton kiest, eigenlijk een heel duur platform imho voor weinig performantie, ok je hebt dat niet zo hard nodig in je setup, maar dan geef ik mijn geld liever efficienter uit.

Voor de disks kan je kijken naar de Seagate 4TB's, prima alternatief. Als je wat meer betrouwbaarheid wilt dan heb ik een beter gevoel bij Hitachi's, maar die zijn dan ook wat duurder...

[ Voor 7% gewijzigd door HyperBart op 23-09-2015 11:19 ]


  • TimPie Vink
  • Registratie: September 2004
  • Laatst online: 04-04-2023
HyperBart schreef op woensdag 23 september 2015 @ 11:17:
[...]


Opsplitsen in filesystems :Y . Compressie heel efficient zetten op die FS'en waar die text en CSV bestanden op staan.

Spindown aanzetten en alles op SSD draaien van je OS en een goed shutdown procedure'tje als de stroom uitvalt.

FireDrunk kan je de naam geven van een goede USB 3 stick, ik heb dezelfde maar kan niet op de naam komen (stiletto USB stickje)


Ik vind het verder jammer dat je voor Avoton kiest, eigenlijk een heel duur platform imho voor weinig performantie, ok je hebt dat niet zo hard nodig in je setup, maar dan geef ik mijn geld liever efficienter uit.

Voor de disks kan je kijken naar de Seagate 4TB's, prima alternatief. Als je wat meer betrouwbaarheid wilt dan heb ik een beter gevoel bij Hitachi's, maar die zijn dan ook wat duurder...
Oei, nu voel ik me een beetje dom, bedoel je met opsplitsen in file systems, verschillende pools aanmaken voor de verschillende data?

Ik ben niet zo zeer op zoek naar performance, however, wat zou een meer efficiente manier van mijn geld spenderen zijn? SuperMicro? Simpele bordjes met SAS expander?

Hitachi is niet te krijgen in SA, maar ik zal er eens induiken. Ik ben persoonlijk geen fan van Seagate, heb te veel ellende gehad en gezien (ie. recovery voor kennissen).

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 01:48
Onwetend != dom ;) . Ik ben gewoon niet zo voor Avoton setjes, in het begin wel, maar de prijs is te weinig gezakt en de performantie is niet echt top, wel door de cores te combineren, maar dan nog.

Heb je al eens naar de BBG's gekeken van de laatste maanden? Je kan eigenlijk net weggeraken met een HP MicroServer (ok die is ook wat verouderd, maar bang for the buck zit dat nog meer dan prima). Dan ga je één klein tweakje moeten uitvoeren zodat je er een 5de disk bij kan steken...

Als je toch liever zelfbouw doet (helemaal te begrijpen) en dat geld er aan wilt geven kan je eens kijken naar:

http://www.servethehome.c...dv-tln4f-review-platform/

Die zijn afaik wel nog redelijk moeilijk te krijgen (zie ze bv. niet staan in PW)

Even topologie van ZFS:

file/disk
VDEV
Pool
FS

Je maakt dus met een setje disks een VDEV aan, hierop define je redundantie, je kan meerdere VDEV's aanmaken en die zitten onder een pool. Een VDEV zit per definitie altijd onder een pool en een FS draait op een pool.


Je kan per FS bepaalde properties aan en uitzetten of veranderen. Als je dus een filesystem zou aanmaken wat je "TextData" noemt, dan kan je daar bv. heel hoge compressie op toepassen. Dat heeft weinig zin bij je HD-beelden die al dan niet gecomprimeerd zijn opgeslagen (tenzij dat echt RAW HD is oid, dan kan daar evt nog wel gecomprimeerd worden). Komt er dan bottomline op neer dat je disks weinig data moeten aanleveren (ah ja, want gecomprimeerd) maar dat eens het door de ZFS logica gaat je wel veel bruikbare data aanlevert.

1GB aan textfiles gelezen van de disks kan bwv spreken resulteren in 2GB aan data die JIJ kan lezen.

[ Voor 27% gewijzigd door HyperBart op 23-09-2015 11:37 ]


  • albino71
  • Registratie: Augustus 2006
  • Niet online

albino71

Leef rijk, sterf arm

FireDrunk schreef op woensdag 23 september 2015 @ 10:05:
[...]

Wake on Direct Packet heet dat geloof ik, maar dat is niet echt een gevestigde standaard volgens mij.
Die 2W is alleen maar om de NIC actief te houden, en te kijken of er pakketjes gestuurd worden direct aan het IP van je NAS. Zo ja, gaat hij aan.

Probleem is dat een Ping ook al een direct packet is, waardoor je NAS daar ook wakker van zou kunnen worden...

Ik lees niet echt veel succes verhalen daar over. Bovendien word je NAS wel wakker, maar moet daarna nog 60+ seconden opstarten...

Mijn server boot in uberhaupt 20 seconden ofzo... Met een Wake on LAN appje op je telefoon kan je ook een heel eind komen.
Tja, en toch werkt het wel makkelijk bij de Synology.
Op het moment dat de TV aangaat en de kinderen willen iets kijken, dan verschijnt na 20 seconden de NAS in beeld (DLNA), of via Kodi kunnen ze iets selecteren en dan wordt de NAS ook wakker.

Nu kan ik in Kodi wel een WOL instellen, zodat de eventuele nieuwe NAS server wakker wordt.
Vanaf andere plekken is dat different cook. :)

Ik ga eens kijken of ik iets kan met Wake on Direct Packet Wake on Directed Packet. Thanks!

Te koop....


  • Scorpei
  • Registratie: Oktober 2006
  • Laatst online: 23-03-2022
De 4tera schijven van Seagate heb ik zelf gemeden. Er is wat gezeur geweest met verschillende versies van die schijven onder dezelfde EAN (3-4 platter modellen) en ik geloof dat er ook wel wat verschil was in performance (en mogelijk betrouwbaarheid). Daar kan ik niet zo goed tegen, de consument een onduidelijk product geven. Verder in het verleden zelf nooit problemen gehad met Seagate schijven eigenlijk.

Ik ben voor Toshiba gegaan. Even spieken, de:
-2x MD04ACA400 << relatief bewezen serie (ook geen TLER als ik me niet vergis), wordt ook verkocht onder de merknaam Intenso (duits)
-1x HDWE140EZSTA << nieuwe disk, onbekend hoe of wat (september 2015) maar ik wilde een ander type dan de rest van de array

en dus 1x: Seagate 8tb archive; zullen veel mensen je afraden, maar het is voor mij mijn backup drive. Het verbruik even uit het hoofd scheelt wel aardig wat; de Greens meen ik ong 7W peak en deze 11,5W (dat is toch 50% meer). Deze draaien dan ook meer richting 7200rpm versus 5200rpm van de greens.

Om eerlijk te zijn heb ik me niet specifiek verdiept in of de schijven verder goed zijn, maar heb me een beetje laten sturen door prijs/gb. Anders hoor je toch snel koop WD Reds of inderdaad Hitachi (maar die zijn en stuk duurder). Hier heb ik mijn oude array vol met Samsung Spinpoint F1, F3 en WD green zitten (en zijn recent 2 hitachi's stuk gegaan tegelijk), dus het is en blijft toch altijd wel een gokje.

Graceful shutdown ligt een beetje aan je UPS. Er zijn waarschijnlijk wel mooie voorbeelden voor gok ik, al gebruik ik zelf een APC ups en dus de scripts die meegeleverd zijn met FreeNAS / apc-upsd onder linux. Mij lijkt op zich een ifconfig eth* down en een shutdown -h now voldoende (mogelijk nog een flush en umount van je array?), zodra je UPS aan slaat of onder 10% accu komt oid. Er even van uitgaande DAT je dat natuurlijk kan uitlezen... Anders moet je daar nog iets voor maken.

De OS disks en log/cache van ZFS zijn wezelijk andere dingen die ik bedoelde, excuus! Mirror voor je OS: kan nooit kwaad maar is even wat instelwerk (even goed kijken of native ZFS ook werkt voor de root bij de distro die je kiest). De log of cache schijven zijn wat anders:
http://louwrentius.com/th...n-building-a-zfs-nas.html
http://serverfault.com/qu...for-both-or-two-smaller-s
Korte samenvatting (die vast te kort door de bocht is)
-Write cache: SLC SSD ivm vaak schrijven (niet handig bij grote hoeveelheden continue data schrijven)
-Read cache: handig bij vaak vergelijkbare data lezen (mag/kan MLC, wordt relatief weinig beschreven) \\ deze mag gewoon uitvallen in principe want de data staat ook op de array (MAG ALLEEN IN NIEUWERE VERSIES VAN ZFS, meen >19?)
-1xSSD voor beide: af te raden ivm ander type gebruik

Voegt wel complexiteit toe aan je pool natuurlijk!

===edit===
Ivm twijfel over de avaton (stuk goedkoper weer dan de voorgestelde supermicro), zelf heb ik nu: ASRock E3C224D2
Ben er tot nu toe vrij tevreden mee. Minder SATA, minder ram slots, minder 'bekend' server platform merk, maar ook goedkoper. Samen met de G1840 heb ik nog niet echt een performance probleem gehad. Wel houd ik mijn NAS en andere logica gescheiden. Het is puur een file-tank.

[ Voor 9% gewijzigd door Scorpei op 23-09-2015 13:42 ]

Owner of http://scorpei.com/


  • TimPie Vink
  • Registratie: September 2004
  • Laatst online: 04-04-2023
HyperBart schreef op woensdag 23 september 2015 @ 11:31:
Onwetend != dom ;) . Ik ben gewoon niet zo voor Avoton setjes, in het begin wel, maar de prijs is te weinig gezakt en de performantie is niet echt top, wel door de cores te combineren, maar dan nog.

Heb je al eens naar de BBG's gekeken van de laatste maanden? Je kan eigenlijk net weggeraken met een HP MicroServer (ok die is ook wat verouderd, maar bang for the buck zit dat nog meer dan prima). Dan ga je één klein tweakje moeten uitvoeren zodat je er een 5de disk bij kan steken...
Ik heb hier inderdaad naar gekeken, echter kan ik er niet later nog 5 schijven bijsteken. Ik ben eigenlijk een systeem aan het speccen die minimaal 10 schijven kan dragen.
Als je toch liever zelfbouw doet (helemaal te begrijpen) en dat geld er aan wilt geven kan je eens kijken naar:

http://www.servethehome.c...dv-tln4f-review-platform/

Die zijn afaik wel nog redelijk moeilijk te krijgen (zie ze bv. niet staan in PW)
Misschien heb ik het fout, maar de prijzen op amazon en ebay zyn gemiddeld zo'n $800 - $1000, dat is toch wel ffkes wat meer buiten mijn budget. Schitterend bordje, dat wel!
Even topologie van ZFS:

file/disk
VDEV
Pool
FS

Je maakt dus met een setje disks een VDEV aan, hierop define je redundantie, je kan meerdere VDEV's aanmaken en die zitten onder een pool. Een VDEV zit per definitie altijd onder een pool en een FS draait op een pool.


Je kan per FS bepaalde properties aan en uitzetten of veranderen. Als je dus een filesystem zou aanmaken wat je "TextData" noemt, dan kan je daar bv. heel hoge compressie op toepassen. Dat heeft weinig zin bij je HD-beelden die al dan niet gecomprimeerd zijn opgeslagen (tenzij dat echt RAW HD is oid, dan kan daar evt nog wel gecomprimeerd worden). Komt er dan bottomline op neer dat je disks weinig data moeten aanleveren (ah ja, want gecomprimeerd) maar dat eens het door de ZFS logica gaat je wel veel bruikbare data aanlevert.

1GB aan textfiles gelezen van de disks kan bwv spreken resulteren in 2GB aan data die JIJ kan lezen.
Baie dankie voor de uitleg, dit helpt me met het begrijpen van de structuur. Een bioloog als ik doet dit er maar naast, en ik probeer me zo snel en goed mogelijk in te lezen voordat ik ergens aan begin. Hoewel nu zit ik met het dilemma van dataveiligheid en toch redelijk snel een oplossing the maken.
Scorpei schreef op woensdag 23 september 2015 @ 13:35:
Graceful shutdown ligt een beetje aan je UPS. Er zijn waarschijnlijk wel mooie voorbeelden voor gok ik, al gebruik ik zelf een APC ups en dus de scripts die meegeleverd zijn met FreeNAS / apc-upsd onder linux. Mij lijkt op zich een ifconfig eth* down en een shutdown -h now voldoende (mogelijk nog een flush en umount van je array?), zodra je UPS aan slaat of onder 10% accu komt oid. Er even van uitgaande DAT je dat natuurlijk kan uitlezen... Anders moet je daar nog iets voor maken.

De OS disks en log/cache van ZFS zijn wezelijk andere dingen die ik bedoelde, excuus! Mirror voor je OS: kan nooit kwaad maar is even wat instelwerk (even goed kijken of native ZFS ook werkt voor de root bij de distro die je kiest). De log of cache schijven zijn wat anders:
http://louwrentius.com/th...n-building-a-zfs-nas.html
http://serverfault.com/qu...for-both-or-two-smaller-s
Korte samenvatting (die vast te kort door de bocht is)
-Write cache: SLC SSD ivm vaak schrijven (niet handig bij grote hoeveelheden continue data schrijven)
-Read cache: handig bij vaak vergelijkbare data lezen (mag/kan MLC, wordt relatief weinig beschreven) \\ deze mag gewoon uitvallen in principe want de data staat ook op de array (MAG ALLEEN IN NIEUWERE VERSIES VAN ZFS, meen >19?)
-1xSSD voor beide: af te raden ivm ander type gebruik
Ik zal inderdaad even de poort van de UPS moeten bekijken of dit mogelijk is. Er zit geen RS232 oid op, dus moet even uitzoeken of ik iets kan laten uitlezen hoeveel battery er nog over is. Hij heeft wel een schermpje, de dataverbinding met het schermpje kan via een telefoonkabel, wellicht dat ik daar nog iets kan uittrekken.

Dankie vir de uileg over de log/chach van ZFS, ik ga me er nog wat verder in verdiepen.

Nu zit ik wel nog met het zelfde probleem, zal ik nu voor de C2550 gaan of toch nog even verder zoeken naar een andere optie.... keuzes keuzes.... 8)7

[ Voor 28% gewijzigd door TimPie Vink op 23-09-2015 16:40 ]


Verwijderd

@TimPie: TLER disks heb je niet nodig; WD Green is het meest gebruikt voor ZFS systemen denk ik. Ik ben er veel meer tevreden mee dan mijn Seagate schijven.

Een kleine SSD - dan bedoel je denk ik een slechte SSD. Doe dat nou niet! Ik raad je sterk aan om een Crucial MX200 te nemen, 256GB model kun je als SLC SSD gebruiken mits je niet meer dan 128GB benut, plus overprovisioning dus dan zit je op 100GB dat je effectief kunt gebruiken als je ook L2ARC gaat inzetten. 20GiB boot/systeem partitie, 4GiB sLOG, en de rest L2ARC tot aan 100GiB.

In plaats van C2550 gewoon een J1900 bordje, heerlijk goedkoop alleen geen ECC dat is het enige nadeel. Of je ECC nodig hebt kun je in deze thread lezen: ECC geheugen voor zelfbouw ZFS NAS?.

Succes!

  • TimPie Vink
  • Registratie: September 2004
  • Laatst online: 04-04-2023
Thanks CiPHER,
Nu hoef ik alleen zeker te maken dat ik de WD green niet van dezelfde batch krijg.
Ok ik zal eens kijken wat de prijzen van een MX200 256GB in SA doen.
Erg goedkoop inderdaad, maar ik wil toch zeker ECC voor mijn data hebben, heb al te vaak een bitje hier en daar verloren, waardoor een video corrupt ging of textbestanden niet leesbaar waren.
Ik kan met een beetje google toch echt niks tussen die J1900 of C2550 vinden.. Al vind ik dat ik me ook gauw verkijk op de prijs van een C2500, waar ik natuurlijk geen proc by hoeft te kopen.

Verwijderd

TimPie Vink schreef op woensdag 23 september 2015 @ 17:52:
Thanks CiPHER,
Nu hoef ik alleen zeker te maken dat ik de WD green niet van dezelfde batch krijg.
Dat wil je in principe juist wel. Betere latency omdat je uit dezelfde badge zit en bij recovery van de ene schijf heb je al de printplaat van de ander. Ik vind het erg overdreven om persé andere badges te willen. Het is voor de latency niet handig in elk geval.
Erg goedkoop inderdaad, maar ik wil toch zeker ECC voor mijn data hebben, heb al te vaak een bitje hier en daar verloren, waardoor een video corrupt ging of textbestanden niet leesbaar waren.
Daar heb je dus met ZFS geen last meer van. Je kunt hooguit een hele file verliezen in het ergste geval - dan kun je die uit backup terughalen. Daarnaast verlies je End-to-End Data Integrity, dus je applicaties kunnen corrupte data aangeleverd krijgen. ECC op je server is niet voldoende, op alle workstations moet je dan ook ECC nemen. Mijn argument in dat topic was ook dat je op je workstation juist nog meer behoefte hebt aan ECC dan op de ZFS server zelf, want ZFS heeft zelf al bescherming terwijl je workstations helemaal niets hebben.
Ik kan met een beetje google toch echt niks tussen die J1900 of C2550 vinden..
Is er ook niet. Althans niet van de Bay Trail generatie. Je kunt wel kijken naar HP Microserver. Heeft wel ECC en ongeveer dezelfde CPU power, maar wel 5x zo hoge TDP uit mijn hoofd, dus DC-DC power wordt dan een heel stuk lastiger.

  • Scorpei
  • Registratie: Oktober 2006
  • Laatst online: 23-03-2022
Even een overweging, het voegt ergens complexiteit toe aan je systeem toe, maar je kan natuurlijk een extra ups toevoegen (bijv apc smart ups bc 350) waarvan er bekende protocollen en tooltjes zijn.

Voor cipher: eigenlijk wil je dan ook nog end to end beveiliging wat betreft je netwerk natuurlijk....

Owner of http://scorpei.com/


  • tweedebas
  • Registratie: September 2012
  • Laatst online: 26-09 20:28

Verwijderd

Discussies over ECC mogen in het ECC geheugen voor zelfbouw ZFS NAS? topic - dit topic is voor advies over zelfbouw NAS. Centraal daarbij staan de wensen van de specifieke gebruiker in de specifieke situatie. Algemene discussies omtrent wel of geen ECC mogen derhalve in het genoemde topic.

  • Q
  • Registratie: November 1999
  • Laatst online: 00:28
Modbreak:Als je het niet eens bent met een actie van de moderator, weet je als ervaren GoT-gebruiker waar je moet zijn. Vanaf nu graag on-topic. Reacties specifiek gericht aan TimPie Vink mogen uiteraard wel in dit topic - dus ook als deze over ECC gaan. Maar we gaan niet de gehele ECC discussie fijntjes overnieuw doen - daar is het aparte topic beter geschikt voor.


In de context van TimPie Vink's situatie is het zeker raadzaam om ECC-geheugen toe te passen.
Afhankelijk van de hoeveelheid data en gewenste redundancy (RAIDZ2 is raadzaam) kan een Microserver Gen8 die rond de 30-35 watt idle doet, een mooie oplossing zijn, maar die gaat tot 16 GB RAM max.

Wil je meer RAM of disks, dan moet je aan de zelfbouw of gewoon een merk server kopen HP/Dell.

Misschien helpt deze info (zie de 2 tabs voor CPU en Mobo)

https://docs.google.com/s...LHkrg/edit#gid=1721926988

Het nieuwe Xeon D-15x0 platform is nog niet/slecht leverbaar en de prijzen zijn naar verwachting erg hoog.

[ Voor 62% gewijzigd door Verwijderd op 23-09-2015 23:47 ]


  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 01:48
Modbreak:Idem aan hierboven - dit hoort niet in dit topic. Of je maakt een TopicReport aan, of je wendt je tot relevante fora zoals Lieve Adjes. Een DM-bericht aan mij zou je als tussenstap nog kunnen overwegen.

[ Voor 115% gewijzigd door Verwijderd op 23-09-2015 23:40 ]


Verwijderd

Braswell is inderdaad de opvolger van Bay Trail (J1900), maar voegt niet veel toe behalve AES-NI dus hardwarematige encryptie. Bovendien is het topmodel wat als tegenhanger van de J1900 gezien kan worden, niet beschikbaar in DC-DC uitvoering waardoor het zuinige aspect van J1900 teniet wordt gedaan, of je moet alsnog met een duurdere PicoPSU werken. Dit bordje blijft favoriet voor diegenen die J1900 overwegen: pricewatch: ASRock Q1900DC-ITX. En daar is dus (nog) geen Braswell-uitvoering van. Alleen van de langzamere én duurdere pricewatch: ASRock N3150DC-ITX.

Kortom, de J1900 is nog steeds favoriet.

  • TimPie Vink
  • Registratie: September 2004
  • Laatst online: 04-04-2023
Q schreef op woensdag 23 september 2015 @ 23:17:
[modbreak]
[...]
In de context van TimPie Vink's situatie is het zeker raadzaam om ECC-geheugen toe te passen.
Afhankelijk van de hoeveelheid data en gewenste redundancy (RAIDZ2 is raadzaam) kan een Microserver Gen8 die rond de 30-35 watt idle doet, een mooie oplossing zijn, maar die gaat tot 16 GB RAM max.

Wil je meer RAM of disks, dan moet je aan de zelfbouw of gewoon een merk server kopen HP/Dell.

Misschien helpt deze info (zie de 2 tabs voor CPU en Mobo)

https://docs.google.com/s...LHkrg/edit#gid=1721926988

Het nieuwe Xeon D-15x0 platform is nog niet/slecht leverbaar en de prijzen zijn naar verwachting erg hoog.
Ik heb toch altijd de filosofie om iets te kopen wat op de groei gericht is. Het probleem met een Microserver en een Asrock Q1900 is dat de limiting factor toch de schijven en het geheugen zijn. Ook zit in de Q1900 maar 1 PCI-e slot, en kan ik dus niet veel verder uitbreiden mocht ik 10 schijven willen? Ik ben niet bang voor een zelfbouw, en alle bovenstaande zijn niet in Zuid Afrika beschikbaar, dus ik ga het allemaal toch moeten importeren via Ebay of Amazon.

Wat betreft de ECC is dat mijn andere server ook ECC geheugen heeft, dus ik denk dat de redenatie voldoende is om dan toch voor een bordje met ECC te gaan goed is.
Ook als ik eventueel in de future denk aan wel encryptie (je weet maar nooit hoe het gaat met deze malle wereld en biologische data might just be gold soon :P )

Om het nu nog over een nieuwe boeg te gooien, hoe denken jullie over een rackserver case? Waar ik de kans heb om 15 bays in gebruik te nemen. Ook hier hoef je vaak niet aan ITX te denken, of zit ik fout?
De balans tussen een mooie kleine server en en lawaaierig grotere server, laat staan het verbruik, is dan waarschijnlijk wel zoek.

Ik dacht dat ik het had met de C2550, maar jullie hebben me (terecht) goed aan het twijfelen gebracht.

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 01:48
Als je een rack server neemt kan je ineens grotere/goedkopere moederborden nemen, dan ligt de markt wat verder open.

Je kan eens kijken bij SuperMicro cases. Normaal zou ik RiVier aanraden, maar dat is een Nederlandse distri en die gaat in Tanzanie niet leveren denk ik ;)

  • novastorm76
  • Registratie: April 2010
  • Laatst online: 24-09 10:53
RiVIER heeft wat problemen de laatste tijd. ik zocht ook naar een goedkope en uitgebreide case.maar ze hadden er nog maar 2 in voorraad. en vandaag zie ik dit:
At this moment wo do not sell new cases. We do not know when we will start selling new cases.
We apologize for the inconvenience.

Acties:
  • +1 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:28
TimPie Vink schreef op donderdag 24 september 2015 @ 11:29:

Om het nu nog over een nieuwe boeg te gooien, hoe denken jullie over een rackserver case? Waar ik de kans heb om 15 bays in gebruik te nemen. Ook hier hoef je vaak niet aan ITX te denken, of zit ik fout?
De balans tussen een mooie kleine server en en lawaaierig grotere server, laat staan het verbruik, is dan waarschijnlijk wel zoek.

Ik dacht dat ik het had met de C2550, maar jullie hebben me (terecht) goed aan het twijfelen gebracht.
Standaard maken server cases wel wat lawaai, als je niet wat dingen aanpast dan moet je echt een ruimte hebben waar je 'm kwijt kunt. Pas op met het vervangen van Fans want met veel drives heb je een goede airflow nodig.

Zelf heb ik iets custom gemaakt: een script dat de fan speed van de chassis fans aanpast aan de temperatuur van de heetste schijf. Maar dat is wel een ultra-nerd oplossing (Linux-only en vereist control over je PWM fans (supermicro bord bijvoorbeeld)).

https://github.com/louwrentius/storagefancontrol

Ik heb zelf een Ri-vier case waar ik tevreden over ben maar helaas is dat spul niet meer verkrijgbaar :(
Misschien xcase.co.uk?

Omdat je mogelijk in stappen je storage wilt uitbreiden zou ik even rekening houden met het feit dat je ZFS VDEVS niet zomaar kunt uitbreiden.

Ik heb een tijd terug een artikel geschreven over waar je wel/niet rekening mee moet houden als je voor ZFS gaat. Kun je zelf bepalen wat wel/niet voor jou van belang is. Hij staat ook in mijn signature.

http://louwrentius.com/th...n-building-a-zfs-nas.html

  • Scorpei
  • Registratie: Oktober 2006
  • Laatst online: 23-03-2022
+1 voor de laatste link van Q (die heb ik ook aangehaald iets terug in het topic :))!

Als stroomverbruik je trouwens weinig interesseert maar up-front-kosten wel en je wel expandability wil is misschien een AM3+ oplossing (atx) nog een optie? Samen met een mooie ATX case kun je veel schijven kwijt, performance is prima, ECC is mogelijk en is de aanschaf waarschijnlijk niet erg prijzig. Natuurlijk wel wat out-dated hardware verder.

[ Voor 67% gewijzigd door Scorpei op 24-09-2015 16:23 ]

Owner of http://scorpei.com/


  • Niels.68
  • Registratie: Mei 2010
  • Laatst online: 03-08-2024
Verwijderd schreef op woensdag 23 september 2015 @ 23:45:
[...]

Dit bordje blijft favoriet voor diegenen die J1900 overwegen: pricewatch: ASRock Q1900DC-ITX. En daar is dus (nog) geen Braswell-uitvoering van. Alleen van de langzamere én duurdere pricewatch: ASRock N3150DC-ITX.

Kortom, de J1900 is nog steeds favoriet.
Als ik ze op de ASRock website vergelijk zie ik als grote verschil dat er bij de N3150DC een poweradapter meegeleverd wordt, het aspect duurder wordt hiermee teniet gedaan. Ik wilde dit toch even toevoegen en lees verder weer lekker mee.

Acties:
  • 0 Henk 'm!

Verwijderd

Goed punt! Dat maakt zeker een deel van het prijsverschil goed - al is het alternatief ook goed betaalbaar: pricewatch: Seasonic Power Adapter 60W - 19V. Vroeger zelfs 16 euro - ik denk dat je hem elders nog wel iets goedkoper zou kunnen krijgen.

Ik dacht ook dat de N3150 een dualcore was; maar dat blijkt niet zo. De N3050 is een dualcore. De N3150 is een quadcore maar slechts iets lager geklokt. Dus hij is wel langzamer dan de J1900 maar dat verschil zal niet heel groot zijn. Toch is het niet echt een supergrote 'upgrade' - de AES-NI is leuk en oke je hebt nu twee SATA/600 poorten van de SoC-chip ipv twee SATA/300. Maar dat is het dan ook wel. De CPU is trager; want nog steeds 1.6GHz base clock - zelfs het topmodel de N3700 waar dus geen DC-versie van is met onboard power supply. En die 6W TDP ipv 10W TDP heb je voor een niet-mobiel systeem natuurlijk niets aan. Dat is leuk voor een laptop voor extra accuduur. Veel liever hadden we een Braswell gezien met 10W TDP waarbij 2.4GHz base click met turbo core tot 2.8GHz mogelijk was geweest, bijvoorbeeld.

Ik hoop dat de opvolger van Braswell meer zoden aan de dijk zet. Want dit is wel een leuk platform voor een instap ZFS server. Maar dan moet het niet in CPU kracht achteruit gaan dat is toch enigszins vreemd voor een opvolger.

Acties:
  • 0 Henk 'm!

  • TimPie Vink
  • Registratie: September 2004
  • Laatst online: 04-04-2023
Hartelijk dank Q, ik heb inderdaad jouw artikel een tijdje terug gelezen, maar zal hem nog eens goed doorspitten om de puntjes op den i te zetten. Helaas is de SAR (South African Rand) op het moment erg zwak ten opzichte van de Sterling, xcase is hierdoor meer dan dubbel de prijs (R1 = ~ £21) en dus niet echt een optie.

Wat betreft de N3150 vs J1900, ik denk dat ik met CiPHER meega in zijn mening dat er weinig voordeel te behalen valt uit de N3150 ongeacht voor de prijs. Het enige wat ik me afvraag, wat voor SATA/SAS kaart ga ik hier inzetten, en gaan de extra kosten voor deze kaart + MB niet de C2550 in de buurt komen?

Ik vind het een interessante ontwikkeling dat deze moederborden eigenlijk al wat ouder zijn en vrij weinig worden vernieuwd met hun opvolgers. Er lijkt bijna geen keuze voor de middenmoot, het is of een goedkoop platform of een duur platform.

Wat betreft de expandibility, wat zijn de stappen die jullie hebben genomen om uit te breiden? Wat beveel je aan, starten met een Raid-Z2 van 6, dan bijzetten van z2 van 4 of een Raid-z van 5? Met een start van 4TB*(6-2) is 16TB, dan heb ik mijn opslag al gelijk voor 75% vol zitten (maar wel veilig).
Ok, na het nog een keer lezen van je artikel Q, zie ik dat ik geld waste als ik of 2x 6 of 1x6(z2) en 1x5(z) doe. Misschien moet ik gelijk maar voor 10x4TB (z2) of 10x 5TB (z2 | eina, pijn in de portemonee) gaan.

[ Voor 8% gewijzigd door TimPie Vink op 25-09-2015 09:13 ]


Acties:
  • 0 Henk 'm!

  • maomanna
  • Registratie: Februari 2006
  • Laatst online: 19:34
je zou als SATA/SAS kaart de Dell PERC H310 of de IBM 1015M kunnen pakken.
Beide prima kaartjes.

https://pvoutput.org/intraday.jsp?id=102416&sid=90116


Acties:
  • 0 Henk 'm!

  • exCite1
  • Registratie: September 2010
  • Laatst online: 04-09 09:17
Ik ben eens aan het kijken om mijn Synology DS410j te vervangen door iets krachtiger en dacht aan een zelfbouw budget NAS.

Ik dacht tot nu toe aan dit:

#ProductPrijsSubtotaal
1ASRock Q1900-ITX€ 79,50€ 79,50
4Toshiba PA429xE-1HN0, 3TB€ 84,69€ 338,76
1Kingston ValueRAM RMN3-1333/4G€ 0,-€ 0,-
1be quiet! System Power 7 300W€ 35,01€ 35,01
Bekijk collectie
Importeer producten
Totaal€ 453,27


In combinatie met Ubuntu.
Eventueel nog een mSATA SSD van 32GB voor Ubuntu.
De 4 Toshiba's in RAID5 op de onboard SATA's.

Mijn Inventaris


Acties:
  • 0 Henk 'm!

  • rg-mohwa
  • Registratie: September 2004
  • Laatst online: 26-09 15:27

rg-mohwa

Phoe Hé

Verwijderd schreef op vrijdag 25 september 2015 @ 00:26:
Goed punt! Dat maakt zeker een deel van het prijsverschil goed - al is het alternatief ook goed betaalbaar: pricewatch: Seasonic Power Adapter 60W - 19V. Vroeger zelfs 16 euro - ik denk dat je hem elders nog wel iets goedkoper zou kunnen krijgen.
let wel op, als je meer als 2 sata poorten gaat gebruiken, raad asrock je aan om een 80 watt poweradapter te gebruiken, hierdoor moet je dus alsnog een andere aanschaffen als je meer als 2 disken eraan gaat hangen.

Acties:
  • 0 Henk 'm!

  • avdpeijl
  • Registratie: Maart 2014
  • Laatst online: 26-09 13:35
maomanna schreef op vrijdag 25 september 2015 @ 09:23:
je zou als SATA/SAS kaart de Dell PERC H310 of de IBM 1015M kunnen pakken.
Beide prima kaartjes.
Past dat wel op zo'n board? Volgens specs kan het alleen maar PCI-e 2.0 x1 verwerken.

Acties:
  • 0 Henk 'm!

  • maomanna
  • Registratie: Februari 2006
  • Laatst online: 19:34
de sata/sas controllers die ik in de PW vind zijn allemaal 2x sata. niet echt noemenswaardig.

zou dan voor een mobo kiezen die dus pci-e 2.0 x4 heeft.

https://pvoutput.org/intraday.jsp?id=102416&sid=90116


Acties:
  • 0 Henk 'm!

Verwijderd

@rg-mohwa: informatie van de fabrikant is helaas niet altijd betrouwbaar. Vooral juridisch om bij problemen naar de te lage specs te verwijzen. Zo ook dat bordjes als X10SBA maar 8GiB aankunnen - terwijl 16GiB prima werkt. Dat heb ik hier ook zo draaien.

Ik heb zelf ook getest met 6 schijven opspinnen, en dat waren geeneens zuinige WD Greens maar minder zuinige Seagates. Echter oudere schijven zoals 250GB verbruiken het dubbele bij opspinnen; dus logisch dat ze extra veel marge nemen ook rekening houdend met alle andere meuk die mogelijkerwijs is aangesloten. Maar 4 schijven kan prima met 60W adapter; het dubbele zal technisch ook kunnen want je kunt veelal over het limiet gaan als dit enkel voor spinup nodig is. Ook dit heb ik getest; resultaten staan ergens in deze draad.

@maomanna: het SuperMicro X10SBA bordje heeft beschikking over PCI-express 2.0 x2 in een x8 slot. Niet zo goed als native bandbreedte maar 1GB/s mag toch prima zijn voor een addon controller. http://www.supermicro.com...rd/celeron/X10/X10SBA.cfm

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:28
TimPie Vink schreef op vrijdag 25 september 2015 @ 09:05:
Hartelijk dank Q, ik heb inderdaad jouw artikel een tijdje terug gelezen, maar zal hem nog eens goed doorspitten om de puntjes op den i te zetten. Helaas is de SAR (South African Rand) op het moment erg zwak ten opzichte van de Sterling, xcase is hierdoor meer dan dubbel de prijs (R1 = ~ £21) en dus niet echt een optie.
Dat is jammer, maar het is wat je zoekt want als hot-swap bays niet zo'n issue is, kun je een reguliere en beter betaalbare case overwegen.
Ok, na het nog een keer lezen van je artikel Q, zie ik dat ik geld waste als ik of 2x 6 of 1x6(z2) en 1x5(z) doe. Misschien moet ik gelijk maar voor 10x4TB (z2) of 10x 5TB (z2 | eina, pijn in de portemonee) gaan.
Dat is dus een beetje het dillema met ZFS. Wil je geld nu of later verspillen?

Het hangt er helemaal van af wat echt realistisch voor je is qua toekomstig gebruik. Met de 'large_blocks' feature van ZFS zou je ook misschien een 8-disk RAIDZ2 kunnen overwegen. Scheelt nu weer 300 euro aan disks, maar geeft nog wel 6 x 4 = 32 24 TB aan bruikbare capaciteit.

Persoonlijk zou ik gewoon kopen wat je echt nodig denkt te hebben en het verlies van extra disks in een 2e VDEV voor lief nemen als je toch zover komt dat je de extra capaciteit nodig hebt. Maar dat blijft een persoonlijke overweging.

Acties:
  • 0 Henk 'm!

  • maomanna
  • Registratie: Februari 2006
  • Laatst online: 19:34
Verwijderd schreef op vrijdag 25 september 2015 @ 13:12:
@maomanna: het SuperMicro X10SBA bordje heeft beschikking over PCI-express 2.0 x2 in een x8 slot. Niet zo goed als native bandbreedte maar 1GB/s mag toch prima zijn voor een addon controller. http://www.supermicro.com...rd/celeron/X10/X10SBA.cfm
ging over het Q/J1900 bordje. Niet een SuperMicrobord.

https://pvoutput.org/intraday.jsp?id=102416&sid=90116


Acties:
  • 0 Henk 'm!

  • F-Tim
  • Registratie: November 2003
  • Laatst online: 14-09 12:03
Q schreef op vrijdag 25 september 2015 @ 13:25:
[...]


Dat is jammer, maar het is wat je zoekt want als hot-swap bays niet zo'n issue is, kun je een reguliere en beter betaalbare case overwegen.


[...]


Dat is dus een beetje het dillema met ZFS. Wil je geld nu of later verspillen?

Het hangt er helemaal van af wat echt realistisch voor je is qua toekomstig gebruik. Met de 'large_blocks' feature van ZFS zou je ook misschien een 8-disk RAIDZ2 kunnen overwegen. Scheelt nu weer 300 euro aan disks, maar geeft nog wel 6 x 4 = 32 TB aan bruikbare capaciteit.

Persoonlijk zou ik gewoon kopen wat je echt nodig denkt te hebben en het verlies van extra disks in een 2e VDEV voor lief nemen als je toch zover komt dat je de extra capaciteit nodig hebt. Maar dat blijft een persoonlijke overweging.
Volgens mij bedoel je... 24TB capaciteit :)

Wanna play?


Acties:
  • +1 Henk 'm!

  • Kortfragje
  • Registratie: December 2000
  • Laatst online: 18-09 22:14

Kortfragje

......

Ter info:
Het blijkt dat onderstaande probleem veroorzaakt werd door het stervende moederbord (langzaam stervend). Zie ook [ASUS M5A97] Geen post meer

Afgezien van het mobo heb ik niets veranderd (softwarematig noch hardwarematig) en de error is verdwenen...
Kortfragje schreef op maandag 15 juni 2015 @ 15:20:
Af en toe bij boot de volgende error:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
Jun 14 20:07:04 KarelDoorman kernel: [    9.821404] ata6.00: exception Emask 0x10 SAct 0x380000 SErr 0x400000 action 0x6 frozen
Jun 14 20:07:04 KarelDoorman kernel: [    9.821472] ata6.00: irq_stat 0x08000000, interface fatal error
Jun 14 20:07:04 KarelDoorman kernel: [    9.821523] ata6: SError: { Handshk }
Jun 14 20:07:04 KarelDoorman kernel: [    9.821575] ata6.00: failed command: WRITE FPDMA QUEUED
Jun 14 20:07:04 KarelDoorman kernel: [    9.821626] ata6.00: cmd 61/08:98:10:09:00/00:00:00:00:00/40 tag 19 ncq 4096 out
Jun 14 20:07:04 KarelDoorman kernel: [    9.821626]          res 40/00:a0:10:0b:00/00:00:00:00:00/40 Emask 0x10 (ATA bus error)
Jun 14 20:07:04 KarelDoorman kernel: [    9.821715] ata6.00: status: { DRDY }
Jun 14 20:07:04 KarelDoorman kernel: [    9.821765] ata6.00: failed command: WRITE FPDMA QUEUED
Jun 14 20:07:04 KarelDoorman kernel: [    9.821819] ata6.00: cmd 61/08:a0:10:0b:00/00:00:00:00:00/40 tag 20 ncq 4096 out
Jun 14 20:07:04 KarelDoorman kernel: [    9.821819]          res 40/00:a0:10:0b:00/00:00:00:00:00/40 Emask 0x10 (ATA bus error)
Jun 14 20:07:04 KarelDoorman kernel: [    9.821905] ata6.00: status: { DRDY }
Jun 14 20:07:04 KarelDoorman kernel: [    9.8ata621954] ata6.00: failed command: WRITE FPDMA QUEUED
Jun 14 20:07:04 KarelDoorman kernel: [    9.822008] ata6.00: cmd 61/08:a8:10:95:30/00:00:46:02:00/40 tag 21 ncq 4096 out
Jun 14 20:07:04 KarelDoorman kernel: [    9.822008]          res 40/00:a0:10:0b:00/00:00:00:00:00/40 Emask 0x10 (ATA bus error)
Jun 14 20:07:04 KarelDoorman kernel: [    9.822093] ata6.00: status: { DRDY }
Jun 14 20:07:04 KarelDoorman kernel: [    9.822142] ata6: hard resetting link
Jun 14 20:07:04 KarelDoorman kernel: [   10.312222] ata6: SATA link up 6.0 Gbps (SStatus 133 SControl 300)
Jun 14 20:07:04 KarelDoorman kernel: [   10.313685] ata6.00: configured for UDMA/133
Jun 14 20:07:04 KarelDoorman kernel: [   10.313754] ata6: EH complete
Jun 14 20:07:04 KarelDoorman kernel: [   10.599488] ata6.00: exception Emask 0x10 SAct 0x2000 SErr 0x400000 action 0x6 frozen
Jun 14 20:07:04 KarelDoorman kernel: [   10.599553] ata6.00: irq_stat 0x08000000, interface fatal error
Jun 14 20:07:04 KarelDoorman kernel: [   10.599603] ata6: SError: { Handshk }
Jun 14 20:07:04 KarelDoorman kernel: [   10.599651] ata6.00: failed command: WRITE FPDMA QUEUED
Jun 14 20:07:04 KarelDoorman kernel: [   10.599702] ata6.00: cmd 61/e0:68:20:96:30/00:00:46:02:00/40 tag 13 ncq 114688 out
Jun 14 20:07:04 KarelDoorman kernel: [   10.ata6599702]          res 40/00:68:20:96:30/00:00:46:02:00/40 Emask 0x10 (ATA bus error)
Jun 14 20:07:04 KarelDoorman kernel: [   10.599789] ata6.00: status: { DRDY }
Jun 14 20:07:04 KarelDoorman kernel: [   10.599837] ata6: hard resetting link
Jun 14 20:07:04 KarelDoorman kernel: [   11.088385] ata6: SATA link up 6.0 Gbps (SStatus 133 SControl 300)
Jun 14 20:07:04 KarelDoorman kernel: [   11.089768] ata6.00: configured for UDMA/133
Jun 14 20:07:04 KarelDoorman kernel: [   11.089835] ata6: EH complete
Jun 14 20:07:04 KarelDoorman kernel: [   11.090040] ata6.00: exception Emask 0x10 SAct 0x4000 SErr 0x400000 action 0x6 frozen
Jun 14 20:07:04 KarelDoorman kernel: [   11.090102] ata6.00: irq_stat 0x08000000, interface fatal error
Jun 14 20:07:04 KarelDoorman kernel: [   11.090152] ata6: SError: { Handshk }
Jun 14 20:07:04 KarelDoorman kernel: [   11.090200] ata6.00: failed command: WRITE FPDMA QUEUED
Jun 14 20:07:04 KarelDoorman kernel: [   11.090251] ata6.00: cmd 61/e0:70:20:96:30/00:00:46:02:00/40 tag 14 ncq 114688 out
Jun 14 20:07:04 KarelDoorman kernel: [   11.090251]          res 40/00:70:20:96:30/00:00:46:02:00/40 Emask 0x10 (ATA bus error)
Jun 14 20:07:04 KarelDoorman kernel: [   11.090370] ata6.00: status: { DRDY }
Jun 14 20:07:04 KarelDoorman kernel: [   11.090418] ata6: hard resetting link
Jun 14 20:07:04 KarelDoorman kernel: [   11.580508] ata6: SATA link up 6.0 Gbps (SStatus 133 SControl 300)
Jun 14 20:07:04 KarelDoorman kernel: [   11.581929] ata6.00: configured for UDMA/133
Jun 14 20:07:04 KarelDoorman kernel: [   11.581996] ata6: EH complete
Jun 14 20:07:04 KarelDoorman kernel: [   11.789569] ata6: limiting SATA link speed to 3.0 Gbps
Jun 14 20:07:04 KarelDoorman kernel: [   11.789624] ata6.00: exception Emask 0x10 SAct 0x800000 SErr 0x400000 action 0x6 frozen
Jun 14 20:07:04 KarelDoorman kernel: [   11.789685] ata6.00: irq_stat 0x08000000, interface fatal error
Jun 14 20:07:04 KarelDoorman kernel: [   11.789734] ata6: SError: { Handshk }
Jun 14 20:07:04 KarelDoorman kernel: [   11.789782] ata6.00: failed command: WRITE FPDMA QUEUED
Jun 14 20:07:04 KarelDoorman kernel: [   11.789833] ata6.00: cmd 61/e0:b8:20:94:30/00:00:46:02:00/40 tag 23 ncq 114688 out
Jun 14 20:07:04 KarelDoorman kernel: [   11.789833]          res 40/00:b8:20:94:30/00:00:46:02:00/40 Emask 0x10 (ATA bus error)
Jun 14 20:07:04 KarelDoorman kernel: [   11.789919] ata6.00: status: { DRDY }
Jun 14 20:07:04 KarelDoorman kernel: [   11.791023] ata6: hard resetting link
Jun 14 20:07:04 KarelDoorman kernel: [   12.280691] ata6: SATA link up 3.0 Gbps (SStatus 123 SControl 320)
Jun 14 20:07:04 KarelDoorman kernel: [   12.282112] ata6.00: configured for UDMA/133
Jun 14 20:07:04 KarelDoorman kernel: [   12.282180] ata6: EH complete


maar niet altijd, disk verder ok, performance ok, geen issues tijdens runnen, en sata als volgt:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   203   203   021    Pre-fail  Always       -       8825
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       13
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       401
 10 Spin_Retry_Count        0x0032   100   253   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   253   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       13
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       0
193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       1797
194 Temperature_Celsius     0x0022   123   114   000    Old_age   Always       -       29
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   200   200   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed without error       00%       127         -
# 2  Extended offline    Completed without error       00%        10         -


iemand enig idee in welke richting dit te zoeken? wel irritant nml :P lijkt erop dat dit een probleem met sata 6gbps is wat niet speelt bij 3gbps..?

os = ubuntu 12.04, disk is wd green 5tb, controller is intel 6 poorts

hm nvmind, deze oplossingen eens proberen : https://bbs.archlinux.org/viewtopic.php?id=182098

http://www.gjpvanwesten.nl


Acties:
  • 0 Henk 'm!

  • TheGrillmeister
  • Registratie: Februari 2010
  • Laatst online: 27-09 00:44
Ben bezig met het samenstellen van een simpele NAS welke naar mijn idee op FreeNAS gaat draaien. Hierover heb ik nog enige vragen:

Gebruik:
- ZFS
- Fileserver
- Backup
- Sabnzbd
- Couchpotato
- Plex?
- Virtual machines? (toekomst: bbqlinux bv)

Vragen:
- Is de Q1900 compatible met FreeNAS, je leest wel is wat over de netwerkkaart support
- Kan FreeNAS nog steeds goed vanaf een USB stick worden gedraaid of is een kleine SSD aan te bevelen?
- Heeft WD RED een voordeel tov WD GREEN
- Welk geheugen uit mijn lijstje is aan te bevelen, zelf nijg ik naar de ballistix wegens CAS = 9 of zijn er nog andere goede chips
- Zijn er betere opties dan FreeNAS

#ProductPrijsSubtotaal
1ASRock Q1900DC-ITX€ 101,95€ 101,95
2WD Green WD30EZRX€ 97,01€ 194,02
1Cooler Master Elite 110€ 36,95€ 36,95
1Sandisk Ultra USB 3.0 Flash Drive 32GB Zwart€ 13,22€ 13,22
1Crucial Ballistix Sport BLS8G3N169ES4CEU€ 49,25€ 49,25
1Crucial CT102464BF160B€ 38,95€ 38,95
1Seasonic Power Adapter 60 Watt (12V)€ 21,88€ 21,88
Bekijk collectie
Importeer producten
Totaal€ 456,22

Acties:
  • 0 Henk 'm!

  • FDMK
  • Registratie: Augustus 2004
  • Laatst online: 20:59
Ten aanzien van Plex: Davidshadow13 in "Het grote DIY RAID NAS topic deel 3"
Ik zit ook naar een dergelijke setup te kijken maar dan met 4 schijven van 4TB. Jammere van die Cpu is dat een latere inzetbaarheid van Plex er inderdaad niet in zit.

[ Voor 44% gewijzigd door FDMK op 27-09-2015 15:38 ]

Any job you can do in your pajamas is not the hardest job in the world.


Acties:
  • 0 Henk 'm!

  • TheGrillmeister
  • Registratie: Februari 2010
  • Laatst online: 27-09 00:44
Rooke schreef op zondag 27 september 2015 @ 15:33:
Ten aanzien van Plex: Davidshadow13 in "Het grote DIY RAID NAS topic deel 3"
Ik zit ook naar een dergelijke setup te kijken maar dan met 4 schijven van 4TB. Jammere van die Cpu is dat een latere inzetbaarheid van Plex er inderdaad niet in zit.
Bedankt voor je reactie, Plex is ook geen must in mijn opstelling maar misschien iets om in overweging te nemen voor in de toekomst. Voor welke merk/type hardeschijven ga jij ?

Acties:
  • 0 Henk 'm!

  • FDMK
  • Registratie: Augustus 2004
  • Laatst online: 20:59
Tichelmanm schreef op zondag 27 september 2015 @ 15:48:
[...]


Bedankt voor je reactie, Plex is ook geen must in mijn opstelling maar misschien iets om in overweging te nemen voor in de toekomst. Voor welke merk/type hardeschijven ga jij ?
Ik heb momenteel 3x3TB WD RED's in een raidz1. Setup draait al een jaar of 3 en heb nog steeds 1,5TB over qua capaciteit dus wellicht is mijn plan voor 4x4TB niet helemaal iets wat ik nodig ga hebben in de komende jaren. Wil gewoon de goedkoopste schijven, dat zijn nu de pricewatch: Seagate Desktop HDD ST4000DM000, 4TB

Any job you can do in your pajamas is not the hardest job in the world.


Acties:
  • 0 Henk 'm!

  • exCite1
  • Registratie: September 2010
  • Laatst online: 04-09 09:17
exCite1 schreef op vrijdag 25 september 2015 @ 11:40:
Ik ben eens aan het kijken om mijn Synology DS410j te vervangen door iets krachtiger en dacht aan een zelfbouw budget NAS.

Ik dacht tot nu toe aan dit:

#ProductPrijsSubtotaal
1ASRock Q1900-ITX€ 79,50€ 79,50
4Toshiba PA429xE-1HN0, 3TB€ 84,69€ 338,76
1Kingston ValueRAM RMN3-1333/4G€ 0,-€ 0,-
1be quiet! System Power 7 300W€ 35,01€ 35,01
Bekijk collectie
Importeer producten
Totaal€ 453,27


In combinatie met Ubuntu.
Eventueel nog een mSATA SSD van 32GB voor Ubuntu.
De 4 Toshiba's in RAID5 op de onboard SATA's.
Niemand hier tips of opmerkingen over?

Mijn Inventaris


Acties:
  • 0 Henk 'm!

  • TheGrillmeister
  • Registratie: Februari 2010
  • Laatst online: 27-09 00:44
exCite1 schreef op zondag 27 september 2015 @ 17:48:
[...]


Niemand hier tips of opmerkingen over?
Waarom niet de Q1900DC met bijv. een 80W voeding

Q1900DC-ITX sata voorzien van stroom

Edit:

Mijn 2 lijstjes op dit moment voor een mogelijke NAS:

#ProductPrijsSubtotaal
1ASRock Q1900DC-ITX€ 101,95€ 101,95
2WD Green WD30EZRX€ 97,01€ 194,02
1Cooler Master Elite 110€ 36,95€ 36,95
1Sandisk Ultra USB 3.0 Flash Drive 32GB Zwart€ 13,22€ 13,22
1Crucial Ballistix Sport BLS8G3N169ES4CEU€ 49,25€ 49,25
1Seasonic Power Adapter 60 Watt (12V)€ 22,99€ 22,99
Bekijk collectie
Importeer producten
Totaal€ 418,38



#ProductPrijsSubtotaal
1Intel Pentium G3258 Boxed€ 67,90€ 67,90
1ASRock B85M Pro4€ 61,95€ 61,95
2WD Green WD30EZRX€ 97,01€ 194,02
1Cooler Master Silencio 352€ 56,23€ 56,23
1Sandisk Ultra USB 3.0 Flash Drive 32GB Zwart€ 13,22€ 13,22
1Crucial Ballistix BLS2CP4G3D1609DS1S00CEU€ 40,95€ 40,95
1be quiet! System Power 7 300W€ 32,95€ 32,95
Bekijk collectie
Importeer producten
Totaal€ 467,22

[ Voor 102% gewijzigd door TheGrillmeister op 27-09-2015 19:18 ]


Acties:
  • 0 Henk 'm!

  • exCite1
  • Registratie: September 2010
  • Laatst online: 04-09 09:17
Tichelmanm schreef op zondag 27 september 2015 @ 18:35:
[...]


Waarom niet de Q1900DC met bijv. een 80W voeding

Q1900DC-ITX sata voorzien van stroom

Edit:

Mijn 2 lijstjes op dit moment voor een mogelijke NAS:

#ProductPrijsSubtotaal
1ASRock Q1900DC-ITX€ 101,95€ 101,95
2WD Green WD30EZRX€ 97,01€ 194,02
1Cooler Master Elite 110€ 36,95€ 36,95
1Sandisk Ultra USB 3.0 Flash Drive 32GB Zwart€ 13,22€ 13,22
1Crucial Ballistix Sport BLS8G3N169ES4CEU€ 49,25€ 49,25
1Seasonic Power Adapter 60 Watt (12V)€ 22,99€ 22,99
Bekijk collectie
Importeer producten
Totaal€ 418,38



#ProductPrijsSubtotaal
1Intel Pentium G3258 Boxed€ 67,90€ 67,90
1ASRock B85M Pro4€ 61,95€ 61,95
2WD Green WD30EZRX€ 97,01€ 194,02
1Cooler Master Silencio 352€ 56,23€ 56,23
1Sandisk Ultra USB 3.0 Flash Drive 32GB Zwart€ 13,22€ 13,22
1Crucial Ballistix BLS2CP4G3D1609DS1S00CEU€ 40,95€ 40,95
1be quiet! System Power 7 300W€ 32,95€ 32,95
Bekijk collectie
Importeer producten
Totaal€ 467,22
Die voedingen vind ik jammer genoeg niet bij Alternate :(

Mijn Inventaris


Acties:
  • 0 Henk 'm!

  • TheGrillmeister
  • Registratie: Februari 2010
  • Laatst online: 27-09 00:44
exCite1 schreef op zondag 27 september 2015 @ 20:55:
[...]


Die voedingen vind ik jammer genoeg niet bij Alternate :(
Afuture heeft gratis verzending vanaf 15 euro.
Mijn ervaringen met het bedrijf zijn tot nu toe goed, heb al eens wat terug gebracht.

Acties:
  • 0 Henk 'm!

  • exCite1
  • Registratie: September 2010
  • Laatst online: 04-09 09:17
Tichelmanm schreef op zondag 27 september 2015 @ 21:46:
[...]


Afuture heeft gratis verzending vanaf 15 euro.
Mijn ervaringen met het bedrijf zijn tot nu toe goed, heb al eens wat terug gebracht.
Moet via mijn pa zijn bedrijf bij Alternate bestellen...

Heb nu de gewone Q1900 genomen, 8GB RAM, 4x3TB disks van Toshiba, Antec NSK4100, 32GB USB, Be Quiet 300W
Daar zou ik dan Ubuntu op draaien denk ik.
Ga het morgen verder bekijken en dan komende week bestellen.

Mijn Inventaris


Acties:
  • 0 Henk 'm!

  • exCite1
  • Registratie: September 2010
  • Laatst online: 04-09 09:17
Is er eigenlijk iets mis met deze disk:https://www.alternate.be/Toshiba/DT-series-3-TB-Harde-schijf/html/product/1026608?tk=7&lk=6077

Want die is best goedkoop.

Ik zou misschien toch voor ZFS gaan, is dat aan te raden met 4 disks, want ik las van niet?

[ Voor 38% gewijzigd door exCite1 op 28-09-2015 08:59 ]

Mijn Inventaris


Acties:
  • 0 Henk 'm!

  • exCite1
  • Registratie: September 2010
  • Laatst online: 04-09 09:17
ASRock AM1B-ITX, Moederbord
AMD Athlon 5350, 2,05 GHz, Processor
be quiet! System Power 7 300W, Voeding
Toshiba DT series, 3 TB Harde schijf
Kingston ValueRAM 8 GB DDR3-1600, Werkgeheugen
Sandisk Ultra USB3.0 32GB
€ 551,96

Nu zat ik hieraan te denken, met dan nog een gepaste case.

Modbreak:exCite1, er wordt op dit forum verwacht dat je gebruik maakt van de Wijzig-knop rechtsboven je post, in plaats van meerdere berichten na elkaar te posten.

[ Voor 23% gewijzigd door Verwijderd op 28-09-2015 16:36 ]

Mijn Inventaris


Acties:
  • 0 Henk 'm!

Verwijderd

novastorm76 schreef op donderdag 24 september 2015 @ 13:53:
RiVIER heeft wat problemen de laatste tijd. ik zocht ook naar een goedkope en uitgebreide case.maar ze hadden er nog maar 2 in voorraad.
Ik zou zeggen, koop de laatste kasten, voedingen, etc. op die je nodig kan gaan hebben, want dit lijkt meer op een aanstaand faillisement...

Acties:
  • +1 Henk 'm!

  • maomanna
  • Registratie: Februari 2006
  • Laatst online: 19:34
exCite1 schreef op maandag 28 september 2015 @ 06:58:
Is er eigenlijk iets mis met deze disk:https://www.alternate.be/Toshiba/DT-series-3-TB-Harde-schijf/html/product/1026608?tk=7&lk=6077

Want die is best goedkoop.

Ik zou misschien toch voor ZFS gaan, is dat aan te raden met 4 disks, want ik las van niet?
Geen idee hoe die disk is, ff reviews zoeken.

Elders In het ZFS topic staan de beste verhoudingen qua disks per raidZ level.
Verwijderd in "Het grote ZFS topic" en dan een beetje naar onder scrollen.

[ Voor 8% gewijzigd door maomanna op 28-09-2015 14:57 ]

https://pvoutput.org/intraday.jsp?id=102416&sid=90116


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-09 18:32
Verwijderd schreef op maandag 28 september 2015 @ 14:37:
[...]


Ik zou zeggen, koop de laatste kasten, voedingen, etc. op die je nodig kan gaan hebben, want dit lijkt meer op een aanstaand faillisement...
Hoe zo ?
Volgens mij moet hij groot inkopen om voor scherpe prijzen te kunnen verkopen.
Dan moet je een continue afzet hebben om cashflow te houden, als het wat inzakt heb je een probleem, dan moet je minder inkopen, en gaat de prijs omhoog, en zet je weer minder om..

Xcase heeft ook de goedkopere modellen staan met: "coming soon" of zoiets. Dat staat er ook al tijden.

bijvoorbeeld X-CASE EXTRA VALUE 424 - 24 HOTSWAP BAYS -COMING SOON

Model erboven is 120£ meer..

[ Voor 8% gewijzigd door jacovn op 28-09-2015 15:27 ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • novastorm76
  • Registratie: April 2010
  • Laatst online: 24-09 10:53
jacovn schreef op maandag 28 september 2015 @ 15:23:
[...]

Hoe zo ?
Volgens mij moet hij groot inkopen om voor scherpe prijzen te kunnen verkopen.
Dan moet je een continue afzet hebben om cashflow te houden, als het wat inzakt heb je een probleem, dan moet je minder inkopen, en gaat de prijs omhoog, en zet je weer minder om..

Xcase heeft ook de goedkopere modellen staan met: "coming soon" of zoiets. Dat staat er ook al tijden.

bijvoorbeeld X-CASE EXTRA VALUE 424 - 24 HOTSWAP BAYS -COMING SOON

Model erboven is 120£ meer..
De grap is dat ik rond oud en nieuw naar engeland ga voor een welverdiende vakantie en volgend jaar zomer ook. dus als ik de kans krijg dan ga ik even langs.

Acties:
  • 0 Henk 'm!

  • Harrie
  • Registratie: November 2000
  • Laatst online: 22:22

Harrie

NederVlaming

exCite1 schreef op zondag 27 september 2015 @ 20:55:
[...]


Die voedingen vind ik jammer genoeg niet bij Alternate :(
Alternate heeft wel de NA 90 voeding van Cooler Master, die werkt ook perfect met de Q1900DC (heb hem zelf ook).

https://www.alternate.nl/html/product/141606

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-09 18:32
novastorm76 schreef op maandag 28 september 2015 @ 15:34:
[...]


De grap is dat ik rond oud en nieuw naar engeland ga voor een welverdiende vakantie en volgend jaar zomer ook. dus als ik de kans krijg dan ga ik even langs.
Ze hebben aardig filmpjes op youtube, geen idee wat het voor bedrijf is.
Laat maar weten als je ze bezocht hebt.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
Xcase verzendkosten zijn dacht ik €25 of zo dus de moeite van het omrijden nauwelijks waard.

Rivier doet naast verkoop kasten ook andere dingen. Heeft mij ooit geïnformeerd dat hij hier op Tweakers kenbaar zal maken Waneer hij weer kasten verkoopt.

Acties:
  • 0 Henk 'm!

  • exCite1
  • Registratie: September 2010
  • Laatst online: 04-09 09:17
Zouden jullie voor de AMD 5350 of Intel Q1900 gaan?
Ik ga toch voor FreeNAS gaan met 4x3TB en 8GB RAM.

Mijn Inventaris


Acties:
  • 0 Henk 'm!

Verwijderd

N3150 kun je ook overwegen als je AES-NI ondersteuning wilt. Kan wel zijn dat FreeNAS ondersteuning voor de onboard NIC niet zo goed is - houd hier rekening mee! Eventueel een Intel PRO/1000 CT kaartje is mogelijk (PCIe x1).

Het is overigens J1900 - Q1900 is puur het begin van het typenummer van ASRock bordjes. De processor heet J1900 en niet Q1900. Het had ook ASRock ZVXR1900-ITX kunnen heten, maar de bordjes van ASRock heten nu eenmaal Q1900DC-ITX waarbij enkel het getal 1900 op de J1900 processor slaat.

Acties:
  • 0 Henk 'm!

  • exCite1
  • Registratie: September 2010
  • Laatst online: 04-09 09:17
Verwijderd schreef op maandag 28 september 2015 @ 20:09:
N3150 kun je ook overwegen als je AES-NI ondersteuning wilt. Kan wel zijn dat FreeNAS ondersteuning voor de onboard NIC niet zo goed is - houd hier rekening mee! Eventueel een Intel PRO/1000 CT kaartje is mogelijk (PCIe x1).

Het is overigens J1900 - Q1900 is puur het begin van het typenummer van ASRock bordjes. De processor heet J1900 en niet Q1900. Het had ook ASRock ZVXR1900-ITX kunnen heten, maar de bordjes van ASRock heten nu eenmaal Q1900DC-ITX waarbij enkel het getal 1900 op de J1900 processor slaat.
Thanks.
Enig idee of de AMD 5350 een goeie keuze is? Zal de N3150 eens bekijken.

Juist, even te snel geweest :).

Mijn Inventaris

Pagina: 1 ... 192 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.