Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 26-09 15:54
Het go-to plekje voor de hobbyist: https://ri-vier.eu/4u-rack-mount-case-c-1_3_7.html

Op de V&A kan je ook al eens geluk hebben.

Acties:
  • 0 Henk 'm!

  • thibautb
  • Registratie: Juni 2014
  • Laatst online: 15-07-2024
Ik zou niets precies weten waar het moet staan, maar bij rst, kan je daar van twee raid 0's een raid 0 maken, dus bijvoorbeeld 4x3tb+ 2x4tb zonder dat de data kwijt geraakt?

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 02:07
Wat is een 'rst' voor iets? En je wilt twee arrays van verschillende grootte bij elkaar voegen zonder dataverlies? Dat laatste kan geen enkele RAID-controller die ik ken, en ZFS en MD (Linux software raid) volgens mij ook niet.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

Verwijderd

RST = Rapid Storage Technology, zeg maar de RAID-drivers van Intel onboard RAID. Daar zit een controlepaneel bij wat je met een icoontje naast de klok (systray) kunt oproepen en daarmee je RAID-arrays managen.

Intel onboard RAID (RST dus) kan ORLM (Online RAID Level Migration) en OCE (Online Capacity Expansion) uitvoeren op je arrays. Je kunt zelfs van een enkele non-RAID disk naar een RAID0 array bijvoorbeeld; zonder dataverlies. Het is wel een gevaarlijke procedure; er mag niets mis gaan tijdens de migratie omdat alle data wordt omgespit. Bad sectors, kabelproblemen en instabiliteit zijn funest voor je data tijdens deze procedure; je kunt alles kwijtraken.

Of RST het ook mogelijk maakt om twee RAID0-arrays te combineren, dat weet ik niet. Ik gok van niet, eigenlijk. Want RAID00 (0+0) is erg uitzonderlijk. Linux en BSD software RAID ondersteunt dit wel, maar niet zonder dataverlies.

Acties:
  • 0 Henk 'm!

  • thibautb
  • Registratie: Juni 2014
  • Laatst online: 15-07-2024
Ik weet dat dit zeer gevaarlijk is, mijn plan was om een tweede raid 0 te maken van 4tb schijven want die zijn ook goedkoper aan het worden, maar dat zal het dus niet worden.

ik ben ook nog een back up van mijn data aan het maken, ik kan het allemaal opnieuw downloaden, dus maak ik een raid 5 array die wel niet zo groot zal zijn als mijn raid 0, ik weet dat die niet optimaal is, zoals bijvoorbeeld zfs, maar daar heb ik het geld nog niet voor en ook zeker de tijd niet, het is nu niet zo duur, maar ik moet het via linux laten lopen, en dan met alle commands ben en kan ik niets want daar ben ik zeker niet zo goed in, dat gaan een projectje eerder worden voor in julie/augustus als ik weer meer tijd heb

Acties:
  • 0 Henk 'm!

  • Murk
  • Registratie: Februari 2007
  • Laatst online: 24-08 13:37

Murk

Is this thing on?

Ook ik ben van plan een NAS te bouwen op basis van ZFS. Het doel van dit machientje is simpel: bestanden beheren en serveren aan desktop/laptop/smartphone. Dus (vooralsnog) geen virtualisatie/transcoding/sabnzbd/sickbeard etc. Vandaag ben ik aan het zoeken geweest naar wat ik denk nodig te hebben en daar kwam het volgende uit.

Hardware
#ProductPrijsSubtotaal
1Intel Celeron G1820 Boxed€ 29,50€ 29,50
1ASRock E3C226D2I€ 196,30€ 196,30
5WD Green WD40EZRX€ 132,95€ 664,75
1Fractal Design Node 304 Zwart€ 64,95€ 64,95
1Crucial CT2KIT102472BD160B€ 163,50€ 163,50
1be quiet! System Power 7 300W€ 29,95€ 29,95
1APC Back-UPS ES 550VA DIN€ 74,20€ 74,20
Bekijk collectie
Importeer producten
Totaal€ 1.223,15
  • Memory: bewust voor registered un-buffered ECC geheugen gekozen, Q in "Het grote DIY RAID NAS topic deel 3" overtuigde me hierin.
  • Harddisks: de 5 die ik nu heb staan moeten in RAID-Z gaan draaien (16TB effectieve opslag), mijn paranoia vertelt me echter dat ik er eentje bij moet prikken voor RAID-Z2..
  • CPU: Is misschien wel erg goedkoop gezien het eindbudget, misschien eruit halen voor een G3220?
Software
FreeNAS lijkt de juiste keus; gestript van overbodige software, langer in omloop dan ZFSGuru dus stabieler (I could be wrong there). Met een commandline kan ik prima overweg maar mijn kennis van filesystems is beperkt; een eenvoudige setup is dus ook wenselijk. Echter is ZFSGuru misschien weer verstandiger met het oog op later software willen toevoegen.


Erg eigenlijk hoe makkelijk je een door jezelf opgelegd budget negeert, ik had 700/800 in gedachten.. :+

[ Voor 1% gewijzigd door Murk op 27-10-2014 18:37 . Reden: Crucial CT2K8G3ERSLD4160B vervangen door Crucial CT2KIT102472BD160B ]

"There are two hard things in computer science: cache invalidation, naming things, and off-by-one errors."


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 02:07
Murk schreef op maandag 27 oktober 2014 @ 17:47:
• Memory: Bewust voor Registered ECC geheugen gekozen, Q in "Het grote DIY RAID NAS topic deel 3" overtuigde me hierin.
Let erop dat er een verschil is tussen ECC / non-ECC, en Registered / Unbuffered! Jij hebt, ongeacht of je ECC of non-ECC neemt, unbuffered geheugen nodig.

Je hebt nu Registered geheugen, dit is voor Socket 2011 (bij Intel, ben niet zo bekend met de server-lijn van AMD)-systemen terwijl jij een Socket 1150-systeem bouwt :)

Ik krijg de pricewatch niet helemaal zo ver, maar je moet in deze lijst dus de modules hebben waar in de 3e kolom wel ECC staat, maar geen Reg :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Murk
  • Registratie: Februari 2007
  • Laatst online: 24-08 13:37

Murk

Is this thing on?

Paul schreef op maandag 27 oktober 2014 @ 18:12:
[...]

Let erop dat er een verschil is tussen ECC / non-ECC, en Registered / Unbuffered! Jij hebt, ongeacht of je ECC of non-ECC neemt, unbuffered geheugen nodig.

Je hebt nu Registered geheugen, dit is voor Socket 2011 (bij Intel, ben niet zo bekend met de server-lijn van AMD)-systemen terwijl jij een Socket 1150-systeem bouwt :)
Ik had me wel enigszins ingelezen over UDIMM/RDIMM. Maar bij het vergelijken van ASRock E3C266D2l en ASRock C266 WS was un-buffered respectievelijk niet/wel expliciet vermeldt, waaruit ik concludeerde dat registered de 'default' is. Foute aanname dus. Bedankt voor de opmerking :)

"There are two hard things in computer science: cache invalidation, naming things, and off-by-one errors."


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 02:07
In de handleiding staat het wel expliciet: UDIMM :) ftp://europe.asrock.com/manual/E3C226D2I.pdf

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Verwijderd schreef op maandag 27 oktober 2014 @ 11:04:
Heeft iemand hier ervaring met deze kasten?

pricewatch: Cooler Master HAF Stacker 935 Window

pricewatch: Lian Li PC-D8000A

In eerste instantie gaat het om 12 harddrives, dat kan in beide. De Lian Li is echter meteen voorbereid op een uitbreiding, de Stacker vereist dan een upgrade.

Ik ben bekend met de bouwkwaliteiten van Lian Li cases, hoe is de CM?
CM is wel OK, maar die Stacker is een nepperd... totaal niet de naam waard zoals de originele : pricewatch: Cooler Master CM Stacker CM Stacker ATX / BTX

Dit had ik er ooit in zitten : "Zoom foto" richting kabels.

En nu ben ik er een ESXi/NAS test bak mee aan het bouwen en als ik uitgetest ben dan wordt het een dedicated ZFS NAS :Y)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 03-10 10:04

Pantagruel

Mijn 80486 was snel,....was!

nero355 schreef op zondag 02 november 2014 @ 03:43:
[...]

CM is wel OK, maar die Stacker is een nepperd... totaal niet de naam waard zoals de originele : pricewatch: Cooler Master CM Stacker CM Stacker ATX / BTX

Dit had ik er ooit in zitten : [afbeelding]

En nu ben ik er een ESXi/NAS test bak mee aan het bouwen en als ik uitgetest ben dan wordt het een dedicated ZFS NAS :Y)
Ik heb de originele CM Stacker al weer 10 jaar in gebruik en alle 'Stacker' aftreksels zijn nooit bij de ruimte van de eerste gekomen. De kast heeft altijd de file-server gehuisvest en is nu bezig aan zijn 2e moederbord.

Afbeeldingslocatie: http://pantagruel.mine.nu/tweakers/thumb-zijkant.jpg

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Uitgerekte stacker plaatjes zijn wel toepasselijk. Mijne staat te fileserveren bij een vriend die 'archief-bak-van-dienst-is' met zfs incremental syncs over internet.

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

We kunnen een fanclub starten zo :+

Bij mij is dit trouwens de opvolger : http://tweakers.net/product/281636/xigmatek-elysium/

Kan NOG MEER in en net zo redelijk geprijsd als de Stacker vroeger :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 07-10 07:59
* FireDrunk heeft een Fractal Design Define XL USB 3.0 en wil nooit meer anders... Kan welliswaar minder in dan in een Stacker (10*3.5" en 4 * 5.25") maar is echt *VEEL* stiller vanwege fatsoenlijke geluidsdemping en fatsoenlijke fans ;)

Even niets...


Acties:
  • 0 Henk 'm!

  • Extera
  • Registratie: Augustus 2004
  • Laatst online: 05-05 16:02
Hier ook een stacker fan!

Afgelopen weekend 8 oude 1TB disks in geplaatst zodat hij dienst kan doen als backup doos 8)

Mijn Serverrack - iRacing Profiel


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 03-10 10:04

Pantagruel

Mijn 80486 was snel,....was!

analog_ schreef op zondag 02 november 2014 @ 22:17:
Uitgerekte stacker plaatjes zijn wel toepasselijk. Mijne staat te fileserveren bij een vriend die 'archief-bak-van-dienst-is' met zfs incremental syncs over internet.
Dat was een copy/paste dingetje, in tussen hersteld
FireDrunk schreef op maandag 03 november 2014 @ 08:24:
* FireDrunk heeft een Fractal Design Define XL USB 3.0 en wil nooit meer anders... Kan welliswaar minder in dan in een Stacker (10*3.5" en 4 * 5.25") maar is echt *VEEL* stiller vanwege fatsoenlijke geluidsdemping en fatsoenlijke fans ;)
Met wat dempingsmatten en de juiste fan keuze is de CM Stacker goed stil te krijgen.
In mijn huidige setup draaien de fan's op 7v ipv, want uit de doos maken de fan's van de 4-in-1 modules nogal wat geluid.

Bij de te plaatsen 5-in-3 modules (HDR5-v13) heb ik meteen de Scythe SY1225SL12SL (500rpm 120mm 24CFM) besteld.

[ Voor 28% gewijzigd door Pantagruel op 03-11-2014 10:43 . Reden: HDR5 + fan's ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 02-10 14:39
FireDrunk schreef op maandag 03 november 2014 @ 08:24:
maar is echt *VEEL* stiller vanwege fatsoenlijke geluidsdemping en fatsoenlijke fans ;)
Elke file server kan stil draaien, daar je met minimale luchtverplaatsing al je HDDs koel genoeg kan houden, HDDs hoeven helemaal niet op kamertemperatuur gehouden te worden, beter nog de ideale temp is volgens sommige test rond de 45c, fabrieksopgave ondersteund dat met "Operating 0 to 65c".

Een of twee fans is dus meer dan voldoende om een case en zijn HDs koel te houden.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • Shamalamadindon
  • Registratie: Juni 2009
  • Laatst online: 30-03-2024
Beste mensen wat denken jullie van deze behuizing i.c.m een avoton bordje?

Silverstone DS380
pricewatch: Silverstone DS380

Afbeeldingslocatie: http://ic.tweakimg.net/ext/i/1392026972.jpeg

Wanneer heb je het laatst je wachtwoord verandert? Er word op T.net de laatste tijd regelmatig misbruikt gemaakt van accounts met gelekte wachtwoorden om andere gebruikers op te lichten. Verander je wachtwoord, geef oplichters geen kans!


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 02-10 14:39
Leo1010 schreef op maandag 03 november 2014 @ 11:14:
Beste mensen wat denken jullie van deze behuizing i.c.m een avoton bordje?
Klein, mooi en imho vreselijk duur voor iets dat je uit zicht wegzet.

Voor vier tientjes heb je een Codegen Q3383-A11 kastje, dat iets meer werk vraagt, maar die ook 110 euro goedkoper is, en meer heb je eigenlijk niet nodig.

Afbeeldingslocatie: http://www.tqc.nl/contents/media/tqc_crb-codegen_q3383-a11-$.png

En dat kastje heeft letterlijk de zelfde volume, plus je krijgt ook nog eens een gratis reserve PSU er bij. :+

[ Voor 16% gewijzigd door player-x op 03-11-2014 11:42 ]

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
Leo1010 schreef op maandag 03 november 2014 @ 11:14:
Beste mensen wat denken jullie van deze behuizing i.c.m een avoton bordje?

Silverstone DS380
pricewatch: Silverstone DS380

[afbeelding]
Heb hem, maar niet met een avoton bordje maar met een E3C224D4I-14S van ASRock Rack .. past net (als je een andere voeding gebruikt), maar de on-board HBA werkt geweldig met ESXi.

Het enige waar je mee wilt opletten is de bekabeling, het is een klein kastje, en de 8x3.5" en 4x2.5" zorgt er voor dat je veeeeeel kabels hebt in een kleine ruimte... als je voor de E3C224D4I-14S gaat heb je ook nog es het probleem dat je je voeding anders moet doen (de Seasonic SS-250SU bijvoorbeeld)... maar dat zijn problemen die je kunt overzien.
player-x schreef op maandag 03 november 2014 @ 11:36:
[...]

Klein, mooi en imho vreselijk duur voor iets dat je uit zicht wegzet.

Voor vier tientjes heb je een Codegen Q3383-A11 kastje, dat iets meer werk vraagt, maar die ook 110 euro goedkoper is, en meer heb je eigenlijk niet nodig.

[afbeelding]

En dat kastje heeft letterlijk de zelfde volume, plus je krijgt ook nog eens een gratis reserve PSU er bij. :+
Tja, maar probeer voor dat prijsverschil maar een kast te vinden met 8 hot-swappable bays in dat formaat.. die kast die jij laat zien mist hotswap bays.

[ Voor 55% gewijzigd door DXaroth op 03-11-2014 12:12 ]


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 02-10 14:39
DXaroth schreef op maandag 03 november 2014 @ 11:47:
Tja, maar probeer voor dat prijsverschil maar een kast te vinden met 8 hot-swappable bays in dat formaat.. die kast die jij laat zien mist hotswap bays.
Hot swap is leuk, maar mij iig geen 110 euro waard, en een nieuwe HD in schroeven kost me ongeveer 5min werk in mijn vrije tijd.

Voor 110 euro moeten de meeste mensen 10 tot 15 uur werken, en ik en mijn vrouw verdienen meer dan meeste mensen, maar toch wil ik mijn geld hier zeker niet aan verspillen, geld verspillen aan echt onnodige luxe zit gewoon niet in me.

En hoe vaak verwissel je nu HDDs?

En voor het overpompen van data van een losse HDD gebruik ik een USB 3.0 docking station, wat prima werkt qua doorvoer.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
player-x schreef op maandag 03 november 2014 @ 12:32:
[...]

Hot swap is leuk, maar mij iig geen 110 euro waard, en een nieuwe HD in schroeven kost me ongeveer 5min werk in mijn vrije tijd.

Voor 110 euro moeten de meeste mensen 10 tot 15 uur werken, en ik en mijn vrouw verdienen meer dan meeste mensen, maar toch wil ik mijn geld hier zeker niet aan verspillen, geld verspillen aan echt onnodige luxe zit gewoon niet in me.

En hoe vaak verwissel je nu HDDs?

En voor het overpompen van data van een losse HDD gebruik ik een USB 3.0 docking station, wat prima werkt qua doorvoer.
Helemaal mee eens, mja, het is een leuk hebbedingetje :*)

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 07-10 07:59
Ik heb mijn hotswap frames ook verkocht. Leuke gadget, maar ik schroef letterlijk vaker mijn server open voor 'nutteloze' redenen dan dat ik hem openschroef voor het verwisselen van een harddisk :+

Bovendien is mijn Fractal Design Define XL ook semi-hotswap (ik heb trays, dus kan gewoon kabeltje lostrekken en tray eruit schuiven... Easy peasy...)

Even niets...


Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 26-09 15:54
Ik ben naar een rackmount met hotswaps gegaan van een stacker.
Het probleem was dat ik met 12 schijven zat, en er op een gegeven moment één defect was, maar ik wist niet welke. En dan is het wel lastig zoeken tussen de kabelrommel.
En de backplanes zijn ook wel gemakkelijk.

Handige trays zijn tegenwoordig al een aardige oplossing,

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 02:07
Sowieso, vanaf een aantal schijven is het al snel goedkoper en simpeler om voor een rackmount met hotswap te gaan, 12 schijven in de meeste towers is al erg lastig, en Stacker-achtige oplossingen zijn ook niet goedkoop :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 03-10 10:04

Pantagruel

Mijn 80486 was snel,....was!

Ik sluit me aan bij player-x en DireDrunk.

Voor de thuis situatie wegen de kosten van een of meerdere hotswap cages niet op tegen t veronderstelde gemak, ik steek het dan ook liever in de storage zelf.
Tel daarbij op dat het bij de eerder aangehaalde 5-in-3 modules (HDR5-v13) welk erg gemakkelijk is om een hdd te 'trekken' (hdd's in plastic sledes) en dat ook nog eens voor een fractie van de kosten van een hot-swap cage,lijkt het mij een inkoppertje te zijn. Maar natuurlijk mag een ieder dat voor zich zelf en zijn/haar portemonnee bepalen.

[ Voor 11% gewijzigd door Pantagruel op 03-11-2014 13:19 . Reden: spelvouten/zinsbauw ;) ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 07-10 07:59
Wat Paul zegt is ook zeker waar. Als je > 16 bays nodig hebt, is een hotswap rackmount chassis gewoon goedkoper. Voordat je 16 schijven in een reguliere kast propt, heb je zoveel extra's nodig, dat de totale kosten hoger zijn dan zo'n 19" rackmountable.

Even niets...


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 02-10 14:39
Goedkoop en goed gaan prima samen, de MS-Tech CA-0210 Rev. B met 3x HDR5-v13, zit je voor 75 euro aan 15 semi hot swap bays.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 03-10 10:04

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op maandag 03 november 2014 @ 13:24:
Wat Paul zegt is ook zeker waar. Als je > 16 bays nodig hebt, is een hotswap rackmount chassis gewoon goedkoper. Voordat je 16 schijven in een reguliere kast propt, heb je zoveel extra's nodig, dat de totale kosten hoger zijn dan zo'n 19" rackmountable.
Klopt, als ik het op dit moment overnieuw zou mogen/moeten/willen doen, dan is de kans dat het een 24 bay hotswap rack case zou worden erg groot (wss een RVS4-06A en een Lack rack). Inmiddels is het al weer zolang geleden dat het moeilijk is om te achterhalen wat de CM Stacker (STC-T01) en de 4-in-3 modules bij elkaar gekost hebben. Ach soms moet je de hobby niet al te veel doorrekenen, je wordt mistroostig ;( bij de gedachten aan de centjes die er in de bodemloze put "verdwenen" ;w zijn.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 26-09 15:54
De stacker zijn 4-in-3 modules waren vrij erbarmelijk, dan was een hotswap case een grote verbetering. Schroeven in de zijkant, waarvoor je de volledige cage moest uitbouwen, dus de server moest (quasi) altijd uitgezet worden.
De stacker zelf was echter een pareltje om mee te werken. Zeker voor zijn tijd.

Die HDR5-v13 zijn al een stapje gemakkelijker, met de plastic tabs. Maar de kabels kunnen nog steeds aanzienlijk in de weg zitten. Voor zo ver ik kan zien moet je de schijven nog altijd naar achter er uit trekken. Het risico om een verkeerd kabeltje te raken is dus nog vrij goed, dus ook weer server uitzetten best.

Een dwarse montage van de HDD's zoals een lian-li q25/q26 is nog een stapje gemakkelijker. De kabels zijn aan de ene kant gewoon uit te trekken, en de schijf komt er langs de andere uit. Kans is al veel minder om iets verkeerd te doen, maar nog niet onmogelijk, server kan waarschijnlijk wel blijven draaien.

Nog een extra voordeeltje is de optionele backplane bij die cases. Daarbij kan je al niet meer aan de verkeerde kabel trekken. Het enige nadeel is nog de case open te doen, wat al eens lastig kan zijn als hij ver weg zit.

En de laatste stap is dan een volledig hotswap uitvoering (al dan niet rackmount). Dit is uiteraard volledig om uptime te verzorgen bij het plaatsen/vervangen van disks. Als je dan toch al een 19" cabinet hebt staan, is een rackmount ook weer zo netjes.

Acties:
  • 0 Henk 'm!

  • TurboTon1973
  • Registratie: September 2010
  • Laatst online: 19:53
FireDrunk schreef op maandag 03 november 2014 @ 08:24:
* FireDrunk heeft een Fractal Design Define XL USB 3.0 en wil nooit meer anders... Kan welliswaar minder in dan in een Stacker (10*3.5" en 4 * 5.25") maar is echt *VEEL* stiller vanwege fatsoenlijke geluidsdemping en fatsoenlijke fans ;)
Me too is een van mijn betere investeringen geweest. Lekker stil Het enige is dat een enkele schijf nogal gaat resoneren in de kast. en ik ben er nog niet achter hoe ik die resonatie geluiden uit de kast kan krijgen.

Acties:
  • 0 Henk 'm!

  • thibautb
  • Registratie: Juni 2014
  • Laatst online: 15-07-2024
ik heb een lian-li pcd-800, maakt wel redelijk wat lawaai soms, niet van de fans, maar van het metaal, van niets anders, heb er nu een twee zware boeken op gelegd, en het geluid is weg. Heb nu ook zeker genoeg plek voor harde schijven en watercooling. en natuurlijk ook voor mobo's etc.

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 02-10 14:39
thibautb schreef op maandag 03 november 2014 @ 18:15:
maakt wel redelijk wat lawaai soms, niet van de fans, maar van het metaal, van niets anders, heb er nu een twee zware boeken op gelegd, en het geluid is weg.
Had het zelfde probleem met mijn oude server, heb dat opgelost door dubbelzijdig plak plastic te gebruiken, om dakdekkers bitumen op alle grote metalen oppervlakten te plakken, werkt perfect en is ook nog eens goedkoop.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 07-10 07:59
TurboTon1973 schreef op maandag 03 november 2014 @ 17:04:
[...]


Me too is een van mijn betere investeringen geweest. Lekker stil Het enige is dat een enkele schijf nogal gaat resoneren in de kast. en ik ben er nog niet achter hoe ik die resonatie geluiden uit de kast kan krijgen.
Volgens mij is dat vaker de voorkant (fan grills of die plastic houder van de fans) of het deurtje.
De schijven zitten toch in rubbers?

Even niets...


Acties:
  • 0 Henk 'm!

  • thibautb
  • Registratie: Juni 2014
  • Laatst online: 15-07-2024
bij heeft het wel denk ik meer iets te maken met de radiators van achter, daar komt het geluid ook vandaan.

Acties:
  • 0 Henk 'm!

  • _eXistenZ_
  • Registratie: Februari 2004
  • Laatst online: 05-10 18:21
Ik heb reeds sinds een jaar of 5/6 een NAS draaien, de eerste weken gebaseerd op FreeBSD met geom_raid5*, de volgende jaren gebaseerd op Gentoo met MDADM, en sinds anderhalf jaar inmiddels gebaseerd op Debian met MDADM (was het getweak zat, dit is heerlijk out of the box geconfigureerd allemaal).

Ik ben ooit begonnen met 4 Samsung HD501LJ's (500GB) in RAID5 (en een losse partitie voor het OS en /boot). Daar zijn later 3 Samsung HD154UI (1500GB) bijgekomen in een aparte RAID5-array. Later heb ik daar nog eens 3 1500GB disken aan toegevoegd, WD WD15EARX-00P's, en het RAID-level omgezet naar RAID6. Inmiddels is voor het OS en de webserver een Samsung 840Pro SSD aangeschaft, en laat ik alle data-disken downspinnen na een uurtje inactivity.

Ik ben over de jaren tegen verschillende problemen aangelopen met de diverse disken die ik zojuist genoemd heb:
  • ERC: Ik startte met geom_raid5 onder FreeBSD, maar daar werd waarschijnlijk strikt -- als zijnde een RAID-kaart -- ERC afgedwongen. Het effect wat ik ervoer was in ieder geval dat geom_raid5 om de haverklap disken uit m'n array dropte, vandaar de overstap naar Gentoo, waar dat niet gebeurde. Snapte toen nog niet waardoor het kwam. Toen ik de WD15EARX-00P's aanschafte heb ik een Rocketraid 2320 aangeschaft waarmee ik ook onder Gentoo hetzelfde probleem ervoer, en toen pas ging het lampje branden. De RocketRaid heb ik dus vervangen voor een LSI SAS1068E hostcontroller die het allemaal niet uitmaakt hoe lang een disk doet over reactie. Hoewel op mijn eerste Samsungs ERC nog in- of uitgeschakeld kan worden, hebben alle fabrikanten dit later sneaky gelockt zodat WD bijv. voor woekerprijzen hun Red-serie kan verkopen. Ik weiger echter te betalen voor bijv. WD Red "raid"-disk waar de TLER (hun benaming voor ERC) ingeschakeld is terwijl dat in mijn optiek in- of uit te schakelen optie moet zijn op disken, zoals mijn eerste Samsungs dat ook nog hadden. Ik heb de rest van mijn hardware/software er inmiddels op ingericht om gewone WD Green's te kunnen gebruiken in RAID want nergens wordt meer een harde check gedaan of disken op tijd reageren.
  • Downspinnen van disken: De Samsung HD501LJ's konden goed downspinnen door met hdparm -S de dit in te stellen, maar de Samsung HD154UI's doen dit weer anders, en de WD's willen helemaal niet automatisch downspinnen. Ik draai nu dus hd-idle die de kernel uitleest om te zien of er nog reads of writes zijn geweest naar een specifieke disk, en na een uurtje die specifieke disk sommeert te downspinnen (wat dan wel weer op alle disken werkt)
  • Head parking frenzy: de WD Green's hebben een "energie-zuinige" feature om om de haverklap hun head in park-mode te zetten maar dit strookt niet met de intervallen die de Linux-kernel heeft om data naar de disken te flushen, dus de heads bouncen constant heen en weer tussen park mode aan de zijkant en boven de platters. De park count die ik met smartmontools kan uitlezen is enorm.
Nu ben ik op zoek naar een nieuwe batch van 3- of 4TB-disken, om de oude 500GB en 1500GB-disken te kunnen vervangen. Wat ik belangrijk vind aan disken is voornamelijk direct een gevolg van mijn eerdere ervaringen:

• Geen rare head-parking-meuk meer!
• In te stellen middels HD-parm zodat ik geen hd-idle hoef te draaien!
• Beetje energie-zuinig als het kan
• Minder platters is wellicht mooier voor energieverbruik.

Wat mij totaal niet interesseert is:
• De snelheid, met 4 of 5 disken in RAID trek je een Gbit-netwerk toch wel vol.
• SATA600, want dat is onzin als een disk maar sustained 70MB/s doet, en alleen relevant bij SSD's.

Zelf zit ik te denken aan de Seagate ST3000DM001, de Amerikaanse verhaaltjes over garantie die je overal leest geloof ik eigenlijk wel, ik zit immers in Nederland. Hail consumentenrecht!

Ik hoor graag jullie ervaringen, want gebruikers-informatie als het op bovenstaande punten aankomt is lastig terug te vinden als je @random een paar disken wilt kopen.

There is no replacement for displacement!


Acties:
  • 0 Henk 'm!

Verwijderd

Koop niet de 7200.14 serie. Die heb ik en ben er niet erg tevreden over. Failure rate lijkt ook hoog te zijn, ze zijn onzuinig, maken veel lawaai zowel idle als tijdens seeks, en de background scanning (BGMS) is wat me echt opbreekt. Niet de beste serie van Seagate zo lijkt het.

Waarom niet gewoon WD Greens? Je hebt het over headparking meuk. Maar voordat je de disks in gebruik neemt, gewoon even WDIDLE.EXE gebruiken om de headparking op 300 seconden in te stellen. Headparking is wel degelijk nuttig, omdat het je hardeschijf beter bestand maakt tegen schokken wanneer je kop geparkeerd is, en 0,4 watt per schijf in idle scheelt. Dus lekker inschakelen, maar wel de timer iets normaler instellen. 300 seconden lijkt mij prima. Heb je toch headparking bij idle periodies en heb je downspinnen niet nodig omdat je disks superzuinig zijn. Rond de 3 watt voor zo'n WD Green disk met veel opslag is toch gaaf?

Je hebt het verder over 3TB of 4TB disks; kleiner dan 4TB zou ik niet gaan. Maar waarom niet gelijk voor 6TB disks? De prijs daarvan is relatief laag (WD Green 6TB) en ook toekomstvaster. Ook zuiniger als je de opslag-per-watt verhouding gaat meerekenen. Als ik nu een build zou maken, zou dat waarschijnlijk met die schijven zijn.

pricewatch: WD Green WD60EZRX

Volgens platter capacity database gebruikt de 6TB versie de nieuwste generatie 1.2TB platters. Dat zie je ook terug in de performance: de 6TB versie doet 175MB/s qua specs terwijl de 4TB op 150MB/s zit.

Final edit: ik mag aannemen dat je deze disks voor ZFS gaat gebruiken?

[ Voor 21% gewijzigd door Verwijderd op 04-11-2014 16:00 ]


Acties:
  • 0 Henk 'm!

  • _eXistenZ_
  • Registratie: Februari 2004
  • Laatst online: 05-10 18:21
CiPHER, thanks voor je uitgebreide antwoord, daar kan ik wat mee!

Ik blijf gewoon Debian met MDADM en RAID5 of 6 met daarop LVM draaien.
Op het moment dat ik 3 disken van 6TB pak, houd ik 12TB netto over dus :)

/edit

Omdat ik zowel qua SAS/SATA als qua stroom de mogelijkheid heb om 12 rotating disks aan te sluiten, dacht ik de 4x500GB er uit te gooien en er 4 van 3TB bij te steken. Houd ik effectief 3x3TB (raid5) + 5x1.5TB (raid6) = 16.5TB over voor een investering van 400 euro =)

Het alternatief is 3x6TB en de hele zooi opruimen voor minder stroomverbruik, maar dan houd ik maar 12TB over tegen een investering van tegen de 700 euro, en voor 300 euro kun je héél lang 20 watt extra gebruiken!

[ Voor 53% gewijzigd door _eXistenZ_ op 04-11-2014 16:37 ]

There is no replacement for displacement!


Acties:
  • 0 Henk 'm!

Verwijderd

Dan wil ik je toch waarschuwen voor het probleem dat hoe groter je disk / des te hoger de datadichtheid, des te meer je last kunt krijgen van bad sectors. Een RAID5 van drie van die disks kan heel onveilig zijn. Je zult dan een backup nodig hebben puur om de integriteit van je data te waarborgen; eigenlijk iets wat je 'RAID' array zou moeten doen.

ZFS is met name geschikt voor dergelijke schijven met hoge datadichtheid. Wil je toch MD-RAID gebruiken dan kun je overwegen andere schijven te kopen met 10^-15 of zelfs 10^-16 uBER specificfatie, die genereren factor 10 tot 100 minder snel bad sectors door onvoldoende errorcorrectie. In combinatie met legacy RAID is dat een betere keuze. Maar wel flink duurder.

Acties:
  • 0 Henk 'm!

  • _eXistenZ_
  • Registratie: Februari 2004
  • Laatst online: 05-10 18:21
Verwijderd schreef op dinsdag 04 november 2014 @ 16:33:
Dan wil ik je toch waarschuwen voor het probleem dat hoe groter je disk / des te hoger de datadichtheid, des te meer je last kunt krijgen van bad sectors. Een RAID5 van drie van die disks kan heel onveilig zijn. Je zult dan een backup nodig hebben puur om de integriteit van je data te waarborgen
Klopt, heb ik ook; heb een abbo op Crashplan Home+ :)
; eigenlijk iets wat je 'RAID' array zou moeten doen.
RAID != backup! Mooi als ZFS iets dergelijks kan, maar dan is het meer dan RAID. Met de stelling dat RAID dit dus zou moeten doen, ben ik het pertinent oneens :)
ZFS is met name geschikt voor dergelijke schijven met hoge datadichtheid. Wil je toch MD-RAID gebruiken dan kun je overwegen andere schijven te kopen met 10^-15 of zelfs 10^-16 uBER specificfatie, die genereren factor 10 tot 100 minder snel bad sectors door onvoldoende errorcorrectie. In combinatie met legacy RAID is dat een betere keuze. Maar wel flink duurder.
Ik weet ook dat 6 disken van 3TB in RAID6 veiliger is dan 3 disken van 6TB in raid5, en mijn gevoel zegt inderdaad ook dat RAID5 niet veilig genoeg is op zulke grote disken :) Ik ben bij de 1.5TB-disken al overgestapt op RAID6 om deze reden. Had het er in mijn vorige post alleen niet expliciet bijgezet nog.

[ Voor 3% gewijzigd door _eXistenZ_ op 04-11-2014 16:43 ]

There is no replacement for displacement!


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 02:07
RAID is zeker geen complete backup-oplossing inderdaad, maar ZFS waarborgt tegen meer integriteitsproblemen dan 'normaal' RAID. Bij iedere bad sector 6 TB moeten gaan restoren is ook niet alles :P

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • _eXistenZ_
  • Registratie: Februari 2004
  • Laatst online: 05-10 18:21
Volgens mij klopt dat ook niet; ik krijg momenteel vaak in mijn kernel-output te zien dat MDADM een sector hersteld heeft; dit gebeurt bij mijn weten on the fly voor die sector / cilinder / bits / whatever.

Dit is ook het hele principe achter ECM / TLER: als één disk een sector niet kan lezen moet deze het niet blijven proberen, maar naar een paar seconden er al mee kappen. Uit de redundancy kan dan wel berekend worden of die bit 1 of 0 was, dit is sneller dan 1 disk 90 seconden laten strugglen om de bit boven water te krijgen.

Verder: welke integriteitsproblemen kunnen ontstaan als je een journaled filesystem hebt?

[ Voor 7% gewijzigd door _eXistenZ_ op 04-11-2014 16:47 ]

There is no replacement for displacement!


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 02:07
Een bitje dat omvalt nadat het is geschreven maar wel normaal wordt gelezen (en dus geen check tegen de parity triggert) bijvoorbeeld :) Dat valt met scrubben wel op te lossen, maar MD weet daarbij niet wat het foute en wat het goede block is, terwijl ZFS daarbij (voor zover mij bekend) door de checksums weet welk blok het foute is.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

Verwijderd

_eXistenZ_ schreef op dinsdag 04 november 2014 @ 16:42:
[...]

Klopt, heb ik ook; heb een abbo op Crashplan Home+ :)
Gebruik je dat ook als backup voor je 6TB+ data, of enkel voor de meest belangrijke bestanden?

Mijn punt was namelijk; dat je normaliter RAID gebruikt om te beveiligen tegen disk failure, en backup voor de rest van de gevaren. Mijn punt hierbij is dat ik zeg dat RAID die taak niet aankan, omdat een schijf met bad sector ook als gefaalde schijf kan tellen. In dat geval heb je de backup nodig voor de beveiliging die RAID eigenlijk had moeten bieden. Dat betekent eigenlijk dat je geen echte backup beveiliging hebt; omdat je backup als origineel geteld zou moeten worden.
RAID != backup
Een appel is geen peer, maar beide zijn fruitsoorten. RAID en backups beschermen tegen diverse risico's voor gegevensverlies; maar hebben daarin een overlap. ZFS bijvoorbeeld heeft ook goede snapshots, waardoor zaken als een virus of een perongeluk verwijderde directory ook bescherming genieten. Normaliter is dit het terrein van een backup. Maar dat was niet mijn punt wat ik maakte; dit is een los iets. Mijn punt was dat je de backup nodig had voor wat eigenlijk je RAID al zou moeten beveiligen: problemen met je disks.
Ik weet ook dat 6 disken van 3TB in RAID6 veiliger is dan 3 disken van 6TB in raid5, en mijn gevoel zegt inderdaad ook dat RAID5 niet veilig genoeg is op zulke grote disken :)
RAID6 is maar marginaal veiliger als je corruptie niet kunt detecteren. Het punt is dat ouderwets RAID eigenlijk nooit weet wat nu goed en wat nu fout is. Het zal blindelings vanuit gaan dat de parity onjuist is en zal de parity aanpassen aan de data. Daarmee kan het de juiste versie van de data vernietigen en de corrupte versie gaan beveiligen.

Nog erger is dat je met ouderwetse filesystems corruptie niet kunt detecteren; dus al heb je zes backups van je data. Dan nog kan het voorkomen dat je artefacts in je foto's en filmpjes krijgt. Niet leuk als je denkt dat je trouwfoto's/whatever veilig zijn. Gegevensbescherming begint bij errordetectie; errorcorrectie is de volgende stap. ZFS gebruikt checksums en dergelijke bescherming is essentieel voor een hoog niveau van bescherming.
Verder: welke integriteitsproblemen kunnen ontstaan als je een journaled filesystem hebt?
Alles? Journalling zorgt enkel voor verloren recente writes. Dat heeft met write-back te maken zodat je straffeloos de write buffercache van je hardeschijven en VFS-laag kunt inschakelen. Zonder dat, schrijf je tegen 1MB/s ipv 150MB/s per disk. Journalling = voor 2e generatie filesystems; ZFS/Btrfs/ReFS zijn 3e generatie filesystems. Die kunnen corrupte data van niet-corrupte data onderscheiden door checksums en gaan niet langer uit van perfecte opslagapparaten maar bieden softwarematige bescherming voor zaken als bad sectors. Niet langer hoef je dus perfecte hardware te hebben; wat een utopie is en steeds minder het geval naarmate de datadichtheid van de schijven toeneemt. Een 2e generatie filesystem is in feite 'incompatible' met de hedendaags verkochte hardware.

Acties:
  • 0 Henk 'm!

  • thibautb
  • Registratie: Juni 2014
  • Laatst online: 15-07-2024
Nu niet helemaal hier nodig, maar ik vind zeker niet dat dit een nieuw topic verdient.

Maar als ik via intel rst mijn raid 0 omzet naar raid 5 gaat dan al mijn data kwijt? En niet een random antwoord geven want veel mensen gaven eerst een verkeerd antwoord op mijn vraag en daarna toch op het juiste antwoord gekomen. Dus hier is wat ik krijg als ik het wil doen. En ik begrijp het niet helemaal correct, er staat dat vanaf hij aan het immigreren is alle bestanden die worden er op gezet niet opgeslagen worden... Dus blijven mijn eigen bestanden er dan wel nog op???


Afbeeldingslocatie: http://plaatjesdump.nl/upload/1826090733bb3e796bb39097c5a680d9.png]

Acties:
  • 0 Henk 'm!

Verwijderd

Er staat:

Any data on the disks to be added to the volume will be permanently lost...

Dus de data op je huidige RAID-set blijft behouden; de data op de disks die je gaat toevoegen, gaat verloren. Bij OCE (Online Capacity Expansion) en ORLM (Online RAID level Migration) moet je disks toevoegen en de data op die disks die je toevoegt aan de RAID set gaan verloren. De data op de RAID set zelf niet. Tenminste, als het goed gaat, want dit is een risicovol proces en data op de RAID set kan verloren gaan als er iets mis gaat. Backups maken is sterk aanbevolen; tenminste van de data die je echt niet wilt verliezen. Alle data zal opnieuw worden opgeslagen en 'omgespit' worden. Daarom is dit zo'n risicovol proces. Als er bad sectors of andere ongein onstaan tijdens de procedure kan dit betekenen dat alle data op de RAID set verloren kan worden beschouwd.

Acties:
  • 0 Henk 'm!

  • thibautb
  • Registratie: Juni 2014
  • Laatst online: 15-07-2024
bad sectors zouden er niet zijn, de data is allemaal ongeveer twee maanden max oud, en als al mijn data kwijt geraakt, kan ik het er altijd opnieuw opzetten. Dus dan zal ik dit eens doen... Ik weet dat ZFS natuurlijk veel beter is, maar daar ben ik nog mee bezig met het maken van zo een systeempje, voor nu zal het dit worden.

En wat is het aantal max harde schijven die ik in een raid 5 kan zetten? Min is 3, en is mijn redenering dan juist dat per 3-5 1 spare disk is en dan bij bv 6 kopen er twee, 11 komen er 3,...

[ Voor 22% gewijzigd door thibautb op 04-11-2014 22:41 ]


Acties:
  • 0 Henk 'm!

Verwijderd

bad sectors zouden er niet zijn, de data is allemaal ongeveer twee maanden max oud
Wat heeft dat met elkaar te maken?
En wat is het aantal max harde schijven die ik in een raid 5 kan zetten?
Minimaal 2 en maximaal oneindig, mits je genoeg poorten hebt. Intel biedt maar 6 poorten en 8 op sommige chipsets geloof ik. Dus dat is de praktische maximum.
en is mijn redenering dan juist dat per 3-5 1 spare disk is en dan bij bv 6 kopen er twee, 11 komen er 3,...
Ik snap niet wat je bedoelt hiermee?

Acties:
  • 0 Henk 'm!

  • thibautb
  • Registratie: Juni 2014
  • Laatst online: 15-07-2024
Verwijderd schreef op woensdag 05 november 2014 @ 00:02:


Minimaal 2 en maximaal oneindig, mits je genoeg poorten hebt. Intel biedt maar 6 poorten en 8 op sommige chipsets geloof ik. Dus dat is de praktische maximum.
Dus als ik een hba koop dan gaat dat niet werken met intel rst?, En ik heb 10 sata poorten, op x99.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 07-10 07:59
Dat wil je helemaal niet, 10 schijven in RAID5 op een onboard RAID controller is vragen om problemen...
Dan zou je op zijn minst naar RAID 6 moeten, en zelfs dan heb ik 1000x liever ZFS, of zelfs iets als MDADM.

Even niets...


Acties:
  • 0 Henk 'm!

  • thibautb
  • Registratie: Juni 2014
  • Laatst online: 15-07-2024
Ik zou eigenlijk iets nodig hebben zoals zfs maar dan voor windows, want ik heb heel wat programma's waar mijn data vandaan komt dat alleen maar op windows kan draaien, en wil daarom op windows draaien. Wat mij bekend is bestaan er nog niet zo een methodes voor windows maar wel voor freenas,etc...
Maar dus op mijn onveilige methode door te gaan zou ik dan beter meerdere raid 5 volumes maken van 5 disks?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 07-10 07:59
Het beste is geen RAID, en hele goede backups maken :) Dan ben je haast veiliger dan met zo'n magere RAID implementatie.

Even niets...


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 01:35
FireDrunk schreef op woensdag 05 november 2014 @ 08:35:
Het beste is geen RAID, en hele goede backups maken :) Dan ben je haast veiliger dan met zo'n magere RAID implementatie.
Regelmatige, als dagelijks. :)

Misschien gewoon cloud backup nemen.

Acties:
  • 0 Henk 'm!

  • VorCha
  • Registratie: November 2004
  • Laatst online: 05-10 21:36
thibautb schreef op woensdag 05 november 2014 @ 08:17:
Ik zou eigenlijk iets nodig hebben zoals zfs maar dan voor windows, want ik heb heel wat programma's waar mijn data vandaan komt dat alleen maar op windows kan draaien, en wil daarom op windows draaien. Wat mij bekend is bestaan er nog niet zo een methodes voor windows maar wel voor freenas,etc...
Maar dus op mijn onveilige methode door te gaan zou ik dan beter meerdere raid 5 volumes maken van 5 disks?
Wat mij betreft is dit een beetje appels en peren. Ik heb 2 ZFS-on-Linux storage hosts die via CIFS een share aanbieden aan Windows clients en dat gaat/werkt prima. Maar misschien begrijp ik je verkeerd.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 07-10 07:59
Volgens mij draait hij het op zijn desktop :)

Even niets...


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 02-10 14:39
thibautb schreef op woensdag 05 november 2014 @ 08:17:
Ik zou eigenlijk iets nodig hebben zoals zfs maar dan voor Windows,
Die bestaat al en heet ReFS, is ook een next gen file systeem net als ZFS, maar draait alleen onder Windows server. (p.s. als je geen geld hebt voor een Win server licentie kan je altijd de ''Activeer Win'' nag. te negeren)

Maar zo als de andere ook al zijden, RAID, ZFS, BtrFS of ReFS zijn geen alternatief voor een echte back-up, en je hoeft echt niet alle data te back-uppen, alleen je onvervangbare privé data.

Persoonlijk heb ik een dubbel back-up systeem, mijn oude en nu off-line server voor wekelijkse back-up's, en een off-site versleutelde back-up bij een vriend via BuddyBackup.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 07-10 07:59
Klinkt goed, ik moet dat ook nog eens inregelen :P

* FireDrunk is te lui, en te druk...

Even niets...


Acties:
  • 0 Henk 'm!

  • _eXistenZ_
  • Registratie: Februari 2004
  • Laatst online: 05-10 18:21
Nog even over het al dan niet ovestappen op ZFS wat mij werd aangeraden, ik pas toch denk ik.

De redenen hiervoor zijn:
- Er moet veel RAM beschikbaar zijn
- Je kunt heel beperkt expansion (!!!) en geen raid level migration doen.
- Ik heb een APC SmartUPS dus write holes komen bij mij niet zomaar voor (tenzij PSU doorfikt ofzo)
- Het zit niet standaard in Linux, wordt dus weer een hoop (onstabiele?) tweaks bij elkaar.
- Mijn onvervangbare privé-data heb ik al gebackupt, de rest bestaat uit herdownloadbare data.

There is no replacement for displacement!


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 07-10 07:59
_eXistenZ_ schreef op woensdag 05 november 2014 @ 12:56:
Nog even over het al dan niet ovestappen op ZFS wat mij werd aangeraden, ik pas toch denk ik.

De redenen hiervoor zijn:
- Er moet veel RAM beschikbaar zijn
Nee hoor, het werkt prima met 4GB geheugen... Meer geheugen is alleen maar beter... Maar zeker niet verplicht.
- Je kunt heel beperkt expansion (!!!) en geen raid level migration doen.
Dat klopt.
- Ik heb een APC SmartUPS dus write holes komen bij mij niet zomaar voor (tenzij PSU doorfikt ofzo)
Write hole door power failure is leuk, maar ik denk dat je vaker write hole tegenkomt door het falen van een disk... Maar een UPS helpt wel bij het beschermen van je legacy-RAID array, dat wel.
- Het zit niet standaard in Linux, wordt dus weer een hoop (onstabiele?) tweaks bij elkaar.
Dat is wel heel kort door de bocht... Het is het toevoegen van 1 PPA (in Ubuntu) en een apt-get install ubuntu-zfs en gaan...
- Mijn onvervangbare privé-data heb ik al gebackupt, de rest bestaat uit herdownloadbare data.
Dan heb je toch ook geen RAID5 nodig in je reguliere systeem? Waarom dan niet RAID0? :)

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Ik vind dat ZFS-on-Linux nog steeds ver af staat van de kwaliteit en features die de BSD-implementatie biedt, maar ZFS-on-Linux 'een hoop onstabiele tweaks bij elkaar' noemen is echt onzin.

En dat gezeur over veel RAM is ook onzin. Ouderwets NTFS kan prima 64 gigabyte RAM gebruiken. Het is juist zo dat legacy filesystems (vfs) juist meer RAM gebruiken dan ZFS; bij ZFS is het zo dat de ARC niet alle vrije RAM in gebruik heeft. Wel is het zo dat ZFS meer dan andere filesystems performance schaalt met de kwantiteit RAM. Maar dat hoeft toch geen issue te zijn?

Ik gebruik ZFS ook op mijn embedded systeem met 1GiB RAM waarbij er 128MiB voor ZFS is gereserveerd. Dus waar komt dat gezeur over RAM nou vandaan? Voor een vette build wil je ook lekker veel RAM hebben ja, maar dat is gewoon omdat het nuttig is, niet omdat het moet.

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 02-10 14:39
_eXistenZ_ schreef op woensdag 05 november 2014 @ 12:56:
- Mijn onvervangbare privé-data heb ik al gebackupt, de rest bestaat uit herdownloadbare data.
Is ook de reden dat mijn server nog op 2012R2 draait met R6 array, want ik wil niet een server zonder OCE ondersteuning voor het uitbreiden van mijn array.

Maar een offline back-up server is een prima alternatief om dagelijks of wekelijks al je prive data te back-uppen.

Een set kleinere HDDs uit een oudere array voldoet daar prima aan, en ook een oude PC kan prima als server dienen, gewoon in de BIOS een start-up tijd instellen, en de back-up software automatisch laten opstarten, en de PC/server laten afsluiten als hij klaar is, werkt prima voor mij.

Mijn oude array van 16x 750MB HDDs is zo een tweede leven begonnen als RAIDZ3 array met 2x een hot-spare.

Mijn netwerk.
Afbeeldingslocatie: http://tweakers.net/ext/f/CeoiXAEApUtq1hdcD9DXG8qt/medium.png

Mijn back-up schema
Afbeeldingslocatie: http://tweakers.net/ext/f/eyAii2ZU3BeJHpgKv2EQxYBi/medium.jpg
FireDrunk schreef op woensdag 05 november 2014 @ 13:03:
Dat is wel heel kort door de bocht... Het is het toevoegen van 1 PPA (in Ubuntu) en een apt-get install ubuntu-zfs en gaan...
Mee eens, draai zelf ook een ZFS back-up server op basis van Linux, was nou niet echt een probleem om te installeren.
Dan heb je toch ook geen RAID5 nodig in je reguliere systeem? Waarom dan niet RAID0? :)
Dat je privé data veilig hebt wil uiteraard nog niet zeggen dat je alles opnieuw wilt downloaden. :+

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • thibautb
  • Registratie: Juni 2014
  • Laatst online: 15-07-2024
De schijven zijn wel zoals ik al zei gewoon voor heel veel films, mijn belangrijkere data staat op een andere harde schijf, maar ik wou niet dat als er iets mis gaat ik alle films en series er opnieuw moet opzetten, want dat is echt heel onhandig dan.

Ik was bezig met een pc te maken voor zfs, maar daar kreeg een te kort in mijn budget en ook tijd om het helemaal af te werken, dus dat is even op de lange baan geschoven.

Maar dan nog een vraag, kan ik met een hba nog intel rst gebruiken of moet ik iets anders daarvoor doen. Dus na dat al mijn intel sata poorten vol zijn.

[ Voor 4% gewijzigd door thibautb op 05-11-2014 14:13 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Nee dat kan niet; in theorie wel maar Intel biedt zijn drivers alleen aan voor de eigen controller. Dat is beveiligd. In het verleden waren er wel bugs in de drivers van Silicon Image geloof ik, die attachden dan op controllers van andere fabrikanten en kon je de Silicon Image (Bagger)RAID drivers gebruiken op andere controllers. Want het blijft software RAID. Maar dat is dus een bug.

Bij jou betekent het dus maximaal 10 disks in een RAID configuratie; of meerdere RAID configuraties met in totaal maximum 10 disks.

Acties:
  • 0 Henk 'm!

  • lord4163
  • Registratie: Oktober 2010
  • Laatst online: 06-10 22:47
@_eXistenZ_

Je kan de pool wel uitbreiden. Stel je hebt een pool als mirror, dan kun je je pool uitbreiden door nog een mirror bij de huidige pool zetten :)

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 07-10 07:59
lord4163 schreef op donderdag 06 november 2014 @ 10:46:
@_eXistenZ_

Je kan de pool wel uitbreiden met extra VDEV's. Stel je hebt een pool met 1 mirror VDEV, dan kun je je pool uitbreiden door nog een mirror VDEVbij de huidige pool te zetten :)
FTFY :)

Je kan altijd extra VDEV's plaatsen, maar die hoeven zeker niet hetzelfde RAID level te hebben.
Je kan dus een pool hebben met 2 VDEV's waarvan 1 VDEV een mirror is van 2 schijven, en de andere VDEV een RAIDZ array is van 3 schijven. Je kan in theorie zelfs een losse schijf naast een RAIDZ array plaatsen. dat wil je zeer zeker niet, omdat je een RAID0 array hebt van 1 data schijf, en een raidz array... ernstig onveilig dus...

Niet altijd verstandig, maar het kan zeker wel.

[ Voor 43% gewijzigd door FireDrunk op 06-11-2014 11:26 ]

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

En ORLM kan ZFS ook; van single disk naar RAID0 en van single disk naar RAID1 en van RAID1 naar single disk/RAID0.

Eigenlijk kan ZFS bijna alles met single disk/RAID0 en mirror; behalve vdevs weghalen dat kan niet. Maar dat je van single disk naar mirror kan en weer terug; dat willen we ook voor RAID-Z familie. En dat kan dus (nog) niet. Is ook een zware feature omdat alle data omgespit moet worden, en leunt op de 'Block Pointer Rewrite' functionaliteit. Toch hoop ik dat het er ooit van gaat komen met OpenZFS collaboratie tussen verschillende ZFS developers op verschillende platforms.

Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 26-09 15:54
Zodra je een vdev kan shrinken (en de bijhorende plaats dat deze op de schijven inneemt), is het probleem feitelijk opgelost. (zolang je een beetje plaats vrij hebt)
vdevs expanden kan al.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 07-10 07:59
Uh, dat is te kort door de bocht, je kan een VDEV niet zomaar expanden, je kan 1 voor 1 grotere schijven plaatsen, dan zal ZFS inderdaad de nieuwe lege ruimte gebruiken.

Maar je kan niet een extra schijf bij een RAIDZ VDEV plaatsen.

Voor verkleining gelden andere regels, je kan niet een 2TB disk met een 1TB disk vervangen als er maar 1TB aan data op staat. Wel kan je een mirror splitsen waardoor je 1 schijf er uit kan halen. Dat is niet echt verkleinen, eerder het aantal schijven in een VDEV verlagen, zonder de capaciteit aan te passen...

[ Voor 39% gewijzigd door FireDrunk op 06-11-2014 12:24 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 26-09 15:54
Stel: 3 schijven, 2 met een mirror op, 1 nieuwe leeg.

Als je de mirror kan shrinken en in de vrijgekomen vrije ruimte een nieuwe RAID-Z vdev kan maken met de 3de schijf bij, kan je in fasen data overzetten, shrink mirror, expand RAID-Z

Dus een simpele expand is genoeg om voor een OCE/ORLM te zorgen.
ALS er ook een shrink zou zijn.
(partitioned vdevs zijn ook mogelijk, verder heb je niet echt iets nodig)
desnoods kan je 2 schijven in mirror als buffer plaatsen moest de vdev echt VOL zitten.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 07-10 07:59
Volgens mij kan dat niet... Je kan een Filesystem niet shrinken...

(of ik mis iets)...

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Je kan een vdev niet shrinken nee; wel expanden (dus van een 1TB vdev naar een 2TB vdev). Je kunt ook geen vdevs verwijderen.

Er zijn wel goede redenen voor; ZFS expansion is nu instant en helemaal veilig; dat is beide niet het geval zodra je data moet gaan omspitten. Maar punt blijft dat voor niet-enterprise gebruikers dit als een groot nadeel gezien wordt. En zelf had ik het ook wel tof gevonden om van een 5-disk RAID-Z een 6-disk RAID-Z2 te kunnen maken zonder allerlei trucjes moeten doen zoals 2 disks van de RAID-Z2 stelen en dan data overzetten en dan de RAID-Z destroyen en dan de RAID-Z2 aanmaken met 4 van de 6 disks en dan weer kopiëren en daarna de RAID-Z2 compleet maken. Is nogal wat gedoe en ook daar kan vanalles mis gaan wat in elk geval theoretisch veiliger had gekund als ZFS native RAID-Z expansion zou ondersteunen.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 07-10 07:59
Bij RAIDZ naar RAIDZ2 is nog steeds omspitten van data nodig. RAIDZ en RAIDZ2 werken namelijk net als de oude RAID5 met een wisselende parity disk. Als je dat niet hebt, is het geen RAID5 maar RAID3.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

RAID3 kan ook met distributed parity zijn; het is RAID4 die een vaste paritydisk heeft. RAID3 verschilt van RAID4 en RAID5 doordat één I/O request wordt verdeeld over alle member disks. Dus RAID3 heeft geen read-modify-write procedure zoals RAID4 en RAID5 wel heeft. Om die reden zijn RAID-Z1/2/3 meer als RAID3 dan als RAID5. Dat heeft tot gevolg dat random writes veel sneller zijn maar random reads beperkt zijn tot de performance van de meest langzame disk in de array; anders dan bij RAID5 waarbij random read IOps schaalt met de hoeveelheid disks bijna net zo goed als RAID0 met één disk minder.

Maar je lijkt te impliceren dat ik zei dat omspitten niet nodig wat voor RAID-Z naar RAID-Z2, maar het subtiele woordje 'had' lees je denk ik overheen:
En zelf had ik het ook wel tof gevonden om van een 5-disk RAID-Z een 6-disk RAID-Z2 te kunnen maken

Met andere woorden: BPR (Block Pointer Rewrite) zou ook voor mij wel leuk zijn zodat ik flexibel de redundancy aan zou kunnen passen. Maar ik denk dat het voor beginnende/casual home users het meest belangrijk is. De serieuze ZFS gebruikers kopen toch wel disks per 6 of per 10 of hoe groot hun vdev ook is. Denk bijvoorbeeld aan deze build op het ZFSguru-forum: http://zfsguru.com/forum/buildingyourownzfsserver/895.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 07-10 07:59
Ah, scuze me, ben in de war met RAID4 idd ;) Ik doelde op een vaste parity disk :)

Ik dacht inderdaad te lezen dat je dacht dat het makkelijker was om van RAIDZ RAIDZ2 te maken dan dat het was om van 4 disk RAIDZ naar 5 disk RAIDZ te gaan.

Mja, ik schaar mijzelf toch wel onder de serieuze ZFS gebruikers, maar heb 'maar' 4*4TB in RAIDZ :)
En nu baal ik een beetje, want ik kan niet 1 disk erbij zetten, en wil niet zomaar 4*4TB in RAIDZ erbij zetten (want: onveilig), en 6*4TB kopen om een nieuwe RAIDZ2 array te bouwen is ook vrij prijzig...

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Valt me van je tegen FireDrunk. :P

Had toch wel verwacht dat je minimaal RAID-Z2 had gebruikt. Dat raad ik mijn familie ook sterk aan; doe het gewoon in één keer goed dan heb je er nooit gezeik van; extreme pech uitgezonderd.

RAID-Z2 met 10 disks vind ik nog steeds de beste allround configuratie; de sweet spot qua overhead (20%), bescherming en prima te doen met één IBM M1015 en 2 op de onboard controller + nog ruimte voor SSDs enzo. Of een bordje met 12 SATA zoals ASRock.

Maar als je zoals ik meerdere ZFS machines hebt (offline backup) dan kan RAID-Z ook wel volstaan. Ik gebruik zelfs ook RAID0 pools als 24/7 always on met twee WD Green disks. ZFS weet of iets corrupt is of niet; dus dan kun je altijd iets van je nightly backup server trekken als je RAID0-pool kapoet gaat.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 07-10 07:59
Oh zeker, ik heb een RAID0 array van SSD's en wil nog steeds een keer ZFS replicatie doen tussen de het filesystem op de SSD's en een filesystem op de HDD's.

Maar ja, de tijd... (staat toch nog geen belangrijke data op, dus heeft ook geen haast).

Ik zou ook zeker naar 10 * 4TB RAIDZ2 willen, maar op zich kan ik best toe met de ruimte van 4*4TB :)
Dus waarom zou ik :P

[ Voor 20% gewijzigd door FireDrunk op 06-11-2014 14:01 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • DYX
  • Registratie: Mei 2008
  • Laatst online: 03-10 20:09

DYX

Zie net in de pricewatch de WD Red SATA 6 Gb/s WD80EFRX, 8TB verschijnen. Geen diee of het een foutje betreft aangezien er letterlijk niks over te vinden is, maar het gaat anders wel snel in eens met de beschikbare grootte. Hem helemaal vol schrijven duurt gewoon al lang...

Acties:
  • 0 Henk 'm!

Verwijderd

Googlen op de productcode geeft alleen 4 links van Tweakers.net, dus vraag me inderdaad af of het een foutje is.

De 6TB heeft 5 platters van 1.2TB dus 5x 1.2 = 6TB.

Voor 8TB zou het 6 platters van 1.33TB kunnen zijn. Of 5 platters van 1.6TB. Toch denk ik dat 1.5TB platters meer voor de hand ligt. Dan kunnen er goedkopere 3TB schijven en goedkope 6TB schijven gemaakt worden; en met 6 platters zelfs 9TB schijven. Maar 1.33TB zou ook prima kunnen. 4TB met 3 platters. Maar dan heb je alleen 8TB met 6 platters en dat zijn minder mogelijkheden; 1.5TB platters zijn meer universeel inzetbaar.

Acties:
  • 0 Henk 'm!

  • DYX
  • Registratie: Mei 2008
  • Laatst online: 03-10 20:09

DYX

Gezien de 6TB niet eens zo heel lang geleden is geintroduceerd en nog niet erg veel concurrenten voor zijn verwacht ik de 8TB voorlopig nog niet. Denk dat ze eerst de 6TB gaan uitmelken zegmaar.

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 02-10 14:39
DYX schreef op donderdag 06 november 2014 @ 14:40:
Zie net in de pricewatch de WD Red SATA 6 Gb/s WD80EFRX, 8TB verschijnen. Geen diee of het een foutje betreft aangezien er letterlijk niks over te vinden is
Nee denk niet dat het een foutje van de PW is, maar dat een van de winkels deze HDD in zijn systeem heeft ingevoerd, ter voorbereiding op de introductie, en de PW heeft die automatisch ingelezen.

Zou dus waarschijnlijk zelfs als een FP primeur bericht geplaatst kunnen worden. :+
Hem helemaal vol schrijven duurt gewoon al lang...
LOL, vul ongeveer 1TB per maand met voornamelijk 1080p content, als 4K echt mainstream gaat worden, dan word dat ongeveer 4TB per maand, of als h265 echt standaard word, 2.5TB.

En dan heb ik het alleen over nieuwe content, het zal nog een stuk harder gaan, als ik bestaande 1080p content ga vervangen voor 4k content, wanneer dat beschikbaar komt.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • DYX
  • Registratie: Mei 2008
  • Laatst online: 03-10 20:09

DYX

Kan ook een fout van een van de winkels zijn, maar dat zullen we vanzelf zien :)
Met vol schrijven bedoelde ik meer in 1x. a 175MB/s duurt het alsnog ~45uur om hem helemaal vol te schrijven

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 07-10 07:59
Dan moet je wel een bron hebben van 175MB/s... Laat mijn internetverbinding nou net nog een *tikkie* langzamer zijn :+

Overigens staan ze al langer klaar hoor:
http://arstechnica.com/in...rive-ships-new-8tb-drive/

[ Voor 41% gewijzigd door FireDrunk op 06-11-2014 15:06 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • DYX
  • Registratie: Mei 2008
  • Laatst online: 03-10 20:09

DYX

Klopt, maar de HGST Ultrastar zijn natuurlijk, in tegenstelling tot de Reds, geen end-user drives. Dat zie je ook wel in de prijs terug van die disks (e223 vs e448 voor 6TB).

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 07-10 07:59
End-User vs Enterprise is vaak een kwestie van andere Firmware, en wat rigoreuzere testing... Techniek is vrijwel gelijk...

Even niets...


Acties:
  • 0 Henk 'm!

  • Ithaca81
  • Registratie: Februari 2005
  • Laatst online: 07-10 08:26
@DYX,
Vorig jaar werd de WD50EFRX al toegevoegd aan de PW. Dat duurde vervolgens nog een jaar voor die HDD daadwerkelijk beschikbaar kwam, overigens tegelijk met de WD60EFRX die tot lancering niet eerder in de PW voorkwam.

Het lijkt wel ineens weer harder te gaan dat schijven van 8 tot 10 TB nu al getest worden.

Zouden de nieuwe HAMR technieken inmiddels volwassen genoeg zijn voor brede productie?

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 02:07
Ithaca81 schreef op vrijdag 07 november 2014 @ 09:37:
Het lijkt wel ineens weer harder te gaan dat schijven van 8 tot 10 TB nu al getest worden.
Nou ja, als iedere volgende generatie tussen de 1.3 en 1.5 keer zo groot wordt als de vorige dan klopt dat wel ongeveer :)

250 -> 320 (1,28) -> 500 (1,56) -> 750 (1.5) -> 1000 (1.333) -> 1500 (1.5) -> 2000 (1.333) -> 3000 (1.5)

Van 4 TB naar 6 past in dat stramien, van 6 naar 8 ook, en van 8 zouden we dan eigenlijk zelfs naar 12 moeten :P

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • thibautb
  • Registratie: Juni 2014
  • Laatst online: 15-07-2024
Alleen zouden de prijzen dan toch wel is moeten gaan dalen, 12tb schijven zouden met de prijzen van nu 450 euros ongeveer kosten... Das toch iets te veel dan, en ik hoop dat 4tb schijven ook eens gaan dalen naar onder de 100 euro.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 07-10 07:59
Ik ook, dan komt 6*4TB er bij weer wat dichterbij...

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

De informatie die ik heb kunnen vinden gaat het niet om PMR maar om SMR disks vanaf 10TB. En dat zijn geen consumentendisks maar disks voor cloudproviders en andere grootverbruikers, die speciale filesystems gebruiken en kunnen optimaliseren voor deze drives.

Het probleem is namelijk dat SMR geen normale sector-hardeschijven zijn, maar drives die veranderingen vereisen aan de firmware (sector emulatie) of aan het filesystem. SMR vereist namelijk read-modify-write procedures en dat is bij normale schijven op basis van LBA sectoren niet het geval.

Dat betekent dat de random seek performance nog beroerder zal worden en deze schijven alleen maar voor bulk data nuttig zijn.

Kortom, ik ben nogal somber - HAMR zou dan eerder geschikt zijn voor consumentendisks en daar hoor ik de laatste tijd niet veel over.

Zie ook deze paper: http://www.ewh.ieee.org/r...g2010_10_Presentation.pdf

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 02-10 14:39
thibautb schreef op vrijdag 07 november 2014 @ 17:09:
12tb schijven zouden met de prijzen van nu 450 euros ongeveer kosten... Das toch iets te veel dan,
Dat is €0,037 per GB, waar kan ik die bestellen???

Dat is een hele gewone prijs per GB, en als je dan nog eens de TCO per poort mee rekent ben je zelfs een stuk voordeliger uit, en kan je een veel compactere en zuinigere server hebben.
Verwijderd schreef op vrijdag 07 november 2014 @ 17:54:
Dat betekent dat de random seek performance nog beroerder zal worden en deze schijven alleen maar voor bulk data nuttig zijn.
Hoezo zou dat een probleem zijn voor een thuis server, 95% van mijn data is bulk video data, random seek performance is nu niet echt een van mijn grootste problemen, en ik denk dat ik daar in niet de enige ben.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

Verwijderd

Omdat ook wanneer je enkel grote bestanden uitleest of wegschrijft, je random seeks veroorzaakt door de metadata. Een schijf met een extreem hoge random seek latency kun je om die reden meer zien als een tapestreamer. Dat is ook niet geschikt voor een 'normaal' filesystem vanwege de extreem slechte seekperformance.

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 02-10 14:39
Verwijderd schreef op vrijdag 07 november 2014 @ 19:56:
meer zien als een tapestreamer. Dat is ook niet geschikt voor een 'normaal' filesystem vanwege de extreem slechte seekperformance.
Ik geloof je meteen als je zegt dat de zoek tijden extreem slecht zijn, maar geloof nooit dat het zo slecht is als met tapestreamers, of zelfs maar enig zins er van in de buurt komen.

Heb nog steeds een DAT streamer van mijn oude 0-day dagen, waar dat de enige manier was om bulk data via snail-mail te versturen, gewoon omdat verbindingen waar we toegang tot hadden te traag waren.
En de kosten LVD U2W SCSI kaart en de tapestreamer, kosten die ik gelukkig konden delen met meerdere vrienden..

Maar niemand ontwerpt een HDD formattering die werkt als een langspeelplaat, die alleen maar door voor of achteruit draaien naar bepaalde bestanden kan komen.

Ik kan me nog wel voorstellen dat formattering meer werkt als een muziek CD, en we zoektijden hebben van misschien zelfs rond de 100ms of zo, maar dat is nog steeds acceptabel voor veel bulk data gebruik.

Want als ik correct ben, het is iig een nummer die dat ik geloof dat ik ergens heb gelezen, formattering kost rond de 7~8% van je bruikbare ruimte, en ik geloof best dat je daar een groot deel van terug kan winnen, ten koste van random performance.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 21:33
Dit is absoluut vloeken in de kerk, maar ben wel heel nieuwsgierig:

Heeft iemand FreeNAS als een VM draaien onder Windows 8.1 / Server 2012 R2 Hyper-V? Kan FreeNAS de schijven direct aanspreken? En wat is de maximale hoeveelheid schijven die je kan doorgeven?

Acties:
  • 0 Henk 'm!

  • thibautb
  • Registratie: Juni 2014
  • Laatst online: 15-07-2024
Ik heb dat wel eens geprobeerd, en ik heb zelf heel wat virtuele schijven aangemaakt, zodat het werkt, dus nee hij kan geen schijven direct aanspreken.

Acties:
  • 0 Henk 'm!

Verwijderd

player-x schreef op zaterdag 08 november 2014 @ 12:15:
Ik geloof je meteen als je zegt dat de zoek tijden extreem slecht zijn, maar geloof nooit dat het zo slecht is als met tapestreamers, of zelfs maar enig zins er van in de buurt komen.
Dat klopt natuurlijk; maar het punt is dat als de random seek performance boven een bepaalde grens komt, je er geen normaal filesystem meer kunt opzetten.
Maar niemand ontwerpt een HDD formattering die werkt als een langspeelplaat, die alleen maar door voor of achteruit draaien naar bepaalde bestanden kan komen.
Deze schijven zijn min of meer speciaal ontwikkeld voor de cloud; waarbij gigantische hoeveelheden 'cold data' in deep storage worden gebracht. De 'hot storage' wordt dan door snellere schijven, SSDs en RAM caching verzorgd.

Het punt is namelijk dat dergelijke grote bedrijven hun eigen filesystems kunnen ontwikkelen. Zo kan de schijf informatie lezen die niet is opgevraagd en op een heel andere (LBA) plek opgeslagen is. Die informatie kan dan door het nieuwe filesystem direct worden meegenomen en wat je krijgt is een specifiek filesystem wat een aantal gigabyte op een bepaalde plek druppelsgewijs binnenkrijgt.

Dergelijke systemen zijn zeer specifiek en vergt een custom design voor de softwarekant. Mijn punt is dus dat je NTFS nooit zult draaien op dergelijke schijven.

Als normale desktopschijf zal dus een andere techniek moeten worden gekozen, zoals HAMR.
formattering kost rond de 7~8% van je bruikbare ruimte, en ik geloof best dat je daar een groot deel van terug kan winnen, ten koste van random performance.
Formatteren is een verkeerd gebruikt begrip. Wanneer men in Windows een hardeschijf formatteert, bedoelt men het initialiseren van het filesystem. Een echte (low-level) format kun je niet meer uitvoeren; dat wordt in de fabriek gedaan en dat omvat het initialiseren van de sectoren; daarbij wordt de sector size bepaald en de tussenruimte en pre-amble van de sector zorgen voor verlies van ruimte. Dat is de exacte reden waarom een 1,44MB floppy ruw 2MB is en na formatteren 1,44MB. Als je daar een filesystem op zet, gaat dat nog meer naar beneden dat staat los van elkaar.
GioStyle schreef op zaterdag 08 november 2014 @ 13:07:
Dit is absoluut vloeken in de kerk, maar ben wel heel nieuwsgierig:

Heeft iemand FreeNAS als een VM draaien onder Windows 8.1 / Server 2012 R2 Hyper-V? Kan FreeNAS de schijven direct aanspreken? En wat is de maximale hoeveelheid schijven die je kan doorgeven?
Microsoft en FreeBSD developers hebben samengewerkt om BSD deftige Hyper-V ondersteuning te geven. Daarvoor moet je wel minimaal 10.1 draaien; en FreeNAS loopt vaak achter op BSD releases. ZFSguru zou wel kunnen, of zelf een vanilla FreeBSD distributie draaien. Wat verouderde informatie kun je hier terugvinden: https://wiki.freebsd.org/HyperV

Acties:
  • 0 Henk 'm!

  • The Lord
  • Registratie: November 1999
  • Laatst online: 01:15
Verwijderd schreef op vrijdag 07 november 2014 @ 17:54:
...
Het probleem is namelijk dat SMR geen normale sector-hardeschijven zijn, maar drives die veranderingen vereisen aan de firmware (sector emulatie) of aan het filesystem. SMR vereist namelijk read-modify-write procedures en dat is bij normale schijven op basis van LBA sectoren niet het geval.

Dat betekent dat de random seek performance nog beroerder zal worden en deze schijven alleen maar voor bulk data nuttig zijn.
...
Mwa, alle enigszins moderne schijf-virtualisatie software die er is ondersteund journaling en/of caching op een SSD.

Zou zo maar kunnen dat voor de Tweaker-Desktop (NAS, etc.) SSD in combinatie met SMR schijven precies dat brengen waar velen op wachten. Voldoende IOps op een flinke berg MBps en nog veel meer MB's voor niet te hete opslag.

geeft geen inhoudelijke reacties meer


Acties:
  • 0 Henk 'm!

Verwijderd

:?

Wat heeft journaling hiermee te maken?
Wat bedoel je met 'schijf-virtualisatie software' ?
Wat heeft SSD caching hiermee te maken?

Zonder aangepast filesystem haal je sowieso niet het maximum uit een SMR-schijf; de problemen met random seeks nog niet meegerekend. Lees de paper eens die ik hierboven heb gepost; daarin wordt e.e.a. duidelijk gemaakt.

Acties:
  • 0 Henk 'm!

  • Slenger
  • Registratie: April 2008
  • Laatst online: 03-10 14:32
Ik draai nu bijna een jaar de Netgear Readynas duo, puur om te proberen als een NAS mij bevalt.

Nu wil ik eigenlijk in december een NAS gaan bouwen, ik heb de volgende hardware uitgezocht :
#ProductPrijsSubtotaal
1Intel Pentium G3220 Boxed€ 48,34€ 48,34
1ASRock H87M Pro4€ 64,51€ 64,51
1BitFenix Phenom Micro-ATX Wit€ 63,98€ 63,98
1Corsair Value Select CMV8GX3M1A1600C11€ 66,84€ 66,84
1be quiet! System Power 7 350W€ 34,29€ 34,29
1Crucial MX100 128GB€ 61,-€ 61,-
Bekijk collectie
Importeer producten
Totaal€ 338,96


Is dit voor een budget NAS een redelijke configuratie?

Ook zit ik qua software nog te twijfelen tussen FreeNAS en ZFSGuru, nu wil ik eerst beiden in een VM proberen maar wat is voor iemand die een eerst NAS bouwt aan te raden?

Ik heb in eerste instantie 2 HDD's van 2TB (WD RED). Deze wil ik in RAID 1 draaien.

Acties:
  • 0 Henk 'm!

  • DennusB
  • Registratie: Mei 2006
  • Niet online
FreeNAS doen. Ontwikkeling van ZFSguru ligt stil!

Owner of DBIT Consultancy | DJ BassBrewer


Acties:
  • 0 Henk 'm!

  • BottOm
  • Registratie: Januari 2010
  • Laatst online: 22-07 23:25
Hey iedereen!

Ik heb vorige week 2 nieuwe HD gekocht voor in m'n Synology 212+: WD Green 3TB.
Nu las ik dat de Greens regelmatig downspinnen maar dat dit verholpen kan worden: http://www.storagereview....een_wd20ears_with_wdidle3

Heeft iemand ervaring met WDIDLE? Of zijn er nog andere tools die gebruikt kunnen worden?
Pagina: 1 ... 161 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.