Acties:
  • 0 Henk 'm!

  • Johnnygo
  • Registratie: April 2009
  • Laatst online: 24-09 15:25
Ik heb de volgende kaart gekocht voor uitbreiding van mijn server:
http://www.delock.com/produkte/G_89384/merkmale.html
Echter krijg ik die niet werkend onder FreeBSD. Ik heb ZFSguru en Freenas geprobeerd, maar beide geven dezelfde foutmeldingen:
code:
1
2
3
4
5
6
7
8
(noperiph:ahcich14:0:-1:-1): rescan already queued
(noperiph:ahcich15:0:-1:-1): rescan already queued
(noperiph:ahcich12:0:-1:-1): rescan already queued
(noperiph:ahcich13:0:-1:-1): rescan already queued
(noperiph:ahcich14:0:-1:-1): rescan already queued
(noperiph:ahcich15:0:-1:-1): rescan already queued
run_interrupt_driven_hooks: still waiting after 60 seconds
run_interrupt_driven_hooks: still waiting after 120 seconds

Als ik de schijven los haal, dan zijn bovenstaande meldingen verdwenen, maar krijg ik melding van een irqstorm.
Linux (Ubuntu) en Windows7 hebben geen probleem met de kaart, en ik kan de aangesloten schijven zien en benaderen. Alleen FreeBSD wil niet starten.
Heeft iemand enig idee wat het probleem hier zou kunnen zijn?

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:10
FireDrunk schreef op maandag 08 februari 2016 @ 15:19:
Ik weet het nog niet, qua CPU ben ik niet overtuigd. Als een all-in-one platform met support van 1 vendor voor al je peripherals is het natuurlijk uitermate interessant.
De vraag is dus vooral of je veel Ghz wilt of veel cores/threads. Met vitualisatie en met een file server zijn Ghz meestal niet het belangrijkste en is een exta set cores belangrijker dan de harde Ghz.

Tenzij je CPU-intensieve dingen doet in je VMs.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:10
naaitsab schreef op maandag 08 februari 2016 @ 16:59:
Ook maar eens een balletje opgooien. Ik ben aan het oriënteren voor een NAS/Downloadbak/HTPC. Hierbij heb ik een aantal eisen:
-Stabiel (qua OS als opslag)
-Veilig (RAID)
-24/7 dus energieverbruik is een puntje.
-4 met ruimte voor 6 HDD's
-4+ TB compatible.
-Niet te groot (ITX)

Dan rest nog het puntje waar ik mee zit. Aangezien ik Intel RAID toch niet je-van-het vind op mijn moederbord neig ik toch naar een hardware RAID kaart. Ik had een LSI 9211-8i op het oog, de ze kosten ~100 euro via import. Dat vind ik nog wel te doen.

Twijfel alleen nog tussen RAID 5 en 10. 10 is aan alle kanten beter maar 4x4 of 4x5 TB is gelijk weer een flinke aanschaf. RAID 5 kan ik met 3x5 starten. Ik kwam ook andere LSI kaarten tegen maar ik wil er niet meer dan 150,- extra voor neerleggen. Het moet wel een beetje leuk blijven :P
Waarom koop je niet gewoon een 6 - 8 bay Synology / QNAP en kies je voor zelfbouw?
Het is mogelijk ietsje duurder maar het bespaart je een hoop gedoe lijkt mij.

[ Voor 3% gewijzigd door Q op 08-02-2016 17:55 ]


Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
naaitsab schreef op maandag 08 februari 2016 @ 16:59:
Dan rest nog het puntje waar ik mee zit. Aangezien ik Intel RAID toch niet je-van-het vind op mijn moederbord neig ik toch naar een hardware RAID kaart. Ik had een LSI 9211-8i op het oog, de ze kosten ~100 euro via import. Dat vind ik nog wel te doen.

Twijfel alleen nog tussen RAID 5 en 10. 10 is aan alle kanten beter maar 4x4 of 4x5 TB is gelijk weer een flinke aanschaf. RAID 5 kan ik met 3x5 starten. Ik kwam ook andere LSI kaarten tegen maar ik wil er niet meer dan 150,- extra voor neerleggen. Het moet wel een beetje leuk blijven :P
LSI 9211-8i doet standaard geen RAID 5. Ik weet niet of ze net als de Dell H310 en IBM1015 (alternatieven met dezelfde LSI chipset) uitgebreid kunnen worden met een module zodat ze wel RAID5 kunnen.

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 06:55
Q schreef op maandag 08 februari 2016 @ 17:54:
[...]


Waarom koop je niet gewoon een 6 - 8 bay Synology / QNAP en kies je voor zelfbouw?
Het is mogelijk ietsje duurder maar het bespaart je een hoop gedoe lijkt mij.
Omdat ik zelf wat wil bouwen ;) en qua OS vind ik dat veel te beperkt. Buiten dat is de upgradebaarheid 0,0. Als dit verouderd is prik je er een nieuw RAID kaartje in en mobo kit, heb je voor 350 euro een nieuw hart.
u_nix_we_all schreef op maandag 08 februari 2016 @ 18:01:
[...]

LSI 9211-8i doet standaard geen RAID 5. Ik weet niet of ze net als de Dell H310 en IBM1015 (alternatieven met dezelfde LSI chipset) uitgebreid kunnen worden met een module zodat ze wel RAID5 kunnen.
Bij de 9211 zit ik inderdaad vast aan RAID 0, 1 of 10. Alleen zit je bij hardware RAID waar je RAID5 kan draaien snel richting de 300 euro :/ Die HP/Dell/IBM dingen moet je alleen wel dondersgoed mee uitkijken of ze niet BIOS locked zijn. Daar ben ik met een dual GB nic ook al eens de mist mee in gegaan. Al is qua veiligheid en performance RAID5 ook niet echt je-van-het. Denk dan toch maar overstappen naar 10 en een 9211 erin steken. Of iemand moet een ander kaartje weten.

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!
Wil je het onder Windows draaien? of is Linux ook een optie?

Even niets...


Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 06:55
FireDrunk schreef op maandag 08 februari 2016 @ 19:08:
Wil je het onder Windows draaien? of is Linux ook een optie?
Ik werk dagelijks met Windows Server, daar weet ik me uitermate goed in thuis dus dat wil ik erop zetten. Linux heeft mij nooit lekker gelegen. Wil er ook wat meer me doen dan enkel NAS dus een NAS distro valt af.

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!

  • Shamalamadindon
  • Registratie: Juni 2009
  • Laatst online: 30-03-2024
Je zou ook Unraid kunnen draaien voor de storage met daarnaast een Server 2012 VM.

Wanneer heb je het laatst je wachtwoord verandert? Er word op T.net de laatste tijd regelmatig misbruikt gemaakt van accounts met gelekte wachtwoorden om andere gebruikers op te lichten. Verander je wachtwoord, geef oplichters geen kans!


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:10
naaitsab schreef op maandag 08 februari 2016 @ 18:52:
[...]

Omdat ik zelf wat wil bouwen ;) en qua OS vind ik dat veel te beperkt. Buiten dat is de upgradebaarheid 0,0. Als dit verouderd is prik je er een nieuw RAID kaartje in en mobo kit, heb je voor 350 euro een nieuw hart.
Ok, je wilt gewoon lekker spelen ;) Ik denk dat je je verkijkt op wat een NAS tegenwoordig kan.

Het veiligste qua storage is RAID6, een mooie balans tussen capaciteit en veiligheid, het is wat jij wilt, maar als je het je kunt veroorloven zou ik dat zeker doen.

Dat geldt op een andere manier ook voor ECC-geheugen. Het is veiliger, en omdat je aan de zelfbouw gaat is het een mooie optie. Maar je systeem wordt dan wel iets duurder en onzuiniger (+10 watt voor on-board out-of-band management). Ik zie het niet als een halszaak ofzo.

[ Voor 5% gewijzigd door Q op 08-02-2016 21:05 ]


Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 06:55
Leo1010 schreef op maandag 08 februari 2016 @ 20:49:
Je zou ook Unraid kunnen draaien voor de storage met daarnaast een Server 2012 VM.
Daar en ESXi heb ik ook al naar gekeken maar dat is nogal picky voor de RAID hardware lees ik her en der, Intel RAID valt bij ESXi sowieso al af. Ik weet ook niet of ik het wil virtualiseren, alles in 1 systeem is ook wel handig te managen. Zo spannend zijn een paar shares met SMB ook weer niet dus om daar Unraid voor in te zetten is wellicht wat overkill.
Q schreef op maandag 08 februari 2016 @ 21:04:
[...]


Ok, je wilt gewoon lekker spelen ;)
Natuurlijk, dat is toch het gave eraan, zelf lekker stoeien :Y)
Het veiligste qua storage is RAID6, een mooie balans tussen capaciteit en veiligheid, het is wat jij wilt, maar als je het je kunt veroorloven zou ik dat zeker doen.
RAID6 kom ik qua controllers helemaal bar weinig tegen, dat gaat al snel richting de 400+ zie ik :/
Dat geldt op een andere manier ook voor ECC-geheugen. Het is veiliger, en omdat je aan de zelfbouw gaat is het een mooie optie. Maar je systeem wordt dan wel iets duurder en onzuiniger (+10 watt voor on-board out-of-band management).
Als ik voor een dergelijke mini-server instelling zou gaan zou ik hiervoor kiezen:
pricewatch: Asus P10S-I met 1x 16GB ECC RAM en de i3-6100 (non-T)
De goedkoopste Xeon S1151 is 230 euro, dat is dan gelijk weer een machine van boven de 1000,- Niet helemaal wat ik zoek. Al is dat bordje wel interessant, gemaakt voor 24/7 met management functies en geen bs erop :) Weet alleen niet of die chipset interessant is, icm non-Xeon.

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!

  • Shamalamadindon
  • Registratie: Juni 2009
  • Laatst online: 30-03-2024
naaitsab schreef op maandag 08 februari 2016 @ 21:13:
Daar en ESXi heb ik ook al naar gekeken maar dat is nogal picky voor de RAID hardware
ESXi durf ik niet te zeggen maar Unraid heeft gewoon support voor de meeste gangbare (en betaalbare) kaarten. Let wel, raid functionaliteit is dus niet nodig met Unraid, er zit software raid ingebouwd.

Wanneer heb je het laatst je wachtwoord verandert? Er word op T.net de laatste tijd regelmatig misbruikt gemaakt van accounts met gelekte wachtwoorden om andere gebruikers op te lichten. Verander je wachtwoord, geef oplichters geen kans!


Acties:
  • 0 Henk 'm!

  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 31-08 10:48
Weet iemand nog een betaalbare controller met minimaal 4 poort Mini-SAS HD SFF-8643 voor het aansturen van 16 interne disken. SAS of SATA maakt niet zoveel uit, zolang de kaart maar downspin ondersteunt. Zal worden gebruikt voor ZFS array onder FreeNAS.

Areca ARC-1320IX-16
LSI SAS 9201-16i
LSI SAS 9300-16i

Alternatief is een 2 poort kaart met een losse expander.

LSI SAS3081E-R-SGL

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 24-09 14:15
Zware Unit schreef op dinsdag 09 februari 2016 @ 14:19:
Weet iemand nog een betaalbare controller met minimaal 4 poort Mini-SAS HD SFF-8643 voor het aansturen van 16 interne disken.
Een ander alternatief is gewoon twee kaartjes te nemen, zeker als je voor ZFS gaat is dat de veel goedkopere oplossing.

En er zijn ook genoeg kaartjes die teaming ondersteunen.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
naaitsab schreef op maandag 08 februari 2016 @ 21:13:
[...]

Daar en ESXi heb ik ook al naar gekeken maar dat is nogal picky voor de RAID hardware lees ik her en der, Intel RAID valt bij ESXi sowieso al af. Ik weet ook niet of ik het wil virtualiseren, alles in 1 systeem is ook wel handig te managen.
Wat je zou kunnen doen is ESXi zonder raid te draaien vanaf een klein OS diskje. Je NAS draai je dan virtueel (maar mbv vt-d je sata/sas controller aan deze VM toekennen zodat die maximale diskperformance heeft). Je server(s) draai je dan daarnaast als VM's. Dit geeft je de mogelijkheid wel een NAS distro te kiezen (en dan kun je dus ook een BSD/opensolaris/Linux ZFS distro pakken, met alle voordelen van ZFS waar IMHO geen hardware-raid aan kan tippen, je wilde immers iets wat veilig en stabiel is)

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 31-08 10:48
player-x schreef op dinsdag 09 februari 2016 @ 14:27:
[...]

Een ander alternatief is gewoon twee kaartjes te nemen, zeker als je voor ZFS gaat is dat de veel goedkopere oplossing.

En er zijn ook genoeg kaartjes die teaming ondersteunen.
Kan slechts een PCI-E kaart kwijt, maar goede tip.

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


Acties:
  • 0 Henk 'm!
Al eens gekeken naar die kaartjes met ingebouwde port multipliers?
IOCREST heeft er 1.

Deze: http://www.sybausa.com/in...h=64_77_85&product_id=722

DealExtreme heeft ze verkocht: http://www.dx.com/p/iocre...green-384912#.VrnvC9JIjmg

Maar zijn nu "Sold Out", maar dat geeft je wel een idee over de prijs.

In theorie is het een Marvell AHCI controller met 4 poorten en 4 port multipliers van 4 poorten, dus in totaal 16 poorten.

Marvell AHCI controllers zijn volgens mij redelijk supported onder FreeBSD, maar pin me er niet op vast.

[ Voor 33% gewijzigd door FireDrunk op 09-02-2016 14:52 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:10
naaitsab schreef op maandag 08 februari 2016 @ 21:13:
[...]

RAID6 kom ik qua controllers helemaal bar weinig tegen, dat gaat al snel richting de 400+ zie ik :/
Tja, is RAID6 met storage pools tegenwoordig zo slecht dan? Storage pools op 2012 R2 was een verbetering meen ik.
Als ik voor een dergelijke mini-server instelling zou gaan zou ik hiervoor kiezen:
pricewatch: Asus P10S-I met 1x 16GB ECC RAM en de i3-6100 (non-T)
De goedkoopste Xeon S1151 is 230 euro, dat is dan gelijk weer een machine van boven de 1000,- Niet helemaal wat ik zoek. Al is dat bordje wel interessant, gemaakt voor 24/7 met management functies en geen bs erop :) Weet alleen niet of die chipset interessant is, icm non-Xeon.
Voor ECC hoef je helemaal niet een Xeon te nemen, een pentium of i3 werkt ook.

Hier wat CPUs en borden.

https://docs.google.com/s...DbELHkrg/edit?usp=sharing

Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 06:55
Leo1010 schreef op maandag 08 februari 2016 @ 21:42:
[...]


ESXi durf ik niet te zeggen maar Unraid heeft gewoon support voor de meeste gangbare (en betaalbare) kaarten. Let wel, raid functionaliteit is dus niet nodig met Unraid, er zit software raid ingebouwd.
ESXi is gratis en denk ik wat volwassener dan Unraid, enige is dat ik dan met een softraid moet werken. Of een extra controller, als het even kan zou ik dat geld liever in meer storage steken.
u_nix_we_all schreef op dinsdag 09 februari 2016 @ 14:28:
[...]


Wat je zou kunnen doen is ESXi zonder raid te draaien vanaf een klein OS diskje. Je NAS draai je dan virtueel (maar mbv vt-d je sata/sas controller aan deze VM toekennen zodat die maximale diskperformance heeft). Je server(s) draai je dan daarnaast als VM's. Dit geeft je de mogelijkheid wel een NAS distro te kiezen (en dan kun je dus ook een BSD/opensolaris/Linux ZFS distro pakken, met alle voordelen van ZFS waar IMHO geen hardware-raid aan kan tippen, je wilde immers iets wat veilig en stabiel is)
Software RAID/ZFS heb ik geen ervaring mee, Linux ben ik ook helemaal niet in thuis dus dat laat ik liever achterwege. Wat ik wel zou kunnen doen is 4 schijven aan de SATA controller van het mobo hangen, daar ESXi op draaien vanaf een klein 32GB M2 SSD'tje. Daarna 1 Server 2012R2 VM maken. Dat zou toch ook moeten werken? Weet alleen niet hoe dat performance en redundancy issues gaat geven. Mij is namelijk altijd verteld dat er op die 2 vlakken niks kan tippen aan een knappe hardware RAID oplossing :P
Q schreef op dinsdag 09 februari 2016 @ 15:30:
[...]


Tja, is RAID6 met storage pools tegenwoordig zo slecht dan? Storage pools op 2012 R2 was een verbetering meen ik.
Eerlijk gezegd nooit gewerkt met Storage Spaces in 2012(R2) omdat alle mainstream en high-end servers tegenwoordig met knappe RAID kaarten komen. Dus hoe en of dat een beetje werkt kan ik je niet zeggen. Als dat op hetzelfde niveau draait/presteert als ESXi zou dat wel mooier zijn, scheelt weer een software 'laag'.
Voor ECC hoef je helemaal niet een Xeon te nemen, een pentium of i3 werkt ook.

Hier wat CPUs en borden.

https://docs.google.com/s...DbELHkrg/edit?usp=sharing
Klopt, echter als ik voor een echte mini-server setup zou gaan dan zou ik toch ook een Xeon pakken. Maar zoals gezegd dat schiet snel richting de 800+ euro. Zit een beetje aan max 500 te denken.

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!

  • Shamalamadindon
  • Registratie: Juni 2009
  • Laatst online: 30-03-2024
Q schreef op dinsdag 09 februari 2016 @ 15:30:
Tja, is RAID6 met storage pools tegenwoordig zo slecht dan? Storage pools op 2012 R2 was een verbetering meen ik.
R2 nooit gebruikt denk ik maar van wat ik er aan ervaring mee heb is het een draak. Ondoorzichtig en niet flexibel.

Wanneer heb je het laatst je wachtwoord verandert? Er word op T.net de laatste tijd regelmatig misbruikt gemaakt van accounts met gelekte wachtwoorden om andere gebruikers op te lichten. Verander je wachtwoord, geef oplichters geen kans!


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 24-09 14:15
Zware Unit schreef op dinsdag 09 februari 2016 @ 14:46:
Kan slechts een PCI-E kaart kwijt, maar goede tip.
Is het niet goedkoper om een ander (tweedehands) moederbordje te nemen met twee keer PCIe, dan een duurdere 16 poort controller?

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


  • Trishul
  • Registratie: December 2008
  • Laatst online: 00:35
Ik heb inmiddels bijna alles binnen, behalve de harde schijven, 3x 4TB. Ik wilde de 4TB WD Green's bestellen bij coolblue vanwege hun service, maar ze hebben deze momenteel niet op voorraad. Ze hebben wel de WD Blue 4TB voor €155,00 (iets goedkoper dus dan de Green..) is dit een goed alternatief?

  • Habana
  • Registratie: Oktober 2005
  • Laatst online: 22:56
Als ik het wel heb gaan de Greens toch door het leven als Blue tegenwoordig, lijkt me dus geen probleem.

  • Trishul
  • Registratie: December 2008
  • Laatst online: 00:35
Hm ok, denk dat ik dan gewoon voor 3x de 4TB wd blue ga. Ik zat ook te denken, ik heb hier een reeks 2.5" harde schijven liggen met diverse groottes (750, 500, 160 en 2x 80 GB) volgens mij is het wel verstandig om zo'n 2.5" hdd in te zetten als dedicated download schijf, zodat de raidz pool met 3x 4TB vaker kan gaan slapen?

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 06:55
Trishul schreef op donderdag 11 februari 2016 @ 20:56:
Hm ok, denk dat ik dan gewoon voor 3x de 4TB wd blue ga. Ik zat ook te denken, ik heb hier een reeks 2.5" harde schijven liggen met diverse groottes (750, 500, 160 en 2x 80 GB) volgens mij is het wel verstandig om zo'n 2.5" hdd in te zetten als dedicated download schijf, zodat de raidz pool met 3x 4TB vaker kan gaan slapen?
Waarom Blue en Green? Dat zijn pure desktop schijven waarbij de Green ook nog een nadruk heeft op zuinigheid en stilte. Voor een NAS/server zou ik toch echt richting Red of Purple kijken. Die zijn helemaal ontwikkeld voor 24/7 gebruik en hebben meer tolerantie voor resonantie (bij veel schijven). Als je ook wat performance zoekt is een Red Pro een zeer goeie keus.

2.5" HDD zijn laptop schijven (of SAS server disken :+), die zijn al helemaal niet ontwikkeld voor 24/7 gebruik. Daar zou ik bij weg blijven.

if (!coffee) {
Work = false; }


Acties:
  • +2 Henk 'm!

Verwijderd

Dat is wat de fabrikant je graag wilt laten geloven, naaisab, maar Green en Red zijn fysiek dezelfde schijven afgezien van een kleine vibratiesensor wat niet zoveel invloed heeft mits je een stevige metalen behuizing hebt die vibraties opvangt. Alleen de Enterprise schijven hebben echt goede vibratiesensoren en die zijn geschikt voor heel veel schijven in een groot rek waarbij de schijven dicht op elkaar zitten, zoals bij een Norco behuizing.

Alle hardeschijven zijn geschikt voor 24/7; het is juist andersom dat Enterprise schijven niet geschikt zijn voor alles behalve 24/7 gebruik; die mogen niet als een desktop schijf worden gebruikt omdat ze maar zeer beperkt start/stop-cycli hebben gespecificeerd. Dat normale desktopschijven niet 24/7 mogen draaien, is een fabeltje. Vrijwel alle mechanische techniek verkeert het liefst in een situatie waarbij alle invloeden gelijk blijven; temperatuur, vochtigheid, vibraties, oriëntatie, gebruikspatroon, enzovoorts. Hardeschijven zijn geen uitzondering. Dat geldt evengoed voor 2,5" disks.

Wel is het zo dat WD Green schijven standaard een vrij agressieve headparking timer hebben, waardoor bij regelmatige I/O activiteit het aantal headparks de maximale gespecificeerde 300.000 cycles kan overschrijden. Om die reden wordt aanbevolen de utility WDIDLE3.EXE te gebruiken om de timer aan te passen, tussen 100 en 200 seconden bij voorkeur.

WD Purple is helemaal geen aanrader. Dit zijn speciale schijven waarbij de error recovery geheel is uitgeschakeld. Dit type schijven gebruik je voor toepassingen waarbij er data verloren gaat als de hardeschijf meer dan een aantal milliseconden geen data kan verwerken, zoals bij video capturing of beveiligingscamera's. De hardeschijf zal slechte sectoren niet proberen te recoveren maar stuurt direct een I/O error terug (TLER=0) en de data op een dergelijke schijf kan als minder belangrijk worden beschouwd. Het netwerkequivalent van dit type schijven is UDP - wat ook voor tijdsgevoelige toepassingen wordt gebruikt zoals videostreaming. Kan de data niet op tijd worden geleverd, dan is die niet relevant meer. Ongeveer hetzelfde principe geldt voor de WD Purple schijven. Die gebruik je dus niet in een NAS voor reguliere toepassingen.

WD Red Pro zijn fysiek andere schijven en draaien ook op 7200rpm ipv 5400rpm klasse. Dat zou nog wel een overweging kunnen zijn. Maar voor massaopslag wil je juist het aantal rpm zo laag mogelijk houden. 5400rpm is eigenlijk al teveel. Je wilt liever nóg hogere datadichtheid en nóg lagere rpm. Schijven met hoge rpm zijn min of meer overbodig geworden door SSDs - die qua IOps performance ook de 15.000rpm hardeschijven met groot gemak voorbij scheuren qua prestaties. Hardeschijven vandaag de dag gebruik je voor massaopslag, niet voor random access zoals vroeger helaas ook moest omdat solid state storage nog onbetaalbaar was. Nu leven we in een ander tijdperk.

Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 06:55
Ik heb genoeg consumenten schijven in server omgevingen zeer snel defect zien gaan. Zowel WD als Seagate. Sinds we enkel Red Pro en Seagate Constellation verkopen op advies van HP-E zijn de storingsvrije periodes gigantisch toegenomen. Dan heb ik het even over platformen waar 15k 2.5" SAS te duur is voor de klant. Denk aan backupopslag en medium servers. De normale RED is voornamelijk een Blue met een firmware die deze wat beter geschikt maakt voor NAS gebruik, true. Maar ik wil mijn hand in het vuur steken dat een Red Pro en Constalation het veel langer uithoud dan een standaard consumenten schijf in een setup met 4+ schijven en 24/7. Op basis van ervaring met meer servers dan ik vingers en tenen heb en allen minimaal 4 disken per server.

We hebben het hier toch over NAS'en? Dus dat ze geschikt voornamelijk zijn voor 24/7 gebruik en niet happy zijn met desktop gebruik lijkt me toch logisch? Dat kan ik dus ook geen nadeel noemen. ;)

Purple is inderdaad een aparte disk, maar heb geen idee waar het voor gebruikt gaat worden Dat kan hij zelf bepalen of het interessant is voor zijn rig :P

SSD's zijn voor mass storage nog steeds veel en veel te duur per GB. Dus dat HDD's enkel voor mass storage zinnig zouden zijn ben ik absoluut niet met je eens. Ik heb graag wat meer performance van mijn storage ten koste van wat stroomgebruik, daar ben ik zeker niet de enige in. De opslag, op de nieuwe 8TB modellen na is ook gelijk bij Red Pro dus dat is ook geen argument. Zo lang een 1TB SSD nog steeds duurder is als een 6TB HDD is dat nog totaal niet interessant voor opslag voor de thuisgebruiker, sowieso is voor de standaard NAS-gebruiker het helemaal niet boeiend. Enige voordeel is zuinigheid en stilte, de meeste consumenten NASsen die ik zie staan zijn 2-bay met een I/O performance van lik me vessie.

Als we het over aggressive head-parking hebben is mijn 4TB Black en oude ST3 Seagate Barracuda 3TB wel een mooi voorbeeld, gaat als de bliksem maar wel een bak herrie :D

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!
Op zich leuk dat jij jouw ervaring hanteert voor jou keuzes, ik ben het nog steeds eens met CiPHER. Ervaring leert ons dat jouw situatie maar in beperkte mate voor komt. (Lees dit niet als een aanval, maar meer als een constatering).

Er zijn legio studies, en honderdduizend verschillende ervaringen. Dus je moet vooral je eigen plan trekken.
Maar staar je niet blind op je eigen ervaring. Soms heb je geluk gehad in het verleden, en is je mening gekleurd, en dat kan juist voor een nieuwe aanschaf zonde en/of zelfs gevaarlijk zijn.

Ik zou zeggen, als je echt bang bent voor uitval, zorg er voor dat je een goede backup hebt, en zorg dat je hardware (buiten de harde schijven) ook robuust is. Dus denk aan, vibratie arm, goede koeling. goede bekabeling etc.

Of je dan voor Green, Blue, Red kiest is niet meer zo boeiend. Kies iig niet voor Purple, want dat is absoluut niet bedoelt voor belangrijke data, die zijn bedoeld voor continuïteit boven kwaliteit.

[ Voor 16% gewijzigd door FireDrunk op 12-02-2016 09:19 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 24-09 14:15
naaitsab schreef op vrijdag 12 februari 2016 @ 07:36:
We hebben het hier toch over NAS'en? Dus dat ze geschikt voornamelijk zijn voor 24/7 gebruik.
Mee eens voor Pro gebruik, totaal oneens voor thuis gebruik.

Maar als je een DIY NAS hebt gebruik je hem voornamelijk thuis, met een heel ander gebruikspatroon, daarnaast, als je je nog eens je HS nog eens slim bouwt en gebruikt, kan je de makkelijk voorkomen dat je je HDDs 24/7 aan het werk moet/hoeven zijn.

Als je een aparte DL en OS of gecombineerde schijf gebruikt, en daar ook je nieuwe DL van bekijkt, staat je array niet 24/7 te ratelen.

Zelf heb ik:

C:\ OS: SSD.
D:\ Tijdelijke schijf: 1TB 2.5'' HDD. (Gebruik ik voor torrent's en nieuws groepen tijdelijke DL)
E:\ Uitpak schijf: 1TB 2.5'' HDD. (Gebruik ik voor het uitpaken van torrent's en nieuws groepen, en de schijf waar ik het meeste nieuwe DL's van af bekijk, voor dat wat ik wil bewaren archiveer)
F:\ Archief schijven: 10x 8TB Archive BtrFS.(voor permanente opslag van A/V en data)
G:\ Backup belangrijke data: 2x 4TB HGST Ultrastar. (prive data zoals documenten en foto/video's)
H:\ Muziek schijf: 4TB Green. (voor het streamen van mijn muziek files naar HTPCs en audio spelers))

I:\ Netwerk schijf voor offline backup op aparte server van belangrijke data.
J:\ Offsite backup van belangrijke data.


Als je je server op deze manier opbouw kan je de uptime van je array makkelijk terug brengen met meestal meer dan 90% van de uptime schat ik zo in.

Schijven C, D en F kunnen trouwens ook gecombineerd worden op een of twee schijven, als op een dergelijke manier je server bouwen, en kan je gevaar van het gebruik van goedkope consumeren HDDs behoorlijk terug brengen.

Daarnaast als je op deze manier je array gebruikt heb je veel minder fragmentatie van je data op je array.

In een Pro omgeving zou je een dergelijke setup niet gouw gebruiken, maar thuis gebruikers hebben een hele andere gebruikspatroon, en zijn consumenten schijven gewoon een prima optie, mits je imho je ze niet 24/7 laat draaien.

[ Voor 7% gewijzigd door player-x op 26-02-2016 10:10 ]

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

Verwijderd

naaitsab schreef op vrijdag 12 februari 2016 @ 07:36:
Ik heb genoeg consumenten schijven in server omgevingen zeer snel defect zien gaan.
'Defect' is een term die voor de één heel anders wordt uitgelegd dan de ander. Voor sommigen is een hardeschijf defect terwijl hij prima binnen de opgegeven specificaties functioneert, bijvoorbeeld als deze uBER bad sectors heeft - wat keurig wordt opgegeven door de fabrikant. Consumentenschijven krijgen 10^-14 uBER specificatie opgegeven en als een schijf binnen die specificaties functioneert, betekent dit dat er af en toe onleesbare sectoren ontstaan.

Dit zijn overigens geen beschadigde sectoren die omgewisseld worden voor reservesectoren; het zijn onleesbare sectoren omdat er te weinig errorcorrectie (ECC) aanwezig is om de data foutloos uit te lezen. Dit komt tegenwoordig steeds vaker voor omdat de datadichtheid stijgt en daarmee in absolute aantallen er meer onleesbare sectoren voorkomen. Vandaag de dag zijn 90% van alle 'bad sectors' in feite uBER onleesbare sectoren, terwijl dit vroeger omgedraaid was en 90%+ van alle bad sectors ook fysiek beschadigd waren.

Bovenstaande is ook de reden voor artikelen van Robin Harris, zoals "Why RAID5 stops working in 2009".

Het antwoord van de enterprisemarkt is: meer geld ertegenaan smijten. Dus duurdere schijven die uBER 10^-16 hebben gespecificeerd en dus volgens de specs tot factor 100 keer minder bad sectors aanmaken als gevolg van onvoldoende errorcorrectie. Hierdoor blijven legacy RAID arrays intact en worden schijven met een kleine onleesbare sector niet uit de array gesmeten. Dat is namelijk waardoor velen denken dat een schijf defect is: de RAID controller zegt immers dat disk X gefaald is. Maar het enige dat faalt is de legacy RAID controller zelf - dergelijke opslag is niet meer van deze tijd.

Moderne opslag van de 3e generatie, zoals ZFS, kan probleemloos disks met bad sectors gebruiken en lost het probleem op zonder interventie van de administrator. Dus je hebt kortweg twee opties: of heel veel geld uitgeven aan dure hardware zodat je ouderwetse software kunt blijven gebruiken (de "domme" route) of moderne software gebruiken zodat je goedkope hardware probleemloos kunt inzetten - de "slimme" route. ZFS is dus die laatste weg.

Uiteraard willen grote vendors dat je veel geld uitgeeft aan legacy storage; dat is in hun belang. Maar dat hoeft niet persé jouw belang te zijn. Dus.. nooit te laat om moderne opslag te overwegen en legacy storage vaarwel te zeggen!
De normale RED is voornamelijk een Blue met een firmware die deze wat beter geschikt maakt voor NAS gebruik
Je doelt op de TLER feature. Dat is in feite een hack/workaround voor lage kwaliteit RAID implementaties die een disk die 10+ seconden niet reageert gelijk als gefaald aanmerkt. Dat is de reden dat dergelijke RAID oplossingen zo gevoelig zijn voor bad sectors, iets wat dus steeds meer voorkomt. TLER feature zorgt ervoor dat de disk na 7 seconden opgeeft en de sector gewoon lekker onleesbaar houdt en een I/O error terugstuurt. Moderne opslagtechnologie zoals software RAID onder Linux/BSD en ZFS/Btrfs/ReFS heeft hier natuurlijk geen last van.

TLER is ook gevaarlijk in bepaalde situaties; je schakelt in feite je laatste beschermingsmechanisme uit. Heb je een degraded RAID5 dan is de recovery van de hardeschijf zelf de laatste mogelijkheid om de data terug te krijgen. Met TLER draai je die mogelijkheid de nek om. Het is dus zeker niet een gewenste feature en zelfs ongewenst als je een moderne oplossing zoals ZFS gebruikt.
Maar ik wil mijn hand in het vuur steken dat een Red Pro en Constalation het veel langer uithoud dan een standaard consumenten schijf in een setup met 4+ schijven en 24/7.
Dan hoop ik dat je handen van staal zijn, want mijn logica zegt dat een hogere rpm ook een hogere wear&tear en dus potentieel lagere betrouwbaarheid/duurzaamheid betekent.
Op basis van ervaring met meer servers dan ik vingers en tenen heb en allen minimaal 4 disken per server.
Nog steeds zeer irrelevant voor statistisch relevante conclusies. BackBlaze heeft veel meer schijven getest dan jij en je kunt in hun onderzoeken zien hoe erg de cijfers schommelen. Wil je echt een statistisch relevante conclusie trekken dan moet je echt heel veel werk verzetten en moet het om veel meer samples gaan.
We hebben het hier toch over NAS'en? Dus dat ze geschikt voornamelijk zijn voor 24/7 gebruik en niet happy zijn met desktop gebruik lijkt me toch logisch? Dat kan ik dus ook geen nadeel noemen. ;)
Je impliceerde dat een desktopschijf zoals Green niet geschikt voor 24/7 zou zijn.
SSD's zijn voor mass storage nog steeds veel en veel te duur per GB. Dus dat HDD's enkel voor mass storage zinnig zouden zijn ben ik absoluut niet met je eens.
Mijn punt is natuurlijk dat je SSD voor random access gebruikt en dat betekent dat je HDDs alleen nog voor mass storage - massaopslag - nodig hebt. Dus de RPM en IOps performance van hardeschijven is daardoor irrelevant en dat betekent dat je liefst de rpm zo laag mogelijk hebt en de datadichtheid zo hoog mogelijk.
Ik heb graag wat meer performance van mijn storage ten koste van wat stroomgebruik
Het leuke is dat 5400rpm is sommige gevallen nog sneller is dan een 15.000rpm disk. Dat heeft alles met datadichtheid te maken. De consument denkt: hoe hoger het getal des te sneller/beter. Maar dat ligt dus net iets gecompliceerder. Voor massaopslag heb je liever dat je disk op een laag toerental draait en er tijdens elke omwenteling heel veel data onder de leeskop komt. 4200rpm met een nog veel hogere datadichtheid zou dus ideaal zijn.

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 24-09 14:15
Verwijderd schreef op vrijdag 12 februari 2016 @ 10:00:
4200rpm met een nog veel hogere datadichtheid zou dus ideaal zijn.
Gedeeltelijk mee eens, want dat zou ook beteken dat de eilandjes van je bit's op je HDD weer kleiner worden, en je er dus weer een groter gevaar ontstaat van omvallende/onleesbare bit's op je schijf denk ik zo.

Staat tegen over dat de kop wel 20% meer tijd heeft om het eilandje beter te magnetiseren, maar of dat echt veel helpt weet ik niet.

Persoonlijk ben ik best een voorstander van langzamere schijven, maar voornamelijk om de betrouwbaarheids en energie besparings voordelen, die ik denk dat je zo hebt.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

Verwijderd

Hogere datadichtheid met gelijkblijvende ECC betekent dat je uBER over meer data uitsmeert; in absolute aantallen dus méér onleesbare sectoren door onvoldoende errorcorrectie. Dat gebeurt al decennia en is de reden voor artikelen als "Why RAID5 stops working in 2009".

Maar dit hoeft niet persé. Hardeschijven kunnen simpelweg meer bits reserveren voor errorcorrectie. Mijn eigen ideale schijf zou 4200rpm hebben met zéér hoge datadichtheid en dus veel bitfouten, maar wel veel meer ECC. Door veel grotere sectoren te gebruiken van 64K groot, kun je efficienter omgaan met ECC correctie en heb je minder nodig om hetzelfde effect te bereiken.

Voorts gebruik je natuurlijk een modern opslagsysteem zoals ECC waardoor onleesbare sectoren sowieso geen probleem meer zijn in een redundante configuratie. Metadata wordt sowieso al redundant opgeslagen ook op een enkele disk.

4200rpm is dus niet langzaam; het kan juist véél sneller zijn. Het zal waarschijnlijk ook makkelijker zijn om een schijf te produceren met zeer hoge datadichtheid maar wel laag toerental, dan dat de schijf op een hoog toerental draait. Ik vermoed alleen dat de hardnekkige gedachte van consumenten dat aantal rpm zo hoog mogelijk moet zijn, roet in het eten gooit. Want laten we wel zijn, de 'Green' schijven met IntelliPower is ook een manier om niet te hoeven zeggen dat het 5400rpm schijven zijn. WD was daar in het begin zo vaag over, dat velen dachten en sommigen nog steeds denken dat het ging om schijven die dynamisch konden schakelen tussen 5400rpm en 7200rpm in, zoals moderne processors met Turbo Core dat ook kunnen. Dergelijke schijven bestaan echter niet.

Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 06:55
FireDrunk schreef op vrijdag 12 februari 2016 @ 09:14:
Op zich leuk dat jij jouw ervaring hanteert voor jou keuzes, ik ben het nog steeds eens met CiPHER. Ervaring leert ons dat jouw situatie maar in beperkte mate voor komt. (Lees dit niet als een aanval, maar meer als een constatering).
Waar doel je precies op? Er worden verschillende aannames gedaan.
Er zijn legio studies, en honderdduizend verschillende ervaringen. Dus je moet vooral je eigen plan trekken.
Maar staar je niet blind op je eigen ervaring. Soms heb je geluk gehad in het verleden, en is je mening gekleurd, en dat kan juist voor een nieuwe aanschaf zonde en/of zelfs gevaarlijk zijn.
Ik zie graag een wetenschappelijke studie/onderzoek waar aangetoond wordt dat consumentenschijven in een disk-enclosure en bij 24.7 gebruik net zo goed zijn als daarvoor ontwikkelde schijven, dat heb ik namelijk nooit gezien en heb ik wel interesse in. Zo lang dat er niet is schat ik mijn ervaring hoger in dan een aanname op basis van gokwerk. Hoe andere dat opnemen is hun goed recht, het is puur een advies geen verplichting :)
Ik zou zeggen, als je echt bang bent voor uitval, zorg er voor dat je een goede backup hebt, en zorg dat je hardware (buiten de harde schijven) ook robuust is. Dus denk aan, vibratie arm, goede koeling. goede bekabeling etc.
De keuze voor je disk is net zo belangrijk als de keuze voor je overige hardware. Boeit prestatie je weinig of zit je aan een budget moet je daar je keuze ook op afstemmen. Is betrouwbaarheid, prestatie en/of garantie je belangrijker dan zit je snel aan Red Pro of Black te denken (of tegenhangers van andere merken ofc).
Of je dan voor Green, Blue, Red kiest is niet meer zo boeiend. Kies iig niet voor Purple, want dat is absoluut niet bedoelt voor belangrijke data, die zijn bedoeld voor continuïteit boven kwaliteit.
Wederom, kies de schijf die aansluit bij je wensen en (financiële) mogelijkheden. Green zou ik sowieso vanaf blijven, wel of geen NAS. Qua hardware is een Red nagenoeg gelijk aan de Blue, verschil zit hem in de firmware.
player-x schreef op vrijdag 12 februari 2016 @ 09:48:
[...]

Mee eens voor Pro gebruik, totaal oneens voor thuis gebruik.

Maar als je een DIY NAS hebt gebruik je hem voornamelijk thuis, met een heel ander gebruikspatroon, daarnaast, als je je nog eens je HS nog eens slim bouwt en gebruikt, kan je de makkelijk voorkomen dat je je HDDs 24/7 aan het werk moet/hoeven zijn.

Als je een aparte DL en OS of gecombineerde schijf gebruikt, en daar ook je nieuwe DL van bekijkt, staat je array niet 24/7 te ratelen.
Wat jij beschrijft is een meer te omschrijven als storrage vault, een NAS is vaak bedoeld voor 24/7 gebruik. Dat het niet bij iedereen zo is mag voorzich speken. Echter is dat wel een uitgangspunt voor een 'standaard' NAS.
In een Pro omgeving zou je een dergelijke setup niet gouw gebruiken, maar thuis gebruikers hebben een hele andere gebruikspatroon, en zijn consumenten schijven gewoon een prima optie, mits je imho je ze niet 24/7 laat draaien.
De keus is wederom afhankelijk wat je doel is :) Een Vault die je af en toe inschakelt heeft inderdaad 0,0 profijt van een NAS disk. Hooguit de 5 jaar garantie tov 3 jaar.

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!
Volgens mij zitten we redelijk op 1 lijn, alleen hecht jij veel waarde aan wat de fabrikant opgeeft als een betere schijf (let op: speculatieve mening, absoluut geen aanval).

Mijn ervaring is juist, dat consumenten schijven in combinatie met een goed 3e generatie filesystem (ZFS, BTRFS, ReFS, of misschien wel HammerFS :P ), een net zo hoge (of zelfs hogere) effectieve betrouwbaarheid geven als enterprise schijven met een gewoon filesystem.

Het gebruik van ZFS en BTRFS verandert dus mijn keuze in dit geval.

Even niets...


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 24-09 14:15
naaitsab schreef op vrijdag 12 februari 2016 @ 10:41:
Wat jij beschrijft is een meer te omschrijven als storrage vault, een NAS is vaak bedoeld voor 24/7 gebruik. Dat het niet bij iedereen zo is mag voorzich speken. Echter is dat wel een uitgangspunt voor een 'standaard' NAS.
De over grote meerderheid van bouwers van DIY NASen hier, zijn wat ik zo zie, mensen die voornamelijk hun video's, muziek en back-up's centraal willen opslaan, en hun NAS is eigenlijk meer een home server.

Dat er ook (semi) Pro gebruikers zijn die hun NAS wel zwaarder gebruiken, zullen hun systeem anders bouwen, en meer in de richting van Pro hardware gaan, en hier ook andere adviezen krijgen.

Maar net als voor PCs, er zijn ontzettend veel verschillende gebruikersmodellen, en daarom zijn er ook zoveel verschillende PCs, voor de een is een SoC voldoende voor wat office en browsen, voor de ander 8 core Quad-SLI model, voor High-End gaming, het zelfde geld voor NASen, er bestaat gewoon geen 'One size fits all' model/filosofie.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:10
Ik denk dat je best een profiel of drie kunt definieren waarmee je 99.9% van de gebruikers hier afvangt eigenlijk. Je zou best een standard build van 3-5 systemen als algemeen advies - soort nas buyersguide - neer kunnen zetten.

Acties:
  • 0 Henk 'm!

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 06:55
Verwijderd schreef op vrijdag 12 februari 2016 @ 10:00:
[...]

'Defect' is een term die voor de één heel anders wordt uitgelegd dan de ander. Voor sommigen is een hardeschijf defect terwijl hij prima binnen de opgegeven specificaties functioneert, bijvoorbeeld als deze uBER bad sectors heeft - wat keurig wordt opgegeven door de fabrikant. Consumentenschijven krijgen 10^-14 uBER specificatie opgegeven en als een schijf binnen die specificaties functioneert, betekent dit dat er af en toe onleesbare sectoren ontstaan.
Defect valt inderdaad te zien in ruwweg 3 categorieren. Niet (optimaal functionerend), pending (SMART problemen en performance degradatie) en niet bruikbaar (defect).

Wij zullen meer te maken hebben met de 1e en de 3e. Echter als je een enterprise omgeving denkt kan performance degradatie killing zijn. Denk aan databases.
Uiteraard willen grote vendors dat je veel geld uitgeeft aan legacy storage; dat is in hun belang. Maar dat hoeft niet persé jouw belang te zijn. Dus.. nooit te laat om moderne opslag te overwegen en legacy storage vaarwel te zeggen!
Dat ze je zo veel mogelijk proberen af te troggelen is een gegeven :+ Maar hoezo legacy? Een HDD is geen SSD, dat heeft niet zo zeer te maken met legacy en modern maar een andere vorm van opslag. IDE en S-ATA dat is meer legacy vs modern. Zo lang de kosten per GB nog steeds ver achter liggen is dat qua opslag nog niet echt een to-go stap. Hoe graag ik ook een SSD array wil hebben, dat is kostentechnisch nog niet interessant. 8x 1TB SSD of 8x 6TB HDD is nog niet in vergelijking met elkaar. Dan denk ik puur aan opslag, de snelheidswinst van SSD's mag duidelijk zijn.

Draai je een systeem waarbij random reads zeer belangrijk is, met name databases dan is flash voor cashing of zelf een hele flash array wel een uitkomst. Echter voor thuisgebruik kostentechnisch verre van interessant als je redelijk wat data hebt. Zullen weinig mensen zijn die een bliksemsnelle database moeten draaien thuis.
Je doelt op de TLER feature. Dat is in feite een hack/workaround voor lage kwaliteit RAID implementaties die een disk die 10+ seconden niet reageert gelijk als gefaald aanmerkt. Dat is de reden dat dergelijke RAID oplossingen zo gevoelig zijn voor bad sectors, iets wat dus steeds meer voorkomt. TLER feature zorgt ervoor dat de disk na 7 seconden opgeeft en de sector gewoon lekker onleesbaar houdt en een I/O error terugstuurt. Moderne opslagtechnologie zoals software RAID onder Linux/BSD en ZFS/Btrfs/ReFS heeft hier natuurlijk geen last van.

TLER is ook gevaarlijk in bepaalde situaties; je schakelt in feite je laatste beschermingsmechanisme uit. Heb je een degraded RAID5 dan is de recovery van de hardeschijf zelf de laatste mogelijkheid om de data terug te krijgen. Met TLER draai je die mogelijkheid de nek om. Het is dus zeker niet een gewenste feature en zelfs ongewenst als je een moderne oplossing zoals ZFS gebruikt.
Daarom heeft WD ook verschillende klasses, elk met hun voor- en nadelen en hun valkuilen.
Er is geen disk die voor _alle_ usecasses geschikt is. Echter kies een schijf die aansluit bij je wensen en eisen.
Dan hoop ik dat je handen van staal zijn, want mijn logica zegt dat een hogere rpm ook een hogere wear&tear en dus potentieel lagere betrouwbaarheid/duurzaamheid betekent.
Als het dezelfde componenten betreft. De aandrijfas van een polo zal van een stuk mindere kwaliteit zijn als van een Aston Martin met 500PK. Het feit is dat 7200+ meer slijtage ondervind ik daar echter als de hardware daar ook op afgestemd is dan laat ik de waarde daarvan in het midden.
Nog steeds zeer irrelevant voor statistisch relevante conclusies. BackBlaze heeft veel meer schijven getest dan jij en je kunt in hun onderzoeken zien hoe erg de cijfers schommelen. Wil je echt een statistisch relevante conclusie trekken dan moet je echt heel veel werk verzetten en moet het om veel meer samples gaan.
Er zijn redelijk wat problemen met die testen van BackBlaze daar is genoeg online van te vinden, beetje jammer dat er geen andere onderzoeken zijn om de resultaten mee te vergelijken. Wetenschappelijk gezien is het daarom wat gevaarlijk om van 1 partij je conclusies te trekken. Net zo gevaarlijk als je eigen ervaring :P
Je impliceerde dat een desktopschijf zoals Green niet geschikt voor 24/7 zou zijn.
Minder geschikt en er zijn betere opties. Wellicht wat te zwart-wit in mijn eerdere aanname.
Mijn punt is natuurlijk dat je SSD voor random access gebruikt en dat betekent dat je HDDs alleen nog voor mass storage - massaopslag - nodig hebt. Dus de RPM en IOps performance van hardeschijven is daardoor irrelevant en dat betekent dat je liefst de rpm zo laag mogelijk hebt en de datadichtheid zo hoog mogelijk.
Het nut van een SSD cache is mij in enterprise opzicht duidelijk, maar voor thuis ook al heb je een 'enthusiast' NAS heeft niet zo gek veel meerwaarde.
Het leuke is dat 5400rpm is sommige gevallen nog sneller is dan een 15.000rpm disk. Dat heeft alles met datadichtheid te maken. De consument denkt: hoe hoger het getal des te sneller/beter. Maar dat ligt dus net iets gecompliceerder. Voor massaopslag heb je liever dat je disk op een laag toerental draait en er tijdens elke omwenteling heel veel data onder de leeskop komt. 4200rpm met een nog veel hogere datadichtheid zou dus ideaal zijn.
Voor archivering is 5400 prima, voor wat meer prestaties kom je bij hogere RPM's toch vaak (dus niet altijd) met hogere datasnelheden en IOPS uit getuige reviews en benchmarks.

Servers hebben daardoor vaak 2.5" met 10k of zelfs 15k. Dat is een hoge dichtheid met hoge snelheden. Echter is dat voor de scope van dit topic niet zo interessant.
FireDrunk schreef op vrijdag 12 februari 2016 @ 10:53:
Volgens mij zitten we redelijk op 1 lijn, alleen hecht jij veel waarde aan wat de fabrikant opgeeft als een betere schijf (let op: speculatieve mening, absoluut geen aanval).

Mijn ervaring is juist, dat consumenten schijven in combinatie met een goed 3e generatie filesystem (ZFS, BTRFS, ReFS, of misschien wel HammerFS :P ), een net zo hoge (of zelfs hogere) effectieve betrouwbaarheid geven als enterprise schijven met een gewoon filesystem.

Het gebruik van ZFS en BTRFS verandert dus mijn keuze in dit geval.
Wel appels met appels vergelijken ;)
player-x schreef op vrijdag 12 februari 2016 @ 11:07:
[...]

De over grote bouwers van DIY NASen hier, zijn wat ik zo zie, mensen die voornamelijk hun video's, muziek en back-up's centraal willen opslaan, en hun NAS is eigenlijk meer een home server.

Dat er ook (semi) Pro gebruikers zijn die hun NAS wel zwaarder gebruiken, zullen hun systeem anders bouwen, en meer in de richting van Pro hardware gaan, en hier ook andere adviezen krijgen.

Maar net als voor PCs, er zijn ontzettend veel verschillende gebruikersmodellen, en daarom zijn er ook zoveel verschillende PCs, voor de een is een SoC voldoende voor wat office en browsen, voor de ander 8 core Quad-SLI model, voor High-End gaming, het zelfde geld voor NASen, er bestaat gewoon geen 'One size fits all' model/filosofie.
Dat is ook wat ik wil overbrengen. Zoals gezegd is er geen enkele schijf perfect voor alle usecases/machines. Echter als je machine 24/7 draait en hoezeer je garantie en prestaties belangrijk vind zijn een aantal punten waarop je de keuze moet maken. Als je daarin niet helemaal zeker bent is een (semi-)pro schijf in mijn ogen standaard de betere keus mits je portefeuille die kleine extra kosten ondersteund. Al is het alleen maar voor de 5 jaar garantie tov 3 of soms zelfs minder en laat je de rest buiten beschouwing. Nogmaals, mijn aanbeveling het is een advies geen moet.

if (!coffee) {
Work = false; }


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-09 18:32
Toen ik 5 jaar geleden bij een bank in een testlab bezig was met nieuwe core routers stond daar al een storage rack met een paar honderd ssd's (hoeveel passen er in een 42 HE rack) en gebundelde 10GE links te draaien als test.
Dus er zijn best welk bedrijven die dat inzetten.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • VorCha
  • Registratie: November 2004
  • Laatst online: 11-06 21:15
jacovn schreef op vrijdag 12 februari 2016 @ 11:50:
Toen ik 5 jaar geleden bij een bank in een testlab bezig was met nieuwe core routers stond daar al een storage rack met een paar honderd ssd's (hoeveel passen er in een 42 HE rack) en gebundelde 10GE links te draaien als test.
Dus er zijn best welk bedrijven die dat inzetten.
_/-\o_ :9 * VorCha 'kwijlt'

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Met gebruik van 2,5" SSD's in hot-swap bays zouden er 500 SSD's in een rack passen (24 stuks past in een 2U chassis, veel efficiënter wordt het geloof ik niet). Wellicht dan iets minder omdat er waarschijnlijk ook nog wel wat netwerkapparatuur tussen moet.

Acties:
  • 0 Henk 'm!

  • FDMK
  • Registratie: Augustus 2004
  • Laatst online: 06:38
Q schreef op vrijdag 12 februari 2016 @ 11:27:
Ik denk dat je best een profiel of drie kunt definieren waarmee je 99.9% van de gebruikers hier afvangt eigenlijk. Je zou best een standard build van 3-5 systemen als algemeen advies - soort nas buyersguide - neer kunnen zetten.
Dat plan was er ooit in dit topic maar is nooit echt van de grond gekomen.

Any job you can do in your pajamas is not the hardest job in the world.


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:10
Rooke schreef op vrijdag 12 februari 2016 @ 12:38:
[...]

Dat plan was er ooit in dit topic maar is nooit echt van de grond gekomen.
:*) :o

Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
dcm360 schreef op vrijdag 12 februari 2016 @ 12:34:
Met gebruik van 2,5" SSD's in hot-swap bays zouden er 500 SSD's in een rack passen (24 stuks past in een 2U chassis, veel efficiënter wordt het geloof ik niet). Wellicht dan iets minder omdat er waarschijnlijk ook nog wel wat netwerkapparatuur tussen moet.
*ahem*

http://www.supermicro.nl/.../2028/SSG-2028R-NR48N.cfm

48 racks, 50 disks per 2U, 1200 disks (waarvan er 48 3.5" en de rest 2.5") per 48U max

moet je wel nog ergens je switch kwijt kunnen.. dus hou het op 1100 met ruimte voor 2 switches.. power kan je langs de zijkant doen.

Acties:
  • 0 Henk 'm!

  • Trishul
  • Registratie: December 2008
  • Laatst online: 00:35
Hm, hanteren jullie niet gewoon andere uitgangspunten? >90% van de mensen hier gebruiken linux softraid of zfs, waarbij vooral die laatste prima uit de voeten kan met green of blue schijven. Naaitsab gaat windows gebruiken met een hardware raid controller, ja dan kun je maar beter enterprise class schijven nemen indien 24/7 gebruik :X

Ik denk dat CiPHER's uitleg duidelijk is waarom zfs prima draait met green of blue schijven. Hardware raid is een ander verhaal, maar waarom in vredesnaam zou je dit thuis willen gebruiken. Het maakt je build alleen maar duurder en complexer lijkt mij. Of je moet echt uitsluitend windows server willen draaien. Maar dan kun je toch een ESXi bak maken met een storage VM met zfs (VT-d) en ernaast een VM met windows server? Of zeg ik nu iets doms? Zou toch weer een hardware raid controller en dure enterprise schijven schelen.

Daarnaast komt het bijna niet voor dat een home NAS 24/7 belast wordt, m.a.w. De array kan vaak gaan slapen. Dus de schijven draaien niet eens 24/7 in een home omgeving, wat betekend dat green of blue schijven onder zfs prima kunnen.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-09 18:32
DXaroth schreef op vrijdag 12 februari 2016 @ 14:57:
[...]


*ahem*

http://www.supermicro.nl/.../2028/SSG-2028R-NR48N.cfm

48 racks, 50 disks per 2U, 1200 disks (waarvan er 48 3.5" en de rest 2.5") per 48U max

moet je wel nog ergens je switch kwijt kunnen.. dus hou het op 1100 met ruimte voor 2 switches.. power kan je langs de zijkant doen.
In mijn vage herinnering zat er ook een dual server in, of althans 2 units waar netwerk kabels naar toe liepen. Dat zal wel 2x 3 of 4 U geweest zijn.
Het waren gewoon veel SSD's, zeker voor 5 jaar terug..

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 22:21
Hey een ZFS topic, nice ;)

Zal al een tijdje te denken om mijn i5 server eens te gaan vervangen vanwege de levensduur en het toch wel hoge stroomverbruik. Ding staat ook 90% van de tijd uit zn neus te vreten. Had als eens eerder van ZFS gehoord (FreeNas) en lijkt me leuk om daar eens mee te kloten.

Dus even in de V&A gekeken en een Supermicro A1SAM-2750F uitgezocht. Is een 8-core Atom op 2.4ghz. Compleet met 32gb ECC DDR3 ram :) Geen idee hoe dat gaat performen maar of ik verkoop het weer of ik pak een non-zfs iets. Huidige server wil ik sowieso vervangen.

Ben nu even bezig om wat random disks (160gb ~ 1tb) leeg te maken zodat ik ook daadwerkelijk wat ruimte heb om te gaan testen. Zal mijn ervaringen hier wel plaatsen binnenkort :)

3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)


Acties:
  • 0 Henk 'm!

Verwijderd

Waarom wil je je server vervangen? Levensduur lijkt me geen argument; server kan decennia meegaan. Performance en energieverbruik wel, maar dat laatste lijkt mij sterk want je hebt een moderne chip. Ik vermoed dat je naar de TDP kijkt; klopt dat? Want als dat zo is, kan ik je geruststellen: een chip met een hogere TDP kan zuiniger zijn dan met een lager TDP. Voor een NAS die veel idle is, telt eigenlijk alleen het idle verbruik. En een chip met hoger TDP wat sneller is, kan ook sneller weer naar idle terugkeren.

Wat voor hardware heb je op dit moment? Als je zuiniger wilt, is het vervangen/wegdoen van de voeding denk ik de beste investering. Maar of een PicoPSU de moeite waard is, hangt af van wat je er nog meer aan hebt hangen.

Verder heb ik de indruk dat je met name vragen hebt over het hardwaregedeelte; dus verplaats ik je reactie naar het DIY RAID NAS topic. Vragen over het softwaregedeelte, inclusief FreeNAS, hoort wel in dit topic thuis. Voel je vrij om die alsnog hier te stellen! :)

Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 22:21
Ja tuurlijk, een TDP zegt niks maar die server heb ik ooit (~5jaar geleden) aangeschaft toen om een MC server te draaien wat zeker met de alpha best veel resources vroeg. Tegenwoordig speelt er geen drol meer op en staat hij (naar mijn mening) te veel energie weg te gooien. Goed... hij is dan wel aardig idle maar ik stellen te wedden dat die 8-core atom met een TDP van 20w toch echt zuiniger is. Het betreft trouwens een 2e generatie i5 2500

Pico PSU is ook weer niet echt een optie (zit een 300w beQuiet in) omdat er atm 6 harddisks aan hangen.

En inderdaad het zou zomaar zo kunnen zijn dat hij nog 10 jaar meegaat.

Dus laat ik het dan zo zeggen: ik heb zin om eens te kloten met ZFS en ik ben benieuwd wat die atom's doen qua performance. Het zou leuk (bijzaak :p) zijn als ik mijn i5 server hierdoor kan vervangen.

Wanneer alles werkt verkoop ik die huidige hardware weer waardoor ik (in theorie :p) niet heel veel geld extra kwijt ben voor dat supermicro bord :)

3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)


Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 20:27
Oh, je zoekt een excuus om je hardware te vervangen. :+

Als 90% van de tijd je server niets loopt te doen, dan kan je hem toch gewoon die tijd uitzetten? Nieuwe hardware kopen is harstikke leuk, maar als je met je huidige hardware gewoon de setup kan bouwen die je wil, dan hoef je toch niet perse wat anders aan te schaffen...

Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 22:21
Haha, alleen uitzetten is weer wat lastiger zijn toch wel wat zaken die altijd beschikbaar moeten blijven, (DNS, fallback MX etc)

En agreed: ik kan ook die hardware gebruiken om eens ZFS (Freenas waarschijnlijk) te testen maar dan kom ik weer bij punt 1 dan is mijn server dus offline :p Yes I know first-world problems...

edit:
en idd een mooi excuus om weer wat 'nieuws' aan te schaffen :) De tweaker moet ook een beetje bezig blijven tenslotte!

[ Voor 16% gewijzigd door Mattie112 op 14-02-2016 14:17 ]

3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)


Acties:
  • 0 Henk 'm!

Verwijderd

Nouja, ik heb mijn Core i5 3570 op 8,4 watt gekregen, helemaal kaal en undervolted. Zonder undervolting iets van 11 watt. Zie ook het topic: Stroomverbruik Processor+Moederbord+Geheugen.

Dus dat een core i5 per definitie onzuinig zou zijn, zou ik willen verwerpen. Zo'n atom SoC is wel zuiniger, maar vaak zit er ook IPMI op die bordjes en dat alleen al vraagt iets van 8W dus in de praktijk verbruiken die bordjes idle juist méér stroom dan een moderne Intel quadcore processor en moederbord. Kortom, vanwege energieverbruik nieuwe hardware lijkt mij discutabel. Hooguit een nieuwe/andere voeding; er zijn ook ATX voedingen die voor laag verbruik veel efficiënter zijn.

Komt bij dat ik Avoton nu niet meer zou aanraden. Zo snel zijn die dingen niet, terwijl je wel de hoofdprijs betaalt. Het is al een redelijk oud platform onderhand. Dan zou ik eerder Xeon-D overwegen als je toch redelijk wat geld wilt uitgeven, of de opvolger van Xeon-D die over niet al te lange tijd zou moeten uitkomen. Dan krijg je tenminste echt wat tofs.

Anders gewoon een ultra-cheap J1900/N3150 SoC wat ook als atom gezien kan worden. Alleen in tegenstelling tot Avoton hebben die geen ondersteuning voor ECC, mocht je dat belangrijk vinden.

Acties:
  • 0 Henk 'm!

  • Shamalamadindon
  • Registratie: Juni 2009
  • Laatst online: 30-03-2024
Verwijderd schreef op zondag 14 februari 2016 @ 14:55:
Komt bij dat ik Avoton nu niet meer zou aanraden. Zo snel zijn die dingen niet, terwijl je wel de hoofdprijs betaalt. Het is al een redelijk oud platform onderhand. Dan zou ik eerder Xeon-D overwegen als je toch redelijk wat geld wilt uitgeven, of de opvolger van Xeon-D die over niet al te lange tijd zou moeten uitkomen. Dan krijg je tenminste echt wat tofs.

Anders gewoon een ultra-cheap J1900/N3150 SoC wat ook als atom gezien kan worden. Alleen in tegenstelling tot Avoton hebben die geen ondersteuning voor ECC, mocht je dat belangrijk vinden.
Ho even. Hou in gedachten waarom die Avoton bordjes van Asrock zo populair werden. De duurste J1900 bordjes hebben niet meer dan 4/6 SATA poorten, de Asrock C2750D4I heeft er 12.

Wanneer heb je het laatst je wachtwoord verandert? Er word op T.net de laatste tijd regelmatig misbruikt gemaakt van accounts met gelekte wachtwoorden om andere gebruikers op te lichten. Verander je wachtwoord, geef oplichters geen kans!


Acties:
  • 0 Henk 'm!

Verwijderd

Ja, met ASMedia chips, dus ook niet volledige bandbreedte. Voor een simpele NAS geen probleem natuurlijk. Maar dan is een controller met 10 extra poorten zoals deze ook wel een goed idee, toch?

Afbeeldingslocatie: http://www.bilder.delock.de/produkte/thumb/54803fad1d8ad9.84234245.jpg

http://www.delock.com/produkte/G_89384/merkmale.html

Ook goedkoper dan een IBM M1015 ofzo, maar wel 10 poorten ipv 8. En ook: superzuinig. Bovendien door alle OS ondersteund want geen speciale drivers nodig; alleen een allround casual AHCI-driver benodigd. Alleen niet superveel bandbreedte; PCIe 2.0 x2 dus 1GB/s voor 10 poorten dus 100MB/s per disk als je alles tegelijk gebruikt, en in de praktijk nog wel iets minder. Maar dat mag geen probleem zijn voor gigabit. ;)

Acties:
  • 0 Henk 'm!

  • Habana
  • Registratie: Oktober 2005
  • Laatst online: 22:56
Schijnbaar toch niet helemaal zonder problemen..
Johnnygo schreef op maandag 08 februari 2016 @ 17:35:
Ik heb de volgende kaart gekocht voor uitbreiding van mijn server:
http://www.delock.com/produkte/G_89384/merkmale.html
Echter krijg ik die niet werkend onder FreeBSD. Ik heb ZFSguru en Freenas geprobeerd, maar beide geven dezelfde foutmeldingen:
code:
1
2
3
4
5
6
7
8
(noperiph:ahcich14:0:-1:-1): rescan already queued
(noperiph:ahcich15:0:-1:-1): rescan already queued
(noperiph:ahcich12:0:-1:-1): rescan already queued
(noperiph:ahcich13:0:-1:-1): rescan already queued

(noperiph:ahcich15:0:-1:-1): rescan already queued
run_interrupt_driven_hooks: still waiting after 60 seconds
run_interrupt_driven_hooks: still waiting after 120 seconds

Als ik de schijven los haal, dan zijn bovenstaande meldingen verdwenen, maar krijg ik melding van een irqstorm.
Linux (Ubuntu) en Windows7 hebben geen probleem met de kaart, en ik kan de aangesloten schijven zien en benaderen. Alleen FreeBSD wil niet starten.
Heeft iemand enig idee wat het probleem hier zou kunnen zijn?

Acties:
  • 0 Henk 'm!

Verwijderd

Goed dat je me daar op wijst! Ik heb hem een bericht gestuurd of dat probleem zich ook onder 10.3 voordoet. Ben wel benieuwd.

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-09 15:13

Pantagruel

Mijn 80486 was snel,....was!

Habana schreef op zondag 14 februari 2016 @ 23:51:
Schijnbaar toch niet helemaal zonder problemen..


[...]
Kun je de lspci output hier even neerzetten mbt de controller, googled makkelijker naar andere probleem gevallen. De datasheet van delock is namelijk weinig behulpzaam met de vermelding van de controller als zijnde een JMICRON :? .

:F Ffft, ff terugzoeken wil ook wel es helpen (sjokt naar de Nespresso machine en tapt een dubbele dikke om wakker te worden).

Het gaat t om een combinatie van:1x een ASMedia ASM1062 en 2x JMicron JMB575 (5x port multiplier), wellicht dat daarom de schoen wringt.

[ Voor 25% gewijzigd door Pantagruel op 15-02-2016 10:17 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

Verwijderd

Waarschijnlijk heeft 'ie gewoon wat quirks nodig die BSD nog niet heeft geïntegreerd in zijn code. Of dat is al wel gebeurd, maar er is enkel met een oudere BSD release getest. Ik ben zelf overigens van plan binnenkort deze controller aan te schaffen.

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-09 15:13

Pantagruel

Mijn 80486 was snel,....was!

Verwijderd schreef op maandag 15 februari 2016 @ 10:22:
Waarschijnlijk heeft 'ie gewoon wat quirks nodig die BSD nog niet heeft geïntegreerd in zijn code. Of dat is al wel gebeurd, maar er is enkel met een oudere BSD release getest. Ik ben zelf overigens van plan binnenkort deze controller aan te schaffen.
Ik had idd al op [H]ard|Forum gelezen dat je een lansje voor de controller aan t breken was ;) .

(heb denk ik te lang nix met m'n [H]forum logon gedaan, kom er in en krijg meteen beperkingen opgelegd, kyle ff mailen :( )

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • Jay-v
  • Registratie: Januari 2002
  • Niet online

Jay-v

Uhhhh......

Verwijderd schreef op zondag 14 februari 2016 @ 14:55:
Anders gewoon een ultra-cheap J1900/N3150 SoC wat ook als atom gezien kan worden. Alleen in tegenstelling tot Avoton hebben die geen ondersteuning voor ECC, mocht je dat belangrijk vinden.
Ik vind het eigenlijk vreemd dat we niet echt een opvolger hebben van de j1900, het is natuurlijk al een redelijk oude chip (2013). De N3150 zal op zeer korte termijn vervangen worden door de N3160 (deze is nauwelijks sneller).

Trouwens, FreeNas installeerd standaard volgens mij niet op het Asrock N3150 bordje, deze zou ik dus liever niet nemen.

Ik zat zelf te denken om het volgende te bestellen. De case heeft plaats voor 3 HDD's maar middels een adapter kan een 4e HDD in het 5.25 inch slot. ECC vind ik niet zo belangrijk aangezien de machine enkel als download/media SMB machine zal dienen.

De HDD's ben ik nog niet zeker van, wellicht ga ik toch voor 4TB vanwege de prijs.
#ProductPrijsSubtotaal
1ASRock Q1900-ITX€ 76,-€ 76,-
4WD Green HDD, 4TB€ 135,50€ 542,-
1Cooler Master Elite 120 Advanced Zwart€ 45,90€ 45,90
2Crucial CT102464BF160B€ 31,91€ 63,82
1be quiet! System Power 7 300W€ 33,95€ 33,95
Bekijk collectie
Importeer producten
Totaal€ 761,67

[ Voor 64% gewijzigd door Jay-v op 15-02-2016 13:11 ]


Acties:
  • 0 Henk 'm!
948 euro aan schijven, en 200 euro voor de rest van het systeem :S
Best uit verhouding... Ga je met zoveel storage niet liever voor een iets degelijker systeem? ECC is zeker niet verplicht, maar in verhouding kost het je misschien 100 euro... nog geen 10% van de totaalprijs...

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Jay-v schreef op maandag 15 februari 2016 @ 12:08:
Ik vind het eigenlijk vreemd dat we niet echt een opvolger hebben van de j1900, het is natuurlijk al een redelijk oude chip (2013). De N3150 zal op zeer korte termijn vervangen worden door de N3160 (deze is nauwelijks sneller).
FUDzilla had wat geschreven over Denverton met 16-cores als opvolger van Avoton. Klonk zeker interessant. :)

http://www.fudzilla.com/n...next-generation-cpu-cores

Acties:
  • 0 Henk 'm!

  • Jay-v
  • Registratie: Januari 2002
  • Niet online

Jay-v

Uhhhh......

FireDrunk schreef op maandag 15 februari 2016 @ 12:46:
948 euro aan schijven, en 200 euro voor de rest van het systeem :S
Best uit verhouding... Ga je met zoveel storage niet liever voor een iets degelijker systeem? ECC is zeker niet verplicht, maar in verhouding kost het je misschien 100 euro... nog geen 10% van de totaalprijs...
100€? Dat lijkt me niet, ik kan geen moederbord vinden in die prijscategorie. En ik ga waarschijnlijk toch naar 4TB schijven. P.S. lijst al aangepast naar 4TB disks. Dat moet me meer dan voldoende storage geven.

[ Voor 7% gewijzigd door Jay-v op 15-02-2016 13:11 ]


Acties:
  • 0 Henk 'm!

  • wopie
  • Registratie: Maart 2006
  • Laatst online: 07-06 20:08
Jay-v schreef op maandag 15 februari 2016 @ 13:07:
[...]


100€? Dat lijkt me niet, ik kan geen moederbord vinden in die prijscategorie. En ik ga waarschijnlijk toch naar 4TB schijven. P.S. lijst al aangepast naar 4TB disks. Dat moet me meer dan voldoende storage geven.
Ik weet niet precies op welke onderdelen Firedrunk doelde behalve de disken, echter kwam ik gisteren deze tegen, ECC mogelijkheden voor een betaalbare prijs lijkt me http://tweakers.net/price...0m-pro-ecc/specificaties/, zit toch wel richting 100,-

[update]
Ow, compleet over de oorspronkelijke post heen gelezen... my bad.
Je zou misschien ook nog de http://tweakers.net/price...0m-pro-ecc/specificaties/ kunnen overwegen, kost precies 100,- excl adapter, deze kan mogelijk nog efficienter werken als de system power 7 icm de juiste adapter (kosten dacht ik ook iets van 30 euri).

[ Voor 23% gewijzigd door wopie op 15-02-2016 13:41 . Reden: aanvulling ]


Acties:
  • 0 Henk 'm!

  • Jay-v
  • Registratie: Januari 2002
  • Niet online

Jay-v

Uhhhh......

wopie schreef op maandag 15 februari 2016 @ 13:26:
[...]


Ik weet niet precies op welke onderdelen Firedrunk doelde behalve de disken, echter kwam ik gisteren deze tegen, ECC mogelijkheden voor een betaalbare prijs lijkt me http://tweakers.net/price...0m-pro-ecc/specificaties/, zit toch wel richting 100,-
Klopt maar dat is dan weer zonder processor en de j1900 is gewoon zeer energie zuinig. ECC is zoals gezegd gewoon niet belangrijk aangezien het om een download/media bak gaat.

Acties:
  • 0 Henk 'm!
Ik bedoelde (bijvoorbeeld) op een MicroServer Gen8. Die kan ook 4 schijven aan, en doet ECC. En is ~110 euro duurder dan je J1900 setje.

Maar buiten dat, ik vind persoonlijk een J1900 kopen voor een server van > 1000 euro een beetje.... vies... :+

Voelt een beetje als een Ferrari motor in een lada schroeven :)

[ Voor 11% gewijzigd door FireDrunk op 15-02-2016 14:50 ]

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Jay-v schreef op maandag 15 februari 2016 @ 13:07:
En ik ga waarschijnlijk toch naar 4TB schijven. P.S. lijst al aangepast naar 4TB disks. Dat moet me meer dan voldoende storage geven.
De 6TB disks zijn wel zuiniger per opslagcapaciteit en ook sneller. Ik vind het zeer goede schijven. Beste schijven die ik ooit heb gehad, eigenlijk. Bovendien kun je met 4 schijven ook prima zonder ATX voeding. Dan kun je dit setje overwegen, Braswell N3150: pricewatch: ASRock N3150DC-ITX. Daar zit dus een DC-DC voeding op het moederbord en je krijgt er een 60W voedingsblok bij. Dat is krapjes, maar in mijn test heb ik 5x Seagate 7200.14 opgespint met een 60W voedingsblok. Je kunt waarschijnlijk prima iets over de rated max als dat maar heel even is; waarschijnlijk vooral thermisch gelimiteerd. 8 seconden even iets erover zou dan prima kunnen.

Zou het nog zuiniger maken en bovendien stiller, en compacter. Geen ECC is zo, maar afhankelijk van je eisen kun je daar prima mee leven, omdat je nog wel errordetectie overhoudt. De echte belangrijke dingen moet je sowieso een backup van hebben, daarom vind ik ECC voor thuis niet zo'n heel grote noodzaak. Zou je ook meer CPU kracht nodig hebben dan is voor dergelijke builds ECC wel een no-brainer. Maar ik zie er zelf niets op tegen om 4x 6TB op een Braswell setup aan te sluiten. Dan heb je gewoon een geweldige prijs per netto opslagcapaciteit dus juist heel goed! Bovendien is Braswell lange tijd nuttig inzetbaar door het zeer lage verbruik (6W TDP).

Acties:
  • 0 Henk 'm!

  • Jay-v
  • Registratie: Januari 2002
  • Niet online

Jay-v

Uhhhh......

Verwijderd schreef op maandag 15 februari 2016 @ 14:51:
[...]
Daar zit dus een DC-DC voeding op het moederbord en je krijgt er een 60W voedingsblok bij. Zou het nog zuiniger maken en bovendien stiller, en compacter.
Ok zuiniger en compacter is interessant. Maar waar vind ik een mini-itx case zonder ruimte voor een voeding. Maar wel plek voor 3/4 schijven?

Acties:
  • 0 Henk 'm!

Verwijderd

Ik maak mijn cases zelf. :P
Dus daar kan ik je niet echt bij helpen. Er zijn er wel een paar die geen ruimte hebben voor een ATX-voeding. Maar het zijn er niet veel. Zeker niet waar wel plek is voor aardig wat schijven.

Je kunt wel de ruimte open laten, of een soort plaat kopen die voor afdichting zorgt. Dan heb je wel loze ruimte die je niet gebruikt.

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 08:01
Wat je kunt doen is een kleine kast kopen met ruimte voor een voeding maar met (te) weinig ruimte voor schijven, en dan de ruimte van de voeding benutten om er meer schijven in te stoppen :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Habana
  • Registratie: Oktober 2005
  • Laatst online: 22:56
Pantagruel schreef op maandag 15 februari 2016 @ 09:53:
[...]


Kun je de lspci output hier even neerzetten mbt de controller, googled makkelijker naar andere probleem gevallen. De datasheet van delock is namelijk weinig behulpzaam met de vermelding van de controller als zijnde een JMICRON :? .

:F Ffft, ff terugzoeken wil ook wel es helpen (sjokt naar de Nespresso machine en tapt een dubbele dikke om wakker te worden).

Het gaat t om een combinatie van:1x een ASMedia ASM1062 en 2x JMicron JMB575 (5x port multiplier), wellicht dat daarom de schoen wringt.
Ieder geval bedankt voor je reactie, maar de persoon met de problemen in deze is Johnnygo, zoals ik in mijn reactie boven weergeeft, als jullie toppers deze Johnnygo zouden kunnen helpen zou dat fijn zijn, CiPHER heeft hem al een bericht gestuurd, ik ben benieuwd dit kaartje kan best interessant zijn.

Acties:
  • 0 Henk 'm!

  • Jay-v
  • Registratie: Januari 2002
  • Niet online

Jay-v

Uhhhh......

Verwijderd schreef op maandag 15 februari 2016 @ 16:59:
Ik maak mijn cases zelf. :P
Dus daar kan ik je niet echt bij helpen. Er zijn er wel een paar die geen ruimte hebben voor een ATX-voeding. Maar het zijn er niet veel. Zeker niet waar wel plek is voor aardig wat schijven.

Je kunt wel de ruimte open laten, of een soort plaat kopen die voor afdichting zorgt. Dan heb je wel loze ruimte die je niet gebruikt.
>:) . Nou dat was niet mijn plan, ik ga daarom maar voor de standaard oplossing die ik hierboven had neergezet :)

Acties:
  • 0 Henk 'm!

  • Harrie
  • Registratie: November 2000
  • Laatst online: 07:41

Harrie

NederVlaming

Jay-v schreef op maandag 15 februari 2016 @ 16:41:
[...]


Ok zuiniger en compacter is interessant. Maar waar vind ik een mini-itx case zonder ruimte voor een voeding. Maar wel plek voor 3/4 schijven?
Ik heb dit gedaan:
hdd rack - 3 disk - installed
Bij de kast zit een afdekplaatje voor de uitsparing vsn de voeding. En dan dus inderdaad die ruimte gebruikt voor schijven. Moet je dus wel zelf het rackje maken. Die van mij zijn gewoon 3D geprint, de modellen kan ik wel delen.

Acties:
  • 0 Henk 'm!
Zag net deze langskomen.
pricewatch: Gigabyte GA-X150M-PRO ECC

Voor een goedkope ECC oplossing toch best een prima bordje denk ik zo. 40 euro CPU er bij, en wat DDR4 geheugen :)

Alleen jammer van de legacy PCI :(

[ Voor 6% gewijzigd door FireDrunk op 16-02-2016 07:32 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-09 15:13

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op dinsdag 16 februari 2016 @ 07:31:
Zag net deze langskomen.
pricewatch: Gigabyte GA-X150M-PRO ECC

Voor een goedkope ECC oplossing toch best een prima bordje denk ik zo. 40 euro CPU er bij, en wat DDR4 geheugen :)

Alleen jammer van de legacy PCI :(
En jammer genoeg ook geen VGA/DVI/HDMI op t bordje, komt die legacy PCI toch nog van pas om er een ATI pci kaartje in te frotten (of een oude Matrox MGA }) die ik nog heb liggen [ergens]) .

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!
Oh crap, dat had ik nog niet eens gezien, dat zuigt wel apenballen... :(

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Veel serverprocessors hebben geen GPU en vertrouwen op IPMI functionaliteit of een aparte grafische chip op het moederbord. Dat heeft dit bordje niet lijkt het.

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-09 15:13

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op dinsdag 16 februari 2016 @ 09:26:
Oh crap, dat had ik nog niet eens gezien, dat zuigt wel apenballen... :(
Ach, vers uit de frituur met wat grove mosterd >:)
Verwijderd schreef op dinsdag 16 februari 2016 @ 09:28:
Veel serverprocessors hebben geen GPU en vertrouwen op IPMI functionaliteit of een aparte grafische chip op het moederbord. Dat heeft dit bordje niet lijkt het.
Nee geen ipmi oid te bekennen, een WS bordje dus.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:10
Links laten liggen die rommel, zou ik zeggen.

Acties:
  • 0 Henk 'm!

Verwijderd

Nou nou.. :X

Ik heb jarenlang servers gehad zonder grafische kaart in de tijd dat processors en zelfs chipsets nog geen IGP (GPU) hadden. Wel met een PCI videokaart mocht ik toch even beeld nodig hebben, maar eenmaal BSD of Linux geïnstalleerd heb je het opzich niet meer nodig. Wel lastig als je server niet meer wilt booten om een vage reden. Dus ik zou het vandaag de dag niet snel meer aanbevelen. Maar het kan wel. :)

Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 22:21
Verwijderd schreef op zondag 14 februari 2016 @ 14:55:
Nouja, ik heb mijn Core i5 3570 op 8,4 watt gekregen, helemaal kaal en undervolted. Zonder undervolting iets van 11 watt. Zie ook het topic: Stroomverbruik Processor+Moederbord+Geheugen.

Dus dat een core i5 per definitie onzuinig zou zijn, zou ik willen verwerpen. Zo'n atom SoC is wel zuiniger, maar vaak zit er ook IPMI op die bordjes en dat alleen al vraagt iets van 8W dus in de praktijk verbruiken die bordjes idle juist méér stroom dan een moderne Intel quadcore processor en moederbord. Kortom, vanwege energieverbruik nieuwe hardware lijkt mij discutabel. Hooguit een nieuwe/andere voeding; er zijn ook ATX voedingen die voor laag verbruik veel efficiënter zijn.

Komt bij dat ik Avoton nu niet meer zou aanraden. Zo snel zijn die dingen niet, terwijl je wel de hoofdprijs betaalt. Het is al een redelijk oud platform onderhand. Dan zou ik eerder Xeon-D overwegen als je toch redelijk wat geld wilt uitgeven, of de opvolger van Xeon-D die over niet al te lange tijd zou moeten uitkomen. Dan krijg je tenminste echt wat tofs.

Anders gewoon een ultra-cheap J1900/N3150 SoC wat ook als atom gezien kan worden. Alleen in tegenstelling tot Avoton hebben die geen ondersteuning voor ECC, mocht je dat belangrijk vinden.
Mja, agreed ik zou best een hoop tijd er in kunnen steken om hem zuiniger te maken (en wie weet ga ik dat ook doen). Maar voor nu in elk geval heb ik (althans: komt vandaag binnen) even een mooi testplatform om eens met ZFS/Freenas te spelen :)

In elk geval bedankt voor je opmerkingen.

3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:10
Verwijderd schreef op dinsdag 16 februari 2016 @ 09:42:
Nou nou.. :X

Ik heb jarenlang servers gehad zonder grafische kaart in de tijd dat processors en zelfs chipsets nog geen IGP (GPU) hadden. Wel met een PCI videokaart mocht ik toch even beeld nodig hebben, maar eenmaal BSD of Linux geïnstalleerd heb je het opzich niet meer nodig. Wel lastig als je server niet meer wilt booten om een vage reden. Dus ik zou het vandaag de dag niet snel meer aanbevelen. Maar het kan wel. :)
Tja, je hebt gelijk dat het kan, maar precies om de reden die je beschrijft raadt ik het erg af.

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-09 15:13

Pantagruel

Mijn 80486 was snel,....was!

Q schreef op dinsdag 16 februari 2016 @ 10:19:
[...]


Tja, je hebt gelijk dat het kan, maar precies om de reden die je beschrijft raadt ik het erg af.
Het werkt idd, ultiem 'headless' >:) zullen we maar zeggen.
Maar als dan de str*&nt ;( de ventilator raakt mag je eerst je doos met oude meuk door voordat je zicht kunt krijgen op je probleem.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:10
Je kon vroeger dan nog zo ver gaan dat je een console had op je seriele poort, dus dat als je jezelf buitensloot dat je zonder videokaart er nog wel in kon komen met een seriele kabel maar wat een gekloot.

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-09 15:13

Pantagruel

Mijn 80486 was snel,....was!

Q schreef op dinsdag 16 februari 2016 @ 12:51:
Je kon vroeger dan nog zo ver gaan dat je een console had op je seriele poort, dus dat als je jezelf buitensloot dat je zonder videokaart er nog wel in kon komen met een seriele kabel maar wat een gekloot.
Klopt, ooit eens een oude sparc kado gehad. Was een flinke dag kloten om uit te vinden wat nu de juiste kabel/pin-out was (was nog een cheap-ass studentje destijds) en settings waren om de serial output weer te geven in een terminal emulator (PuTTY/Xterm)

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 24-09 14:15
Q schreef op dinsdag 16 februari 2016 @ 10:19:
Tja, je hebt gelijk dat het kan, maar precies om de reden die je beschrijft raadt ik het erg af.
Opzich geen echte groot probleem, heb in mijn offline server ook geen videokaart zitten.

Die ligt los onder in de kast, en steek ik in twee minuten er weer in indien nodig.

Het enige jammere aan dat bord is dat de tweede PCIe maar 4x is, maar als je daar mee kan leven zou ik zeker dit bord een aanrader vinden.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
Q schreef op dinsdag 16 februari 2016 @ 12:51:
Je kon vroeger dan nog zo ver gaan dat je een console had op je seriele poort
Vroeger vroeger, nu nog steeds op mijn pfsense bakje :+

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 07:02

Damic

Tijd voor Jasmijn thee

Ik dacht dat er een schijf van mijn raid 6 eruit lag -O- maar blijkbaar niet *O*

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 00:10
A1AD schreef op dinsdag 16 februari 2016 @ 19:08:
[...]


Vroeger vroeger, nu nog steeds op mijn pfsense bakje :+
:> Nerd! :+

Acties:
  • 0 Henk 'm!

  • abusimbal
  • Registratie: Augustus 2003
  • Laatst online: 06-09 19:45
abusimbal schreef op maandag 08 februari 2016 @ 12:31:
Wil een freenas server maken. Heb nu een esxi server, wil beide in 1 maken.
Ik denk dat deze Supermicro het moederbord hiervoor is, niet ?
http://www.supermicro.com...d/Xeon/D/X10SDV-7TP4F.cfm

Heeft 2x 10gigabit + 2x gigabit en 20 sata poorten.
Er komt zelfs een 16 core versie: X10SDV-7TP8F

Overzicht van borden met Xeon D van Supermicro:
http://www.supermicro.com/products/nfo/Xeon-D.cfm

Acties:
  • 0 Henk 'm!

Verwijderd

8 cores zijn dat, met hyperthreading maakt dat 16 threads. Maar dat is wat anders. ;)

Denverton - de opvolger van Avoton - zou wel echt 16 cores moeten hebben, met hyperthreading maakt dat 32 threads.

Acties:
  • 0 Henk 'm!

  • ph0t0nix
  • Registratie: December 2006
  • Laatst online: 19-09 09:06
A1AD schreef op dinsdag 16 februari 2016 @ 19:08:
[...]


Vroeger vroeger, nu nog steeds op mijn pfsense bakje :+
Mijn Qemu virtual machines hebben ook nog gewoon een seriële console. Dan kan ik tenminste nog inloggen zonder grafische poespas en/of via een trage verbinding. :*)

Acties:
  • 0 Henk 'm!

  • Pa-Lu
  • Registratie: Februari 2016
  • Laatst online: 16-06 10:00
Na veel lezen op tweakers zou ik graag advies van jullie ontvangen :). Ik ben aan het kijken voor een nieuwe NAS ter vervanging van mijn huidige QNAP TS-412 (5.4 TB - raid5). Deze is inmiddels een jaar of 5 oud en aan vervanging toe. De QNAP wil ik uiteindelijk op een andere locatie neerzetten en gaan gebruiken als back-up.

Wat zou ik graag willen in mijn nieuwe NAS:
  • ZFS filesystem, als besturingssysteem denk ik aan ZFSguru of FreeNAS;
  • Een zuinige NAS;
  • Niet te groot, case moet in de meterkast passen;
  • Als opslagruimte lijkt het mij mooi om te beginnen met 3x 4 TB of 4x 3 TB storage. In de toekomst kan ik dan eventueel verder uitbreiden mocht het niet meer passen;
  • Budget is maximaal €900,-
De NAS hoef ik verder niet gebruiken voor allerlei media services, ik zal alleen gebruik maken van de NFS en SMB server. Ik heb een redelijke nieuwe Intel NUC (i5) met ESXi waarvan de virtuele machines via een NFS verbinding maken met de NAS.

Graag ontvang ik advies welke hardware geschikt is voor mij eisen:
  • Als case dacht ik aan een Fractal Design Node 304 aangezien deze perfect in mijn meterkast past.
  • Harddisks, ik veel over WD RED 4TB en HGST Deskstar NAS 4TB. Prijs is nagenoeg gelijk, WD zou onstabiel zijn en HGST maakt meer herrie. Welke kan ik beter kiezen? Of zijn er andere schijven die goedkoper zijn en ook prima voldoen?
  • Qua moederbord, processor en geheugen heb ik geen idee wat ik moet kiezen.
  • Ik lees veel over ECC geheugen, is dit noodzakelijk voor ZFS?

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
Pa-Lu schreef op woensdag 17 februari 2016 @ 10:42:
Na veel lezen op tweakers
• Ik lees veel over ECC geheugen, is dit noodzakelijk voor ZFS?
:o Toch nog meer lezen op Tweakers dan O-)

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 08:01
Hoe groot is je meterkast? :) In een pricewatch: HP Proliant ML10 v2 (814483-421) passen 6 schijven. Als je alles officieel doet dan heb je voor 300 euro een server met 8 GB ECC en ruimte voor 6 schijven (180 voor de basis, 50 voor de "drive enablement kit" en 70 voor 4 GB extra), als je het wat avontuurlijker aan pakt kan het voor ongeveer € 220 (zelf iets klussen om de laatste 2 schijven vast te maken en kijken of "gewoon" ECC DDR3 [niet registered!] ook werkt).

De pricewatch: HP Proliant MicroServer Gen8 G1610T is iets duurder, een stukje kleiner maar er passen maar 4 schijven in. Met zelfbouw is het volgens mij redelijk lastig die prijzen te verslaan en toch ECC te hebben :)

Dan houd je 600 over voor 4 schijven van 3 TB of 3 schijven van 4 TB. Aangezien je bij ZFS een pool wel uit kan breiden met vdevs maar een (RAIDZ*) vdev niet uit kan breiden met schijven zou ik voor 3x4 gaan, als je dan uit wil breiden dan koop je er nog 3x4 bij :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • abusimbal
  • Registratie: Augustus 2003
  • Laatst online: 06-09 19:45
Verwijderd schreef op woensdag 17 februari 2016 @ 09:27:
8 cores zijn dat, met hyperthreading maakt dat 16 threads. Maar dat is wat anders. ;)

Denverton - de opvolger van Avoton - zou wel echt 16 cores moeten hebben, met hyperthreading maakt dat 32 threads.
Had verkeerde url: http://www.supermicro.com...d/Xeon/D/X10SDV-7TP8F.cfm
16 cores 2 10 gigabit en 6 gigabit 20 sata

Benchmarks:
http://www.servethehome.c...aunched-first-benchmarks/

Acties:
  • 0 Henk 'm!

  • Trishul
  • Registratie: December 2008
  • Laatst online: 00:35
Pa-Lu schreef op woensdag 17 februari 2016 @ 10:42:
Na veel lezen op tweakers zou ik graag advies van jullie ontvangen :). Ik ben aan het kijken voor een nieuwe NAS ter vervanging van mijn huidige QNAP TS-412 (5.4 TB - raid5). Deze is inmiddels een jaar of 5 oud en aan vervanging toe. De QNAP wil ik uiteindelijk op een andere locatie neerzetten en gaan gebruiken als back-up.

Wat zou ik graag willen in mijn nieuwe NAS:
  • ZFS filesystem, als besturingssysteem denk ik aan ZFSguru of FreeNAS;
  • Een zuinige NAS;
  • Niet te groot, case moet in de meterkast passen;
  • Als opslagruimte lijkt het mij mooi om te beginnen met 3x 4 TB of 4x 3 TB storage. In de toekomst kan ik dan eventueel verder uitbreiden mocht het niet meer passen;
  • Budget is maximaal €900,-
De NAS hoef ik verder niet gebruiken voor allerlei media services, ik zal alleen gebruik maken van de NFS en SMB server. Ik heb een redelijke nieuwe Intel NUC (i5) met ESXi waarvan de virtuele machines via een NFS verbinding maken met de NAS.

Graag ontvang ik advies welke hardware geschikt is voor mij eisen:
  • Als case dacht ik aan een Fractal Design Node 304 aangezien deze perfect in mijn meterkast past.
  • Harddisks, ik veel over WD RED 4TB en HGST Deskstar NAS 4TB. Prijs is nagenoeg gelijk, WD zou onstabiel zijn en HGST maakt meer herrie. Welke kan ik beter kiezen? Of zijn er andere schijven die goedkoper zijn en ook prima voldoen?
  • Qua moederbord, processor en geheugen heb ik geen idee wat ik moet kiezen.
  • Ik lees veel over ECC geheugen, is dit noodzakelijk voor ZFS?
Wow, dit is bijna exact dezelfde situatie als bij mij. Ik heb ook een Qnap TS-412 met 4x2TB in raid-5 en ga deze ook vervangen door zelfbouw o.b.v. freenas+zfs. Moederbord, cpu en ram heb ik al binnen, alleen nog de kast, voeding en hdd's (ook 3x 4TB) moet ik nog kopen. Wat kast betreft ga ik voor de Fractal Node 804. Past een m-atx moederborden en een hoop 3.5" hdd's in. M'n build staat enkele pagina's terug, of in m'n wishlist.

Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 22:21
Zo het bordje is binnen, net even FreeNAS er op gegooit en wat disks aangesloten: eens kijken of het wat is :p

Actiefoto:

Afbeeldingslocatie: http://upload.mattie-systems.nl/uploads/16430-2016-02-17_20.05.17.jpg
(Doos klopt niet bij het bord, bord is een Supermicro A1SAM-2750F)

3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)


Acties:
  • 0 Henk 'm!

  • Niels.68
  • Registratie: Mei 2010
  • Laatst online: 03-08-2024
Ik lees in dit topic een aantal lovende reacties m.b.t. de MicroServer Gen8, zijn er ook gebruikers van de M10 V2 die hier meelezen en zo ja, wat is jullie ervaring. Behoudens een Duitse review kom ik deze namelijk niet tegen in de uitgebreide reviews.

Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 22:21
Zo, de laatste paar avonden even lekker kunnen klooien met het nieuwe spul. Eerste indruk van FreeNAS: nice. Is natuurlijk nog geen optimale situatie met disks van verschillende groottes maar goed genoeg om even eea aan functionaliteiten te kunnen testen.

Zit alleen wel met het volgende:
Ik wil het liefst mijn huidige Windows server de deur uit doen, althans de hardware. Ik draai zat Linux bakken maar een Windows bakje er tussen is toch ook wel eens handig en ik wil qua kennis ook graag up2date blijven wat dat betreft. Het mooiste zou dus zijn een VM met Windows. Maar hoe ga ik dat doen?

1) FreeNAS installeren en een VM draaien 'op' FreeNAS
Klinkt mij als de meeste "simpele/logische" optie, maar voor zover ik kan zien is er standaard geen support voor het draaien van VM's in FreeNAS. Natuurlijk kan ik wel gaan kloten om het 'los' te installeren maar zou ZFSGuru oid dan niet een betere keuze zijn?

2) VMWare ESXi als Host met FreeNAS VM & Windows VM
Tja waarom niet? VMWare in het verleden gebruikt en ik was er tevreden over. Dat mijn ESXi installatie dan niet 'beschermd' is door ZFS neem ik maar op de koop toe. Nou heb ik hier gister even mee lopen kloten maar ik kreeg het niet voor elkaar om de ZFS VM "direct" toegang tot de disks te geven. Bij het assignen van een disk kan je kiezen voor "Create a new virtual disk", "Use an existing virtual disk" of "Raw Device mapping". Optie 1 en 2 zijn het in elk geval niet en optie 3 is grayed-out.
Zie: https://vcp5.files.wordpress.com/2012/01/snaghtml9ae957.png de geselecteerde optie is niet beschikbaar bij mij.

Even een random SATA controller pci-e kaartje gebruikt maar die werdt helemaal niet herkend in ESXi dus dat is geen optie.

Doe ik hier iets fout? Overal waar ik kijk zeggen ze "ja selecteer die optie" maar die kan dus niet bij mij -_-

Ik kan vast en zeker ook wel datastores aan maken op de losse disks en die mounten in FreeNAS maar volgensmij heb ik dan alleen maar meer kans op shit mocht er iets mis gaan. Die 'raw' disk moet toch gewoon gemount kunnen worden?

3) Linux distro als Host met ZFS & Windows VM
Ik geloof dat niet elke distro (goed) ZFS support maar ik kan me zomaar voorstellen dat ik (bijv) een ubuntu pak, ZFS er op gooi en KVM om wat VM's aan te maken. Maar? Hoe 'simpel' is ZFS via de CLI? Goed ik kan mijn weg aardig vinden in Linux maar ZFS is toch compleet nieuw iets van een interface waar ik wanneer er iets mis is gewoon goede feedback krijg is wel prettig. Als ik hier naar google vind ik wel eea maar niks lijkt ook maar in de buurt te komen van wat FreeNAS bied.

Heeft iemand hier een mening over? Ervaring mee allicht? Of zie ik de geweldige optie 4 over het hoofd?

3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)


Acties:
  • 0 Henk 'm!

  • tweedebas
  • Registratie: September 2012
  • Laatst online: 18-09 21:43
Je kan in Freenas 9.3 iig een jail aanmaken en dan de Virtualbox template gebruiken.
Dan heb je dus gewoon Virtualbox op je machine staan met een webgui. Daar kan je volgens mij wel mee uit de voeten voor "een" windows installatie.

Of je dan ook nog een videokaart door kan geven of alles via rdp moet doen, geen idee.

Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 22:21
Hm ik heb bij plugins gekeken en daar zag ik niks staan, zal me even gaan verdiepen in jails. Bedankt voor de tip!

3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)

Pagina: 1 ... 201 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.