• player-x
  • Registratie: Mei 2002
  • Laatst online: 02-10 14:39
A1AD schreef op donderdag 13 november 2014 @ 22:32:
Ik vind dit hier net wel relevant alleen moet deze discussie niet elke week opnieuw voorbij komen.
Ik geloof dat mijn signature weer erg relevant is voor deze ECC discussie. :+
GioStyle schreef op donderdag 13 november 2014 @ 21:40:
Er kunnen inderdaad grote verschillen zitten qua verbruik van moederborden. Echter zou ik niet HWI.info als bron gebruiken, omdat daar resultaten verschijnen waarvan ik denk of je metingen kloppen niet of ze weten niet wat ze aan het doen zijn.
Ik zal niet zeggen dat HWI altijd de best review procedures heeft, of conclusies trekt, maar met een idle stroom meting vertrouw ik ze nog wel.
Het verschil qua idle verbruik tussen een Intel duocore en quadcore CPU is <1 watt.
U heeft gelijk Haswell is enorm verbeterd ten opzichte van SB en IB.

Mijn idle is ook met 23W naar beneden gegaan toen ik overstapte van SB 2600K naar Haswell 4790K.
Doe al mijn video (re)encoding op mijn server, daar dat veel efficiënter is dan op een S2011 CPU

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

Verwijderd

Vanaf de 45nm HighK-modellen doet Intel al <1W idle voor de CPU core power, voor zover ik weet. Dat jij 23W minder idle verbruik hebt; zal daarom door andere oorzaken komen.

Mijn Ivy Bridge server doet bijvoorbeeld 8,4 watt idle stripped; zonder hardware mods. Aan het stopcontact uiteraard.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 02-10 18:39
Clarkdale (de oude i3/i5/i7-xxx) was wat minder zuinig vanwege een wat brakkere USB power saving implementatie (heb ik mij door Mux laten vertellen).

Daarna is die verbeterd, en is het verbruik idle (mits je voorheen dus USB gebruikte) sterk gedaald (in de orde van meerdere Watt's). Daarna scheelt het echt maar minimaal (een paar watt idle hooguit per generatie, maar echt < 10W). Je kan tegenwoordig met tooltjes als CPU-Z zien hoeveel je CPU zelf vindt dat hij verbruikt. Dat is dus zonder verliezen. Vergelijk die getallen maar eens per generatie, dan zal je versteld staan hoe weinig het uitmaakt.

Het maakt meer uit of je de fabrikant van je moederbord zijn huiswerk gedaan heeft... Ik lees hier heel veel over moederborden die niet in PC6 kunnen vanwege brakke Realtek controllers of slechte BIOS/UEFI implementaties. Dat scheelt veel meer dan 1-2 generaties Intel CPU's.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Maar USB is I/O (southbridge) en geen core power. De core power is al sinds 45nm met High-K procédé (dat is Core 2 Duo 8400 bijvoorbeeld) enorm laag, volgens mij al <1W idle met alle power saving. Daarvoor, dus 65nm, dus Q6600 bijvoorbeeld, was de idle power juist erg hoog.

Kan er naast zitten; maar zo heb ik het onthouden. Tegenwoordig is de core power iets van 0.1 watt per core en dat is ziekelijk weinig. Maar door de southbridge in de processor te integreren (=SoC) kan de extra onzuinigheid worden weggewerkt; en dat is bij Core M en J1900 het geval. AMD heeft al langer SoC modellen.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 02-10 18:39
Ja klopt, maar de USB controller hield de CPU uit zijn deep sleep :)

Even niets...


Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 09:15
Verwijderd schreef op vrijdag 14 november 2014 @ 01:21:
Maar USB is I/O (southbridge) en geen core power. De core power is al sinds 45nm met High-K procédé (dat is Core 2 Duo 8400 bijvoorbeeld) enorm laag, volgens mij al <1W idle met alle power saving. Daarvoor, dus 65nm, dus Q6600 bijvoorbeeld, was de idle power juist erg hoog.

Kan er naast zitten; maar zo heb ik het onthouden. Tegenwoordig is de core power iets van 0.1 watt per core en dat is ziekelijk weinig. Maar door de southbridge in de processor te integreren (=SoC) kan de extra onzuinigheid worden weggewerkt; en dat is bij Core M en J1900 het geval. AMD heeft al langer SoC modellen.
Vraag mij altijd af of je OS dit moet ondersteunen? Heb nu een i72600k met FreeBSD maar heb niet het idee dat die nou zo zuinig is ondanks dat powerd loopt

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 02-10 18:39
Ja en nee, je OS moet die P/C-States wel ondersteunen, maar dat is niet het grootste probleem. Drivers en ACPI ondersteuning is een veel groter probleem. Windows bevat tal van 'quirks' om goed samen te werken met moederborden. En andersom ook, moederborden bouwen hun ACPI rond de standaarden van Windows, en testen deze veel minder op andere besturingssystemen.

Als je ziet wat een fouten ik bijvoorbeeld ben tegengekomen in de ACPI implementatie van mijn Biostar B85N, dat is echt om te huilen... (>50 compilerwarnings/fouten)

Even niets...


Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 26-09 15:54
Heeft er hier iemand een idee waarom ik een highpoint rocketraid 2340 niet wil werken via esxi passtrough, (of vraag ik dit best elders)? Zowel ESXi 5.5 als 5.1u2, en met guest 2008r2 en 2012r2.

ESXi heeft er niet echt problemen mee, ook in de guest OSsen zie ik de SCSi controllers, maar zodra ik drivers installeer onder windows, gaat het mis.
Win 2008r2 moet rebooten na installatie van de drivers, en dan blijft het OS laadscherm draaien.
Win 2012r2 kan zonder rebooten de drivers installeren, in drive management zie ik mijn array offline staan. En als ik deze online probeer te brengen, blijft drive manager hangen. Als ik dan reboot krijg ik hetzelfde verhaal als op 2008.

Nu is de 2340 wel een beetje een exotische kaart: Een PCIe to PCI bridge met daarachter 2 marvell sata controllers die samen moeten werken. RAID gebeurt in software met een streepje ondersteuning op de kaart. Misschien/waarschijnlijk zorgt dat voor problemen. Zo ziet het er uit in esxi:
Afbeeldingslocatie: http://www.genex.be/tweakers/esxi.png

De LSI2008 kan ik bijvoorbeeld wel perfect doorgeven.

Het doel is vooral om mijn data over te zetten naar een ZFS VM, en deze tijdelijk beschikbaar te houden zolang ik heel het ZFS gebeuren wat probeer te doorgronden. Uiteraard liefst zonder nog een toestel bij te plaatsen.

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 04-10 19:09
Dat is een brug te ver, een device doorgeven dat niet direct op een root port zit werkt (vrijwel?) nooit. Je RocketRAID moet in een ander PCIe-slot, eentje die niet via een bridge is aangesloten.

Ik vind hier dat het een PCIe-kaart is, maar waarom het dan op een Serial-to-Parallel-bridge zit? Hoe heb je dat ding in een PCI-X-slot gekregen? :+

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 26-09 15:54
Zoals gezegd, zo werkt de kaart dus gewoon. Het is ook een PCIe (serial) to PCI(-x) (parallel) bridge. De kaart steekt in een PCIe slot, maar er zit onboard een bridge om 2 klassieke PCI SATA controllers aan te sturen.
Nu is de 2340 wel een beetje een exotische kaart: Een PCIe to PCI bridge met daarachter 2 marvell sata controllers die samen moeten werken.
Meer info:
http://www.zdnet.com/highpoint-rocketraid-2340-1339296493/

[ Voor 24% gewijzigd door IceTeaGX op 14-11-2014 09:32 ]


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 04-10 19:09
Oh, op die fiets, dat stukje heb ik compleet over het hoofd gezien :o

Tja, dan ben ik bang dat het niet gaat werken...

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 26-09 15:54
http://kb.vmware.com/self...layKC&externalId=1010789:
When selecting the devices, ensure that you follow these restrictions:
- Devices behind PCI bridge or PCIe to PCI/PCI-X bridge should be passed to the same virtual machine.
Dit heb ik dus wel gedaan, maar het mag weer zo eenvoudig niet zijn.
Zit ik al 2 jaar te prutsen om dit systeem live te krijgen om dan te merken dat hetgeen ik er mee wil doen, niet gaat..

Misschien maar eens een andere hypervisor testen.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 02-10 18:39
Dit gaat alleen werken als die Port 5 ook PCIe SR-IOV ondersteund, en aan het gedimde vakje te zien doet hij dat niet. Denk niet dat dit gaat werken. Een andere HyperVisor zal niet veel helpen ben ik bang...

Even niets...


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 04-10 19:09
Het vakje is gedimd, niet de tekst :) Het vakje is gedimd omdat er 'downstream' een device is aangevinkt, als je iets met dat vakje wilt doen moet je eerst de vakjes downstream clearen.

Ik zeg overigens wel heel stellig dat iets achter een bridge doorgeven niet werkt, maar dat is vooral persoonlijke ervaring en een vage herinnering dat iemand anders op het internet zoiets ooit tegen mij heeft gezegd, dus ik kan het mis hebben :P

[ Voor 40% gewijzigd door Paul op 14-11-2014 10:19 ]

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 26-09 15:54
SR-IOV is iets dat niet veel buiten de netwerk sfeer komt blijkbaar. Laat staan dat het ondersteund wordt op een "creatieve" SATA RAID controller van xx jaar geleden.
Het moederbord heeft er op zich wel ondersteuning voor, staat ook aan in bios.
De gratis ESXi ondersteund dit dan weer niet (ik zit nu nog in trial, dus heb desnoods een 60 tal dagen deze luxe)
Ga ik weer creatief mogen beginnen doen. (where's the fun in an easy fix...)

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 02-10 18:39
SR-IOV betekend in de terminologie van VMware het gebruik van Virtual Ethernet Functions van netwerkkaarten, en dat is meer dan waar we het hier over hebben...
Eigenlijk moet ik het ook geen SR-IOV noemen, maar gewoon VT-d (of AMD-Vi in het geval van AMD).

SR-IOV is zoals de basis heet in de PCIe Specificatie, maar hoe het gebruikt wordt, verschilt per HyperVisor.

Je kan altijd met Physical RDM aan de slag icm die controller, mits er drivers zijn voor ESXi voor die Controller.

Even niets...


Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 26-09 15:54
FireDrunk schreef op vrijdag 14 november 2014 @ 10:51:
Je kan altijd met Physical RDM aan de slag icm die controller, mits er drivers zijn voor ESXi voor die Controller.
Mja, een creatieve quasi soft-raid controller, zonder cache of bbu opties. Staat niet bepaald hoog op de prioriteitlijst denk ik. Heb er ook al even achter gezocht, maar zelfs third party drivers kan ik er niet voor vinden.

Eventueel met een RAID controller die geen bridge gebruikt, maar wel de array herkend. Het is een 8 drive RAID5 array, dus een kleinere controller kan wel, enkel die array herkennen gaat voor problemen zorgen. SFF-8087 en niet te duur zou ideaal zijn.

Zowat het meest mogelijk compatibele dat ik heb gevonden.
V&A aangeboden: Highpoint RocketRAID 2720

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 02-10 18:39
Mja, kan je niet beter migreren naar ZFS of Software RAID dan? :P

[ Voor 15% gewijzigd door FireDrunk op 14-11-2014 11:12 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 26-09 15:54
Dat is de bedoeling (vandaar de LSI2008)
Maar omdat ik daar nog niet 100% mee overweg kan, wou ik dit als testcase toepassen, terwijl mijn data toch "veilig" en beschikbaar blijft. Dit tot ik vlotjes overweg kan met een ZFS implementatie.
Overzetten van data moet dan ook via een extern toestel, wat toch ook weer net iets minder praktisch is dan via VMXNET3 10GBe adapters.
En ik heb nog maar 4 * 4TB schijven, en ik wil er 6 in RAIDz2. (ik wou dual degraded of een 2+2 RAIDz2 draaien, als testcase)

Ik heb nog een een BR10i (voorloper M1015) Maar deze ondersteunt geen RAID5.
Ergens had ik nog een areca, maar weet niet of deze nog werkte (ergens uit de sloop getrokken, en nog niet getest)

Acties:
  • 0 Henk 'm!

  • Midas.e
  • Registratie: Juni 2008
  • Laatst online: 30-09 10:12

Midas.e

Is handig met dinges

Voor wie een asrock C2550D4I heeft draaien, daar is een nieuwe bios voor uitgekomen welke voor mij een hoop ellende fixt wat ik vanaf het begin heb gehad. Namelijk het random vastlopen waarna je een forced reboot moest uitvoeren. http://www.asrockrack.com...p?Model=C2550D4I#Download

Hacktheplanet / PVOutput


Acties:
  • 0 Henk 'm!

  • TrsvK
  • Registratie: September 2006
  • Laatst online: 16-09 16:46
Midas.e schreef op vrijdag 14 november 2014 @ 11:29:
Voor wie een asrock C2550D4I heeft draaien, daar is een nieuwe bios voor uitgekomen welke voor mij een hoop ellende fixt wat ik vanaf het begin heb gehad. Namelijk het random vastlopen waarna je een forced reboot moest uitvoeren. http://www.asrockrack.com...p?Model=C2550D4I#Download
goede tip!

Bedankt voor alle reacties allemaal. Erg fijn dat jullie er zo lekker op zijn gesprongen met z'n allen :). Ik zal mn tweede netwerkkaart dus maar uit de bestellijst halen en genoegen nemen met 1Gb/user.

Ik kreeg gisteren bericht van WD dat mijn schijven zijn aangekomen en worden doorgestuurd. Ik zal jullie laten weten of ik vervangende exemplaren toegestuurd krijg.

Acties:
  • 0 Henk 'm!

  • Harrie
  • Registratie: November 2000
  • Laatst online: 08:24

Harrie

NederVlaming

MTDjassen schreef op maandag 20 oktober 2014 @ 15:45:
[...]


Ik was voor €500 ongeveer klaar denk ik, met een relatief zuinige en stille opstelling die max 80W trekt, maar doorgaans veel minder. Zie:

#ProductPrijsSubtotaal
1ASRock Q1900DC-ITX€ 98,-€ 98,-
3WD Green WD20EZRX€ 71,49€ 214,47
1Antec VSK-3000E€ 21,01€ 21,01
1Intel Gigabit CT Desktop Adapter€ 22,51€ 22,51
2Crucial CT102464BF160B€ 61,95€ 123,90
1Seasonic Power Adapter 80 Watt (12V)€ 30,-€ 30,-
Bekijk collectie
Importeer producten
Totaal€ 509,89


Zonder de 3 schijven dus zo'n €300.- en dan kun je eventueel nog ervoor kiezen om een reepje mem achterwege te laten, als je echt wilt besparen.

Had deze setup eerst met 8GB mem en zonder aparte netwerkkaart (NIC), maar die NIC die onboard zit op dat MoBo wordt niet (cq. amper/slecht) ondersteund door FreeNAS. Dat is sowieso een gouden tip voordat je gaat kopen: check de compatibility van je hardware (met name je NIC, dus, realtek wordt bv sterk afgeraden) met FreeNAS, hierover zijn voldoende topics/documenten te vinden op de freeNAS site.

[....]
MTDjassen, wat bedoel je met amper/slechte ondersteuning? Wat voor problemen had je dan met de Realtek interface?

Ik heb in deze thread al verschillende users gezien met het Q1900DC bordje. Gebruiken jullie allemaal een extra Intel netwerk kaart?

De reden waarom ik dit vraag is dat ik een zeer compacte build wil maken, in een case waar geen ruimte is voor een extra netwerk-kaart.

Acties:
  • 0 Henk 'm!

  • MTDjassen
  • Registratie: Juli 2011
  • Laatst online: 03-10 15:55
Zie mijn topic hier: https://forums.freenas.or...bility.23694/#post-144733.

had last van slechte connectiviteit van vooral de Transmission plugin, maar dat er bleek meer te spelen. Ik kreeg enorm veel listen queue overflow errors als ik dmesg runde. Dit kwam door de on-board realtek NIC die schijnbaar (alhoewel hier op het forum milder wordt gesproken over realtek) slechts mondjesmaat en zeer brak wordt ondersteund door freeBSD/freenas. Als je geen ruimte hebt om een extra kaartje in te prikken zou ik niet voor een onboard realtek NIC gaan, want dan kan potentieel grote gevolgen hebben znoder dat je die makkelijk kunt oplossen.

Edit: een van de quotes van dat forum:
Umm... you are using re0 (realtek). We know it's a major problem across the board. So first things first, get a NIC that is worth something.... buy an Intel and get rid of the realtek.

If you'd googled at all you'd know one thing.. Realteks suck for every conceivable reason and why you'd use it and then expect it to work is beyond me. :p

Other than that, yes, I'm going to avoid commenting in this thread. Buy non-standard parts, expect a non-standard experience.

[ Voor 28% gewijzigd door MTDjassen op 16-11-2014 15:02 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Probleem is vooral dat FreeNAS oudere versies van BSD draait. Maar een Intel CT kaartje kost maar een paar tientjes dus dat kun je denk ik prima rechtvaardigen. Ik gebruik de Realtek NICs op ZFSguru met modernere BSD versie zonder problemen; maar sommige revisies van Realtek hebben nog steeds wel problemen waar af en toe commits (updates) voor komen in de BSD drivers.

In de meeste gevallen geldt: probeer het en als het werkt kun je twee tientjes + wat idle power consumption besparen. Als je voor FreeNAS gaat zou ik zeker een Intel kaartje erin stoppen. Maar er zijn wel meer issues vanwege de verouderde BSD releases die FreeNAS gebruikt. Loopt gewoon een aantal jaar achter.

Acties:
  • 0 Henk 'm!

  • MTDjassen
  • Registratie: Juli 2011
  • Laatst online: 03-10 15:55
ja precies, maar het ding was dus zijn compacte build waar geen extra NIC bij past, dan is het advies dus (lijkt me) de gok niet wagen als je freeNAS wilt draaien.

Acties:
  • 0 Henk 'm!

Verwijderd

Voor FreeNAS inderdaad altijd een CT kaartje. Een compact build kun je altijd met een riser werken. Zo groot zijn die CT kaartjes niet dat moet altijd lukken. Sowieso is CT maar half height. Dus ik weet niet wat voor behuizing je hebt maar zou het sterk vinden als dat echt niet zou passen.

En in dat geval dat je echt een extreem kleine kast hebt (5cm hoog?) kun je beter voor een ander bord gaan met dual Intel NIC bijvoorbeeld. Die zijn er ook. Maar nieuwe Intel NICs hebben ook problemen met oudere BSD versies, dus daar geldt eigenlijk hetzelfde probleem.

Acties:
  • 0 Henk 'm!

  • Harrie
  • Registratie: November 2000
  • Laatst online: 08:24

Harrie

NederVlaming

Bedankt voor jullie uitgebreide reactie.

De coolcube mini heeft geen open slot aan de achterkant.
De extra ruimte die vrij komt door geen interne voeding te plaatsen, icm een erg lage CPU koeler wil ik gebruiken om meerdere schijven erin te plaatsen.

Hier een eerste mockup: https://docs.google.com/f...bUU/edit?usp=docslist_api

https://docs.google.com/f...LWM/edit?usp=docslist_api

Ik zal het gewoon eerst proberen inderdaad. Moest het nodig zijn kan ik er altijd wel een opening voor een netwerkkaart in modden. Dan moet ik het diy hdd rack wat aanpassen (de onderste positie opofferen), maar zoveel schijven ga ik waarschijnlijk toch niet plaatsen.

[ Voor 3% gewijzigd door Harrie op 16-11-2014 19:34 ]


Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 09:15
Verwijderd schreef op zondag 16 november 2014 @ 15:12:
Probleem is vooral dat FreeNAS oudere versies van BSD draait. Maar een Intel CT kaartje kost maar een paar tientjes dus dat kun je denk ik prima rechtvaardigen. Ik gebruik de Realtek NICs op ZFSguru met modernere BSD versie zonder problemen; maar sommige revisies van Realtek hebben nog steeds wel problemen waar af en toe commits (updates) voor komen in de BSD drivers.

In de meeste gevallen geldt: probeer het en als het werkt kun je twee tientjes + wat idle power consumption besparen. Als je voor FreeNAS gaat zou ik zeker een Intel kaartje erin stoppen. Maar er zijn wel meer issues vanwege de verouderde BSD releases die FreeNAS gebruikt. Loopt gewoon een aantal jaar achter.
Er zijn al alpha builds van freenas met FB 10. Maar voordat er een echte release is zal het nog wel even duren.

Acties:
  • 0 Henk 'm!

Verwijderd

Ja hoezo dan, denk ik dan. 10.0 is uit, 10.1 is uit. Waarom hadden ze twee jaar geleden geen 10.0 stable uit kunnen brengen?

FreeNAS is een beetje op dezelfde toer als Debian: alles moet jaren oud zijn dan pas wordt het stabiel genoemd. Maar dat kent dus ook nadelen: alle fixes voor hardware en andere bugs ga je missen omdat je ze veels te laat krijgt, en het eet in op je hardware compatibility.

Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 09:15
Verwijderd schreef op maandag 17 november 2014 @ 13:04:
Ja hoezo dan, denk ik dan. 10.0 is uit, 10.1 is uit. Waarom hadden ze twee jaar geleden geen 10.0 stable uit kunnen brengen?

FreeNAS is een beetje op dezelfde toer als Debian: alles moet jaren oud zijn dan pas wordt het stabiel genoemd. Maar dat kent dus ook nadelen: alle fixes voor hardware en andere bugs ga je missen omdat je ze veels te laat krijgt, en het eet in op je hardware compatibility.
Ben het met je eens dat het allemaal wel erg lang duurt. Ze hadden al lang op 10 kunnen zitten. Maar goed Freenas 10 komt eraan : https://bugs.freenas.org/projects/freenas/roadmap

Volgens mij deden ze wel aan backport van bv de kernel iscsi.

Acties:
  • 0 Henk 'm!

Verwijderd

10.0-alpha, terwijl 10.0 al een jaar geleden werd uitgebracht. 10.1 is nu ook uit, en de 10.2 (STABLE) branch is begonnen.

Mijn punt is dus: FreeNAS volgt een beetje dezelfde filosofie als Debian Linux. En die filosofie sluit niet goed aan bij wat ik zelf wil. Ik draai namelijk bijna altijd de -STABLE branch. Dat is dus b.v. wat nu 10.2 genoemd kan worden. 10.1 is een RELEASE branch, terwijl de 10-STABLE branch is wat straks 10.2 gaat worden.

In de -STABLE branch worden commits uit -CURRENT (11.0) gemerged (merge from current; MFC) na meestal 2 weken eerst in -CURRENT gezeten te hebben. In een enkele keer gaat er wel iets mis en moet er een commit teruggedraaid worden; maar normaliter is -STABLE echt prima bruikbaar. En zo heb je wel de nieuwste fixes en nieuwste functionaliteit die als stabiel genoeg geacht wordt.

Wat dat betreft ben ik wel blij dat ZFSguru zoveel werk heeft verricht aan de automated builds; want wekelijks nieuwe systeemversies uitpersen is wel een stuk fijner dan een half jaar werken aan een nieuwe release. Voordeel van de FreeNAS methode is wel dat hun releases waarschijnlijk erg goed getest zijn, maar dat kent dus ook zijn prijs, met nadelen die ik mijn vorige post noemde.

Acties:
  • 0 Henk 'm!

  • joopworst
  • Registratie: Oktober 2004
  • Laatst online: 06-06 09:20
Ik heb nog een oude Linux server staan die ik wil gaan inzetten als off-site backup syteem voor een nieuwe server die Freenas draait.

De oude server draait Linux Ubuntu Server 12.04 LTS en heeft 2x 5disks RAID5 array op een Areca 1231ML. Nu moet deze overgezet worden naar Freenas om gemakkelijk van de backup functionaliteit gebruik te kunnen maken. Ik heb gelezen dat Freenas Areca kaarten ondersteunt via FreeBSD alleen twijfel ik aan de implementatie.

Is het handig om alle disks op de Areca in Pass-Through mode te zetten en over te gaan op RaidZ3 of kan ik de twee RAID5 arrays gewoon binnen Freenas gebruiken, of een combinatie van de 2.

Bij een combinatie ben ik een beetje bang voor dubbele redundantie.

Ik hoor het graag!

Quid est fili?!


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 03-10 10:04

Pantagruel

Mijn 80486 was snel,....was!

joopworst schreef op dinsdag 18 november 2014 @ 16:04:
Ik heb nog een oude Linux server staan die ik wil gaan inzetten als off-site backup syteem voor een nieuwe server die Freenas draait.

De oude server draait Linux Ubuntu Server 12.04 LTS en heeft 2x 5disks RAID5 array op een Areca 1231ML. Nu moet deze overgezet worden naar Freenas om gemakkelijk van de backup functionaliteit gebruik te kunnen maken. Ik heb gelezen dat Freenas Areca kaarten ondersteunt via FreeBSD alleen twijfel ik aan de implementatie.

Is het handig om alle disks op de Areca in Pass-Through mode te zetten en over te gaan op RaidZ3 of kan ik de twee RAID5 arrays gewoon binnen Freenas gebruiken, of een combinatie van de 2.

Bij een combinatie ben ik een beetje bang voor dubbele redundantie.

Ik hoor het graag!
Het adagio is dat je voor ZFS geen dedicated RAID controller inzet, ook niet een die ogenschijnlijk passthrough mode ondersteund, maar een HBA (iets a la M1015, LSI 9211-8i,etc) om problemen tussen de RAID chip en de functionaliteit van ZFS zelf te voorkomen. Je wilt namelijk niet dat de RAID controller je hardeschijf, ivm een time-out, uit de array knikkert, terwijl ZFS nog bezig kan zijn om de data te herstellen.

Mijn persoonlijke ervaring met een Areca (arc-122x) in passthrough mode en ZFS waren belabberd. Er was geloof ik ik één Aeca controller die wel netjes wilde spelen met ZFS, maar om daar nu je geld op te zetten.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

Verwijderd

Je kunt een RAID controller van Areca niet veilig gebruiken voor ZFS. Je pool kan corrupt raken door reordered writes na een FLUSH request, iets wat RAID controllers zoals Areca doen bij write-back, en je disks kunnen uit de RAID set vallen bij bad sectors en andere timeouts. Dat laatste gebeurt ook met de controller in JBOD mode of individuele disks in passthrough mode. Het is wel mogelijk dat nieuwere firmware (dan versie 1.44) de laatstgenoemde problemen niet heeft; ik heb enkel tot firmware 1.44 getest.

Acties:
  • 0 Henk 'm!

  • Harrie
  • Registratie: November 2000
  • Laatst online: 08:24

Harrie

NederVlaming

Ik heb dan uiteindelijk ook de overige hardware voor mijn build besteld:

#ProductPrijsSubtotaal
1ASRock Q1900DC-ITX€ 96,12€ 96,12
3WD Green WD30EZRX€ 92,50€ 277,50
1Cooler Master NA 90€ 22,95€ 22,95
1Kingston ValueRAM KVR16LS11/8€ 69,95€ 69,95
Bekijk collectie
Importeer producten
Totaal€ 466,52


Dit is dus wel een 19V voeding, maar wel eentje welke een 90% rendement zou hebben volgens Cooler Master. Wel nog getwijfeld tussen de 65 Watt variant en de 90 Watt variant. De efficientie van de 2 is hetzelfde bij lage belasting, dus dan maar de grotere gekozen.

Acties:
  • 0 Henk 'm!

  • MTDjassen
  • Registratie: Juli 2011
  • Laatst online: 03-10 15:55
Lijkt erg op mijn build. Niet vergeten WDIDLE te draaien. Succes ermee.

- Edit, ben wel benieuwd naar je uiteindelijk case. Ik draai nu 3 schijven een mini-ATX bordje in een belachelijk grote kast, zou ik graag nog een keertje omzetten.

[ Voor 54% gewijzigd door MTDjassen op 18-11-2014 22:14 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Je kunt ook gewoon een 12V-voeding gebruiken. Dat wordt niet vermeld, maar werkt wel. Zelf getest want ik heb dat bordje ook. PicoPSU was overigens net iets zuiniger dan de onboard DC-DC voeding die dit bordje had. +12V voedingsblok was ook zuiniger dan het 19V-voedingsblok dat ik had.

Acties:
  • 0 Henk 'm!

  • Slenger
  • Registratie: April 2008
  • Laatst online: 03-10 14:32
Harrie schreef op dinsdag 18 november 2014 @ 22:04:
Ik heb dan uiteindelijk ook de overige hardware voor mijn build besteld:

#ProductPrijsSubtotaal
1ASRock Q1900DC-ITX€ 96,12€ 96,12


Dit is dus wel een 19V voeding, maar wel eentje welke een 90% rendement zou hebben volgens Cooler Master. Wel nog getwijfeld tussen de 65 Watt variant en de 90 Watt variant. De efficientie van de 2 is hetzelfde bij lage belasting, dus dan maar de grotere gekozen.
Zou jij mij kunnen laten weten hoe jij de harde schijven van stroom hebt voorzien?
Ik zit ook over dit bord te twijfelen alleen ik vraag me af hoe ik 2 HDD's en 1 SSD van power moet voorzien.

Acties:
  • 0 Henk 'm!

  • _Arthur
  • Registratie: Juli 2001
  • Laatst online: 12:14

_Arthur

blub

Slenger schreef op woensdag 19 november 2014 @ 08:42:
Zou jij mij kunnen laten weten hoe jij de harde schijven van stroom hebt voorzien?
Ik zit ook over dit bord te twijfelen alleen ik vraag me af hoe ik 2 HDD's en 1 SSD van power moet voorzien.
Het bordje komt met 2x een onboard power kabel voor 2 maal 2 SATA devices.

Zie deze post: http://forum.hardware.fr/...et_941195_46.htm#t9170586

Acties:
  • 0 Henk 'm!

  • Xufuja
  • Registratie: Oktober 2011
  • Laatst online: 20-08 21:25
Ik heb dit topic wat doorgelezen en keuzes gebaseerd op hardware lists van de laatste 2 pagina's en ik kom dus hier op uit:

#ProductPrijsSubtotaal
1ASRock Q1900DC-ITX€ 96,12€ 96,12
3WD Green WD20EZRX€ 72,50€ 217,50
1Cooler Master Elite 130€ 38,95€ 38,95
1Cooler Master NA 90€ 22,95€ 22,95
1Crucial CT2KIT51264BF160BJ€ 63,95€ 63,95
Bekijk collectie
Importeer producten
Totaal€ 439,47


Ik denk dat dit allemaal wel compatible is (RAM zou goed moeten zitten) alleen ik heb nog wat vragen.
Als eerste, de power supply, is zo'n adapter echt genoeg voor langdurig gebruik? Verder nog de schijven, ik heb nog een WD Elements 2TB external liggen hier maar is het mogelijk om die te openen en gewoon in de NAS te steken in combinatie met de WD greens? Over het OS ben ik nog niet helemaal uit maar ik hoor goede dingen over FreeNAS.

Acties:
  • 0 Henk 'm!

Verwijderd

Dat geheugen raad ik af. CL11 en 2x 4GiB en dat zou ik dus zelf nooit doen. Kun je niet meer uitbreiden. Dit is dezelfde prijs maar CL9 en zoals het hoort één module van 8GiB zodat je nog kunt uitbreiden naar 16GiB later:
pricewatch: Crucial CT102464BF1339

Ik heb het bordje zelf en deze ondersteunt ook +12V adapters en je kunt prima tot 5 (moderne) schijven aansluiten. Bedenk wel dat oudere schijven meer spinup current nodig hebben; dus oudere schijven kun je voor anderhalf of twee tellen. Vergeet ook geen SATA splitter: pricewatch: Silverstone SST-CP06 4x SATA.

FreeNAS is juist voor dit bordje minder goed omdat FreeNAS achterloopt op systeemversies en daardoor de Realtek-adapter problemen kan geven. Wil je voor FreeNAS gaan dan heb je nog een extra Intel PRO/1000 CT netwerkadapter nodig.

[ Voor 8% gewijzigd door Verwijderd op 19-11-2014 19:34 ]


Acties:
  • 0 Henk 'm!

  • Xufuja
  • Registratie: Oktober 2011
  • Laatst online: 20-08 21:25
Bedankt voor de tip over de RAM. En misschien een domme vraag maar vanwaar die splitter? Er zitten toch genoeg SATA poorten op? Verder nog, wat voor OS zou goed zijn? Aangezien dit allemaal nieuw voor me is weet ik niet wat geschikt of ongeschikt is.

Acties:
  • 0 Henk 'm!

Verwijderd

Twee, en jij wilt drie schijven + misschien een SSD, dus dan heb je er toch vier nodig?

Acties:
  • 0 Henk 'm!

  • Harrie
  • Registratie: November 2000
  • Laatst online: 08:24

Harrie

NederVlaming

Verwijderd schreef op woensdag 19 november 2014 @ 19:46:
Twee, en jij wilt drie schijven + misschien een SSD, dus dan heb je er toch vier nodig?
Ik ging er vanuit dat de bijgeleverde kabels van 1 connector op het moederbord elk 2 sata power connectors voor schijven hebben. Dat is dus niet het geval?

Ik had deze afbeelding gezien:
Afbeeldingslocatie: http://reho.st/self/92447259c9c9bad32c1759a2e4ac4f0a8e15f688.jpg
Ik dacht dus dat die witte connector op het moederbord moet en dat er dan 2 zwarte sata connectors aanzitten?

edit:Hier lijken het toch ook 2x 2 = 4 sata power connectors te zijn?
Afbeeldingslocatie: http://i.ebayimg.com/00/s/NDgwWDY0MA==/z/GKgAAOSwGiRTqy3~/$_12.JPG

Edit2: Ik zie nu ook de post van _Arthur_Arthur in "Het grote DIY RAID NAS topic deel 3" Tot 4 schijven zou dus ok moeten zijn.

[ Voor 20% gewijzigd door Harrie op 19-11-2014 20:19 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Oh dan heb ik het verkeerd onthouden; ik dacht dat het zwarte gedeelte in het moederbord ging.

Edit: net even gekeken bij mij; ik was in de war met het ASRock AM1H-ITX bordje; de AMD tegenhanger van de Intel J1900. Die heeft dus wel een zwartkleurige SATA-achtige stekker op het moederbord. Bij de Q1900DC-ITX zijn dat twee kleine witkleurige connectors.

Dus inderdaad, dan heb je geen extra splitter nodig.

[ Voor 65% gewijzigd door Verwijderd op 19-11-2014 20:34 ]


Acties:
  • 0 Henk 'm!

  • Xufuja
  • Registratie: Oktober 2011
  • Laatst online: 20-08 21:25
Dus die splitter is niet nodig, correct?

Acties:
  • 0 Henk 'm!

  • rikadoo
  • Registratie: Oktober 2007
  • Niet online
Die witte kabels zijn voor een functie hdd saver van asrock, ik heb het ook op de ASRock Z97 Extreme6 zitten. In windows kun je dan de voltage (power) naar de schrijven stoppen, soort van hotplug doormiddel van power (handig bij schrijven die je niet (vaak) gebruikt.

Ik denk dat je die gewoon kunt gebruiken als powertoevoer naar de HDD`s.

[ Voor 12% gewijzigd door rikadoo op 19-11-2014 20:38 ]

AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x Asus RoG XG27AQDMG | 1x LG UltraGear 27GL850


Acties:
  • 0 Henk 'm!

  • MTDjassen
  • Registratie: Juli 2011
  • Laatst online: 03-10 15:55
Ik heb dit bordje met 3 schijven en geen splitter.

Acties:
  • 0 Henk 'm!

  • Xufuja
  • Registratie: Oktober 2011
  • Laatst online: 20-08 21:25
MTDjassen schreef op woensdag 19 november 2014 @ 21:18:
Ik heb dit bordje met 3 schijven en geen splitter.
Ah ok, dan hier mijn updated list:

#ProductPrijsSubtotaal
1ASRock Q1900DC-ITX€ 96,12€ 96,12
3Toshiba DT01ACA200, 2TB€ 67,29€ 201,87
1Cooler Master Elite 130€ 38,95€ 38,95
1Cooler Master NA 90€ 22,95€ 22,95
1Crucial CT102464BF1339€ 65,-€ 65,-
Bekijk collectie
Importeer producten
Totaal€ 424,89


RAM veranderd zoals aangegeven en de schijven veranderd omdat ik veel goede dingen heb gelezen over Toshiba en wat negatievere dingen over WD greens.

//edit Iemand ervaring met XPEnology?
//edit Ik zie net dat die RAM overal is uitverkocht toen ik prijzen wilde berekenen. In de pricewatch even iets vergelijkbaars gezocht en kwam uit op dit: pricewatch: Kingston ValueRAM KVR16LS11/8
//edit Ok, nevermind, na wat meer research te hebben gedaan denk ik dat dit iets te duur gaat worden wat het niet helemaal waard is.

[ Voor 7% gewijzigd door Xufuja op 19-11-2014 23:52 ]


Acties:
  • 0 Henk 'm!

  • Nindustries
  • Registratie: Januari 2012
  • Laatst online: 17-09 15:03
Bekijk zeker XPenology.nl voor tutorials, die vent daar heeft alles mooi opgesomt.

~ beware of misinformation.


Verwijderd

//edit Ok, nevermind, na wat meer research te hebben gedaan denk ik dat dit iets te duur gaat worden wat het niet helemaal waard is.
Jammer om dit te horen. Mag ik vragen, wat vind je er precies duur aan? Je hebt voor 222 euro een compleet systeem exclusief schijven, met quadcore chip en 8GiB geheugen en een mooie kast.

Veel mensen kopen voor het dubbele een Synology ex schijven en daar zit een zielig ARM chipje en 1GiB geheugen in. Dus ik snap niet zo goed dat je op het punt van prijs afhaakt.

Uiteraard jouw keuze; het is jouw geld! Maar lijkt me toch een mooie investering om je data veilig te hebben en centraal opgeslagen te hebben?

  • _Arthur
  • Registratie: Juli 2001
  • Laatst online: 12:14

_Arthur

blub

Verwijderd schreef op donderdag 20 november 2014 @ 01:47:
Veel mensen kopen voor het dubbele een Synology ex schijven en daar zit een zielig ARM chipje en 1GiB geheugen in. Dus ik snap niet zo goed dat je op het punt van prijs afhaakt.
Synologys hebben dan wel weer een aardig fatsoenlijk stukje software er bij; waar men gewoon op door ontwikkeld en met gratis support (al eens nodig gehad toen een raid array foetsie was, na 24/36uur was het opgelost remote door een support medewerker). Ook dat is natuurlijk wel 'iets' waard, als je de software zelf niet bij elkaar wilt klussen.

Verwijderd

De beschikbare NAS platforms hebben ook hun voordelen, zoals ZFS ondersteuning hetgeen je bij Synology weer mist. Dat is dé reden om voor zelfbouw te gaan, afgezien van de lagere prijs en betere hardware.

En gratis ondersteuning heb je bij de ZFS platforms weer in de vorm van community support. In sommige gevallen is die van hogere (technische) kwaliteit dan de veelal geautomatiseerde commerciële support bij commerciële NASen als Synology.

Alle keuzes hebben voor- en nadelen. Maar om bij zelfbouw af te haken op het punt van prijs, vind ik toch eigenaardig. Juist zelfbouw is grofweg de helft goedkoper terwijl je dubbel zo goede hardware krijgt.

  • _Arthur
  • Registratie: Juli 2001
  • Laatst online: 12:14

_Arthur

blub

Verwijderd schreef op donderdag 20 november 2014 @ 08:19:
de veelal geautomatiseerde commerciële support bij commerciële NASen als Synology.
Geautomatiseerde support? Wut? Wij hadden gewoon contact met een mannetje hoor, die handmatig de problemen hersteld heeft.

Alle twee hebben zo hun voor en nadelen, heb zelf thuis ook gewoon een zelfbouw ding staan.

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 26-09 15:54
Kort vraagje, weet er iemand hoe je een IMB BR10i naar IT mode kan flashen -zonder BIOS-
(firmware flash lukt dus wel, maar dan blijft de oude boot bios staan)

Voor de M1015 heb ik dit gevonden, maar die tools werken niet op de BR10i

  • rikadoo
  • Registratie: Oktober 2007
  • Niet online
IceTeaGX schreef op donderdag 20 november 2014 @ 09:24:
Kort vraagje, weet er iemand hoe je een IMB BR10i naar IT mode kan flashen -zonder BIOS-
(firmware flash lukt dus wel, maar dan blijft de oude boot bios staan)

Voor de M1015 heb ik dit gevonden, maar die tools werken niet op de BR10i
Google:

http://www.virtualistic.nl/archives/750

AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x Asus RoG XG27AQDMG | 1x LG UltraGear 27GL850


  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 26-09 15:54
Lezen:
IceTeaGX schreef op donderdag 20 november 2014 @ 09:24:
Kort vraagje, weet er iemand hoe je een IMB BR10i naar IT mode kan flashen -zonder BIOS-
(firmware flash lukt dus wel, maar dan blijft de oude boot bios staan)

Voor de M1015 heb ik dit gevonden, maar die tools werken niet op de BR10i
Ik wil dus geen option ROM om het bootproces te versnellen.

PS voor de geïnteresseerden: De sasflash handleiding geeft de oplossing: (google sasflash)
optie -o (advanced options)
optie -e (erase) 5 (slaat op bootgedeelte)

[ Voor 16% gewijzigd door IceTeaGX op 20-11-2014 10:06 ]


  • Nindustries
  • Registratie: Januari 2012
  • Laatst online: 17-09 15:03
Dat j1900 bordje is wel (in combinatie met een Intel nicje) wel wreed interessant als pfSense bordje seg..
Nu nog een mini mITX behuizing zoeken waar een extension card in past! Rackmount 1U behuizingen komen altijd zo duur uit.. :-(

Heb gezien dat er zoiets bestaat voor de alombekende M350 behuizing, maar dat is enkel als je io-aansluitingen lager komen te liggen en voor een specifiek moederbord.

Edit: Of ik moet mijn nicje laten liggen en dit moederbord gebruiken.

[ Voor 14% gewijzigd door Nindustries op 20-11-2014 14:22 ]

~ beware of misinformation.


  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 26-09 15:54
Spijtig genoeg realtec nics.
En ook geen AES-NI moest je het willen gebruiken.
Natuurlijk aanzienlijk goedkoper dan diegene dat het wel hebben (300 euro avotons)

  • Nindustries
  • Registratie: Januari 2012
  • Laatst online: 17-09 15:03
IceTeaGX schreef op donderdag 20 november 2014 @ 14:48:
Spijtig genoeg realtec nics.
En ook geen AES-NI moest je het willen gebruiken.
Natuurlijk aanzienlijk goedkoper dan diegene dat het wel hebben (300 euro avotons)
Sure, maar aangezien het beste internetabonnement hier 160 megabit/s is (= 20 MB/s) zal ik hier niets van merken.
pfSense ondersteunt geen AES-NI dacht ik? Either way luk een VPN verbinding nog steeds op de CPU.

~ beware of misinformation.


  • CooleSmurf
  • Registratie: Januari 2010
  • Laatst online: 05-10 19:29
pfSense heeft wel experimentele ondersteuning voor AES-NI, zie link

  • RedDashGuy
  • Registratie: Maart 2014
  • Laatst online: 01:55
Ik weet niet of ik het hier goed plaats maar aangezien hier genoeg mensen met verstand van RAID zitten wil ik toch een gokje wagen.

Gisteren heb ik in een systeem van een vriend van mij met 3 WD schijven een RAID5 opgezet.
Dit heb ik gedaan met de RAID controller op het moederbord (een Gigabyte GA-970A-UD3P)
Echterbij het opstarten van win8 wordt de RAID niet weergegeven in schijfbeheer maar alleen de afzonderlijke WD schijven.

Ik heb nog een paar keer in de bios instellinge gekeken maar daar wordt de RAID wel gewoon herkent ;/

weet iemand hoe ik dit kan oplossen?

Verwijderd

@RedDashGuy: dit topic gaat over het bouwen van een NAS systeem. Jouw probleem hoort niet in dit topic. Gelieve je eigen topic aanmaken.

Toch stiekem een kleine tip: schakel je controller in op RAID modus in het BIOS.

  • Xufuja
  • Registratie: Oktober 2011
  • Laatst online: 20-08 21:25
Verwijderd schreef op donderdag 20 november 2014 @ 01:47:
[...]

Jammer om dit te horen. Mag ik vragen, wat vind je er precies duur aan? Je hebt voor 222 euro een compleet systeem exclusief schijven, met quadcore chip en 8GiB geheugen en een mooie kast.

Veel mensen kopen voor het dubbele een Synology ex schijven en daar zit een zielig ARM chipje en 1GiB geheugen in. Dus ik snap niet zo goed dat je op het punt van prijs afhaakt.

Uiteraard jouw keuze; het is jouw geld! Maar lijkt me toch een mooie investering om je data veilig te hebben en centraal opgeslagen te hebben?
Pricewatch prijzen waren niet geheel accuraat en ik zou uitkomen rond de 470. Daarna las ik een hoop horrorverhalen over non-ECC RAM en ben ik afgehaakt.

Verwijderd

Creqaw schreef op donderdag 20 november 2014 @ 18:27:
[...]


Pricewatch prijzen waren niet geheel accuraat en ik zou uitkomen rond de 470. Daarna las ik een hoop horrorverhalen over non-ECC RAM en ben ik afgehaakt.
euh, die horror verhalen zijn een 'beetje' overdreven. Ja ECC is onbetwist beter dan non ECC, maar dat wil niet zeggen dat het zonder slecht is. En die Synologies van deze wereld hebben ook geen ECC.

Je laat je bang maken om een voor de meesten non-issue. De use cases waarbij het wel van belang is zijn beperkt.

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 02-10 14:39
Creqaw schreef op donderdag 20 november 2014 @ 18:27:
Pricewatch prijzen waren niet geheel accuraat en ik zou uitkomen rond de 470. Daarna las ik een hoop horrorverhalen over non-ECC RAM en ben ik afgehaakt.
Het hele ECC verhaal over het wel of niet gebruiken van ECC geheugen is gebaseerd of FUD van mensen die de klok hebben horen luiden, maar niet weten waar de klepel is, maar ook nog eens niet weten hoe de bel er zelfs uit ziet.

ECC geheugen is essentieel voor mission critical systemen, een simpele thuis NAS valt zeker niet onder die categorie, en RAIDZ zelfs zonder ECC, is iig nog steeds iets van een factor 10+ veiliger dan NTFS, en waarschijnlijk nog een een stuk beter dan dat, heb daar helaas geen harde cijfers voor om dat aan te tonen.

Heb in mijn back-up server wel ECC geheugen zitten, maar dat is puur omdat het minder dan 10% duurder was dan gewoon geheugen, en de CPU en mobo dat ik voor die server gebruik het al ondersteunde en het al had, anders had ik gewoon non-ECC geheugen gebruikt.
Verwijderd schreef op donderdag 13 november 2014 @ 14:41:
Tja, de FUD-machine van ECC zeeloten draait overuren kennelijk. Maar je hoeft je van al die onzin niets aan te trekken.

In al mijn ervaring van mensen die ik spreek met problemen; is het nog nooit voorgekomen dat ik iemand met een kapotte file heb gezien waarbij de redundancy niet is aangetast. Kortom, dat je files stuk gaan door non-ECC RAM is een extreem geval. Het grootste probleem is dat je zonder ECC RAM je End-to-End protection verliest. Maar permanente corruptie is zeer uitzonderlijk. Gedurende mijn tests met corrupt RAM kon alle corruptie weer worden hersteld na een scrub met goed geheugen. Sowieso kun je door de checksums altijd vaststellen of er corruptie heeft plaatsgevonden. Dus checksums uitschakelen is totaal van de zotte.
Waar het op neer komt, als er in hele absurd extreme gevallen ZFS files kapot gaan omdat je geen ECC geheugen had gebruik, dan hadden die zelfde files nog veel en veel eerder kapot gegaan als FAT32, ext4 of NTSF was gebruikt.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

Verwijderd

De ECC-maffia heeft zijn volgende slachtoffer geëist. ;(

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 02-10 18:39
Uh, hij zegt het goed volgens mij? ECC en ZFS is beter dan non-ECC en ZFS, maar ZFS blijft zelfs zonder ECC nog beter dan NTFS...

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Is dat een reactie op mijn bericht? Je begrijpt mijn bericht toch wel? Die 'horrorverhalen' worden geuit door wat ik enigszins humoristisch de 'ECC-maffia' noem; mensen die zeer waarschijnlijk zonder eigen ervaring en zonder genoeg kennis conclusies trekken die niet overeenkomen met de academische werkelijkheid.

Het feit dat Creqaw naar alle waarschijnlijk zijn gegevens nu onbeveiligd ook op non-ECC en ook op een filesystem zonder bescherming tegen corruptie (NTFS/Synology) zet, omdat hij afschrikt werd door dergelijke 'horrorverhalen' is natuurlijk zeer triest te noemen.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 02-10 18:39
Oh ja, daar ben ik het mee eens hoor :) Het leek er op dat je reageerde op player-x.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Je weet toch hoe ik in de discussie sta?! ;)

Binnenkort trouwens een specifiek topic over ECC en ZFS, want het is hard nodig. Moet nog haast maken anders vallen er nog meer slachtoffers. :/

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 03-10 10:04

Pantagruel

Mijn 80486 was snel,....was!

Verwijderd schreef op vrijdag 21 november 2014 @ 00:57:
Je weet toch hoe ik in de discussie sta?! ;)

Binnenkort trouwens een specifiek topic over ECC en ZFS, want het is hard nodig. Moet nog haast maken anders vallen er nog meer slachtoffers. :/
Graag, scheelt veel verwarring vooroordelen en gelazer in deze thread.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

Verwijderd

Voor mij was de keuze ECC/non-ECC makkelijk. Ik wil alleen server hardware in mijn servers die 24/7 draaien, aangezien ik backup target ben voor anderen en gewoon absoluut betrouwbaar wil zijn daarvoor.

Daarnaast wil ik hardware die fatsoenlijk virtualisatie onderteunt en een bak geheugen. Dan kom je al gauw op s2011 systemen uit en waarom zou je dan geen ECC geheugen nemen? Zoveel meer kost het niet, helemaal niet als je het van een tweaker koopt ;-)

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 02-10 14:39
Verwijderd schreef op vrijdag 21 november 2014 @ 09:18:
Zoveel meer kost het niet, helemaal niet als je het van een tweaker koopt ;-)
Een S2011 systeem kost je minimaal 55W idle extra ten opzichte van een S1150, dat is 110 euro jaar extra in stroom verbruik, dat kan ik nou niet echt goedkoop noemen.

Uiteraard kan als je echt een flink aantal VMs zwaar aan de slag zet een S2011 een plus zijn, maar dan moet die echt meer nodig hebben dan een S1150 i5 of i7.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 02-10 18:39
Uh, lees jij TDP als idle verbruik ofzo? Socket 2011 kan volgens mij wel zuiniger dan 55W verschil...

Toegegeven, S2011 zal idd een stukje meer verbruiken, maar of dat echt 55W is, vraag ik mij af?

Waar haal je dat harde getal vandaan?

Even niets...


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 02-10 14:39
S2011 verbruikt behoorlijk veel, met zijn ongeveer 80W idle, SB-E 80W en IB-E rond de 75W.

Haswell-E is weer wat zuiniger met een idle verbruik van 55W, maar nog steeds komt het niet in de buurt van S1150 dat 25W verbruikt.

Dit zijn de lage waardes, borden met veel extra's kunnen zomaar 25W idle extra verbruiken.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 02-10 18:39
25W idle haal je alleen met een non-ECC S1150 bord. Ik heb nog geen SuperMicro bordje gezien met 4*8GB ECC 1600Mhz geheugen dat 25W doet. Die SuperMicro plankjes verbruiken vaak al 5-7W meer vanwege de IPMI module.

Als je die niet met die 25W meerekent kom je inderdaad snel tot een groot verschil.

Mijn ervaring is: SuperMicro (ECC capable) 1155 bordje doet 30-40W, en als een van de nieuweste Socket 2011 borden van SuperMicro 75W doet, is dat dus ~40W verschil, en dat is weer 80Euro per jaar aan stroomkosten.

Maar daar krijg je wel als killer features bij: Ondersteuning voor Registered ECC geheugen, en dus ondersteuning voor > 32GB RAM...

Dat is best wat waard.

Maar je hebt helemaal gelijk, scoket 2011 verbruikt gewoon meer, maar het is niet 'slechter' in mijn ogen...

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

EUR 110 per jaar boeit me niet echt moet ik zeggen, daarvoor heb ik hardware die er ook voor is gemaakt om 24/7 te draaien. Maar als je echt krap bij kas zit dan kan ik mij voorstellen dat je dat veel vindt.

Het gaat overigens over:
pricewatch: Supermicro X9SRL-F en
pricewatch: Intel Xeon E5-1620 v2 Tray

Ik moet alleen nog even opzoek naar een plek waar ik een geschikte narrow ILM processor cooler kan krijgen.

Waarschijnlijk wordt het deze van Newegg: http://www.newegg.com/Pro...aspx?Item=N82E16816101683

[ Voor 8% gewijzigd door Verwijderd op 21-11-2014 14:11 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 02-10 18:39
Mooi systeempje zo! Zo een zou ik ook wel willen :) (Socket 1155 H77 +i5-3570 momenteel ;) )

Even niets...


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 03-10 10:04

Pantagruel

Mijn 80486 was snel,....was!

Verwijderd schreef op vrijdag 21 november 2014 @ 14:07:
EUR 110 per jaar boeit me niet echt moet ik zeggen, daarvoor heb ik hardware die er ook voor is gemaakt om 24/7 te draaien. Maar als je echt krap bij kas zit dan kan ik mij voorstellen dat je dat veel vindt.

Het gaat overigens over:
pricewatch: Supermicro X9SRL-F en
pricewatch: Intel Xeon E5-1620 v2 Tray

Ik moet alleen nog even opzoek naar een plek waar ik een geschikte narrow ILM processor cooler kan krijgen.

Waarschijnlijk wordt het deze van Newegg: http://www.newegg.com/Pro...aspx?Item=N82E16816101683
FireDrunk schreef op vrijdag 21 november 2014 @ 14:38:
Mooi systeempje zo! Zo een zou ik ook wel willen :) (Socket 1155 H77 +i5-3570 momenteel ;) )
MMM, hubba hubba


Key Killer 8) Features
..
3. Up to 512GB ECC DDR3, up to
1866MHz; 8x DIMM sockets

Voldoende RAM voor je ARC

Pantagruel mag niet zeuren: Intel Xeon E3-1230, 16 GiB ECC UDIMM, Supermicro X9SCM-F

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 02-10 18:39
Idd, ik vind het prachtige systemen, maar voor nu een beetje prijzig.

Ik denk dat ik weer mee ga doen als Socket 2011-3 echt gemeengoed is, en de prijzen van DDR4 gedaald zijn. DDR4 16GB modules schijnen easy te maken te zijn, en er komen zelfs 32/64 en eventueel 128GB modules (uiteraard onbetaalbaar, maar toch).

Zal nog wel dik een jaar duren voor dat DDR4 betaalbaar is... We zien dan wel, voor nu kan ik nog prima toe ;)

Even niets...


Acties:
  • 0 Henk 'm!

  • Ramasha
  • Registratie: September 2005
  • Laatst online: 24-01 19:28
Ik ben aan het rondkijken om mijn eerste relatief energie zuinige NAS te bouwen.

Doel is als opslag te dienen van enkele machines en wat streaming taken te volbrengen.

Mijn budget is zo maximaal €650, en ben via diverse sites tot de volgende setup gekomen:

#ProductPrijsSubtotaal
1Intel Celeron G1820 Boxed€ 29,50€ 29,50
1ASRock H87M Pro4€ 64,51€ 64,51
3WD Green WD20EZRX€ 72,50€ 217,50
1Fractal Design Node 304 Zwart€ 64,95€ 64,95
1Crucial Ballistix Sport BLS8G3N169ES4CEU€ 70,55€ 70,55
1Seasonic G-Serie 360Watt€ 50,-€ 50,-
Bekijk collectie
Importeer producten
Totaal€ 497,01

Acties:
  • 0 Henk 'm!

  • webbier
  • Registratie: Mei 2010
  • Laatst online: 28-09 10:15
Dat moederbord gaat niet in die kast passen ;)

Acties:
  • 0 Henk 'm!

Verwijderd

@Ramasha, hoeveel schijven wil je max draaien? Want met zo weinig schijven en toch non-ECC zou ik je eerder deze setup aanraden: Creqaw in "Het grote DIY RAID NAS topic deel 3"

Zuiniger, goedkoper en passief gekoeld. Allemaal voordelen. Alleen de schijven zou ik WD houden. Overweeg ook 4TB schijven te nemen zodat je een beetje op de groei koopt.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 02-10 18:39
Ik zie helemaal geen ECC? En hij heeft SO-DIMM's geselecteerd...

Even niets...


Acties:
  • 0 Henk 'm!

  • Ramasha
  • Registratie: September 2005
  • Laatst online: 24-01 19:28
@Cipher: Ik zou graag de mogelijkheid hebben om later nog een set van 3 schijven toe te voegen.

En firedrunk wat bedoel je precies?

Acties:
  • 0 Henk 'm!

Verwijderd

@Ramasha: waarom dan niet gelijk voor grotere schijven gaan? Ik heb WD 6TB schijven nu en die zijn erg goed. Begin met twee in een mirror. Kun je later nog uitbreiden naar 3 of 4 in RAID-Z zonder dataverlies. Want je kunt alles op één disk houden en dan een degraded RAID-Z aanmaken en de data kopiëren. Kost je een middagje werk maar kan dus wel prima.

Dan heb je genoeg aan een simpel bordje en heb je geen 6 slots en ATX voeding nodig. Tenzij geluidsproductie en energieverbruik niet zo'n hoge prioriteit heeft, dan maakt het weinig uit.

@FireDrunk: ik zei ook "en toch non-ECC" kortom als hij toch geen ECC kiest is zo'n zuinig onboard-CPU systeempje wellicht beter. Ga je toch een vrij standaard systeem bouwen met alle toeters dan is de stap naar ECC ook weer kleiner en valt dit te overwegen. zo bedoelde ik het. :P

Acties:
  • 0 Henk 'm!

  • Ramasha
  • Registratie: September 2005
  • Laatst online: 24-01 19:28
@Cipher: Bedankt voor je tips, als ik een combinatie maak van de build die je linkte en dit combineer met 2x 4TB WD green schijven krijg je denk ik een leuk systeem voor leuk prijsje.

Op termijn kan ik dit uitbreiden met nog een set.

#ProductPrijsSubtotaal
1ASRock Q1900DC-ITX€ 96,12€ 96,12
2WD Green WD40EZRX€ 136,-€ 272,-
1Fractal Design Node 304 Zwart€ 64,95€ 64,95
1Cooler Master NA 90€ 22,95€ 22,95
1Crucial CT102464BF1339€ 65,-€ 65,-
Bekijk collectie
Importeer producten
Totaal€ 521,02

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 02-10 18:39
Je had SO-DIMM's geselecteerd, die werken alleen op dat laatste bord wat je geselecteerd hebt, niet op de ASRock H87M.

Even niets...


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 02-10 14:39
Verwijderd schreef op vrijdag 21 november 2014 @ 14:07:
Ik moet alleen nog even opzoek naar een plek waar ik een geschikte narrow ILM processor cooler kan krijgen.
Voor de meeste Nactua koelers is trouwens een (gratis?) ombouw kit te krijgen naar narrow ILM, en sommige ondersteunen het standaard

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • Raven
  • Registratie: November 2004
  • Niet online

Raven

Marion Raven fan

Zit een beetje rond te kijken naar een NAS-oplossing voor de 10 :P externe hdd's die ik nu heb. In de loop der jaren kwam er telkens een tweetal hdd's bij waarbij de 2e exact dezelfde inhoud als de eerste bevat, als backup.

Inmiddels zit ik op 2*1TB, 2*1.5TB, 4*2TB en 2*3TB, netto 9.5TB.

Goed, het zal niet moeilijk zijn die kabelspaghettie voor te stellen en daar wil ik dus eens wat aan doen. Helaas loop ik al vast op diy of kant en klaar. Maar wat ik al wel weet: Er moet een DC input aanwezig zijn ivm de aanwezigheid van UPS met DC output, veel efficiënter/zuiniger dan zo'n stroomslurpend ding van APC.

Als het om NASsen met DC input gaat, dan kan ik voor kant en klaar wel bij Synology terecht. Maar die is niet goedkoop en uitgebreide info over de voeding kan ik niet vinden, ik zoek namelijk de toleranties van de voedingsspanning, hoeveel % die mag afwijken.

In het geval van zelfbouw: Ik heb inmiddels al de nodige moederborden met DC input gezien, maar die kunnen (aldus de specs) vaak maar net genoeg stroom leveren voor twee 3.5" schijven, ik wil er 4 en mogelijk later meer. En toen las ik Verwijderd in "Het grote DIY RAID NAS topic deel 3" , waarbij er toch moederborden lijken te zijn die dat aankunnen.

Zijn er mbt de DC-input eis en 4 of meer 3.5" schijven nog meer mogelijkheden?

After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...

Oscar Wilde


Acties:
  • 0 Henk 'm!

Verwijderd

Je kunt ook PicoPSU overwegen. Je zegt dat je UPS een DC-output heeft voor +12V? In dat geval hangt het ervan af hoeveel je UPS kan leveren. De PicoPSU doet zelf niets met +12V voor zover ik heb begrepen. Dus dat betekent dat je behoorlijk wat kunt leveren qua spinup current. Zolang je UPS genoeg +12V sap kan leveren, ben je volgens mij alleen beperkt door de veilige limiet van ampèrage door de kabel; 60A is volgens mij wel de absolute limiet maar voor PicoPSU met dunnere kabeltjes zal dat veel lager liggen. Maar dan nog, genoeg ruimte om mee te spelen lijkt mij.

Daarnaast is het natuurlijk zo dat schijven ook 5V gebruiken. Ik had ooit uitgerekend dat de PicoPSU daar genoeg van kan leveren; maar weet niet tot hoeveel schijven dat ging. Je kunt het zelf opzoeken denk ik; maar 10 schijven zal geen probleem vormen uit mijn hoofd.

Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 26-09 15:54
De Pico PSU schakelt de 12V wel afhankelijk of de PC aan of uit staat.
Die transistoren gaan in doorlaat ook maar zoveel stroom kunnen verdragen.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:55
Verwijderd schreef op vrijdag 21 november 2014 @ 00:44:
Is dat een reactie op mijn bericht? Je begrijpt mijn bericht toch wel? Die 'horrorverhalen' worden geuit door wat ik enigszins humoristisch de 'ECC-maffia' noem; mensen die zeer waarschijnlijk zonder eigen ervaring en zonder genoeg kennis conclusies trekken die niet overeenkomen met de academische werkelijkheid.
Mensen als criminelen wegzetten is best grappig :P
Het feit dat Creqaw naar alle waarschijnlijk zijn gegevens nu onbeveiligd ook op non-ECC en ook op een filesystem zonder bescherming tegen corruptie (NTFS/Synology) zet, omdat hij afschrikt werd door dergelijke 'horrorverhalen' is natuurlijk zeer triest te noemen.
Creqaw heeft helaas de discussie niet zo goed begrepen, dat is jammer.
player-x schreef op donderdag 20 november 2014 @ 23:35:
[...]

Het hele ECC verhaal over het wel of niet gebruiken van ECC geheugen is gebaseerd of FUD van mensen die de klok hebben horen luiden, maar niet weten waar de klepel is, maar ook nog eens niet weten hoe de bel er zelfs uit ziet.
Dat toont mijn blogpost in mijn signature wel aan ja. Ik heb er niets van begrepen.
ECC geheugen is essentieel voor mission critical systemen, een simpele thuis NAS valt zeker niet onder die categorie
ECC geheugen is essentieel voor ieder systeem dat door de eigenaar wordt gezien als belangrijk genoeg.
Ook als je geen ZFS zou draaien, is ECC geheugen aan te raden. Ook voor je thuis zelfbouw NAS.

[ Voor 31% gewijzigd door Q op 22-11-2014 22:35 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Hmhm, maar dan nog; de PicoPSU gaat tot 150 en 160 watt. Daarmee kun je al 10 schijven opspinnen als je het verbruik van het mobo niet meerekent.

Daarnaast, veel beperkingen zijn gebaseerd op warmte. Continu 150 watt leveren is wat anders dan eventjes 150 watt leveren. Dat laatste is qua thermische beperkingen (TDP) veel minder relevant dan het eerste. Dit heb ik zelf ondervonden door tot 5 schijven op dat AM1 bordje met DC-DC voeding op te laten spinnen met een 60W netvoeding; die over de 100 watt moest gaan. Dat lukte prima, en dat was dan nog met Seagate 7200rpm schijven die meer slurpen tijdens spinup dan 5400rpm WD Green schijven.

Kortom, je kunt zeer waarschijnlijk nog wat marge incalculeren als het enkel om spinup current gaat.

Acties:
  • 0 Henk 'm!

Verwijderd

Hmm, ik ben niet echt up to date m.b.t. de features van de gemiddelde bios/hdd tegenwoordig, maar zou staggered spinup er niet voor moeten zorgen dat spinup current geen probleem meer is, en dat je vooral voldoende vermogen voor normaal gebruik moet hebben?

Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 26-09 15:54
Verwijderd schreef op zaterdag 22 november 2014 @ 22:26:
...
Kortom, je kunt zeer waarschijnlijk nog wat marge incalculeren als het enkel om spinup current gaat.
De 150 en 160W pico PSU's hebben inderdaad ook een officiele peak wattage van 200W. En zelfs daarop zit waarschijnlijk nog de nodige marge.
Maar er is wel degelijk een beperking op wat de componenten aan kunnen. Ook op de 12V, die verder niet gefilterd wordt.

Acties:
  • 0 Henk 'm!

  • Raven
  • Registratie: November 2004
  • Niet online

Raven

Marion Raven fan

Verwijderd schreef op zaterdag 22 november 2014 @ 18:13:
Je kunt ook PicoPSU overwegen. Je zegt dat je UPS een DC-output heeft voor +12V? In dat geval hangt het ervan af hoeveel je UPS kan leveren. De PicoPSU doet zelf niets met +12V voor zover ik heb begrepen. Dus dat betekent dat je behoorlijk wat kunt leveren qua spinup current. Zolang je UPS genoeg +12V sap kan leveren, ben je volgens mij alleen beperkt door de veilige limiet van ampèrage door de kabel; 60A is volgens mij wel de absolute limiet maar voor PicoPSU met dunnere kabeltjes zal dat veel lager liggen. Maar dan nog, genoeg ruimte om mee te spelen lijkt mij.

Daarnaast is het natuurlijk zo dat schijven ook 5V gebruiken. Ik had ooit uitgerekend dat de PicoPSU daar genoeg van kan leveren; maar weet niet tot hoeveel schijven dat ging. Je kunt het zelf opzoeken denk ik; maar 10 schijven zal geen probleem vormen uit mijn hoofd.
Ja en nee. De loodaccu levert 11 tot 12v afhankelijk van hoe vol die is en voor de routerpc+downloadpc zit daar een DCDC-converter achter die 19v levert. (Beide thinITX met 19v +/-10% DC input)

Als de potentiële NAS nou bijv. een 12v DC input met 10% tolerantie heeft (dus 10.8 tot 13.2v), dan hoeft er voor die geen DCDC-converter ertussen en kan dus in principe rechtstreeks aan de accu gekoppeld worden bij stroomuitval.

After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...

Oscar Wilde


Acties:
  • 0 Henk 'm!

Verwijderd

Mja 10.8V op de +12V lijn lijkt me toch niet zo prettig. Volgens mij wordt meestal 5% tolerantie vermeldt voor de voltagelijnen. Belangrijkste lijkt mij als leek dat de voltages stabiel blijven. Een continu lager voltage lijkt mij dus beter dan iets wat van 13 volt naar 11 volt op en neer dondert. Maar je zou de echte kenners moeten raadplegen voor meer deskundig advies hierover.

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 02-10 14:39
Ik weet niet of ik er eigenlijk wel goed aan doe om te reageren op je tot op zekere hoogte FUD post, want ik heb absoluut geen zin om de hele ECC discussie weer op te starten, zie mijn signature.
Q schreef op zaterdag 22 november 2014 @ 22:26:
Creqaw heeft helaas de discussie niet zo goed begrepen, dat is jammer.
Dat is niet zo raar, daar mensen als jij het probleem zwaar overdrijven van het niet gebruiken van ECC.
Dat toont mijn blogpost in mijn signature wel aan ja. Ik heb er niets van begrepen.
Dat je leuke blogpost schrijft maakt je niet meteen een expert, of is een bewijs dat je het onderwerp geheel begrijpt.

Ik ben zelf ook geen echte zfs expert, maar ik begrijp wel iets van kansberekeningen, en de kans dat je een onherstelbare fout hebt omdat je geen ECC gebruikt is bijzonder klein in verhouding met bv NTSF.
ECC geheugen is essentieel voor ieder systeem dat door de eigenaar wordt gezien als belangrijk genoeg.
Ook als je geen ZFS zou draaien, is ECC geheugen aan te raden. Ook voor je thuis zelfbouw NAS.
Juist het is niet essentieel, maar het is wel aan te raden, dat is iets heel anders wat jij meestal loopt te zeggen.
player-x schreef op donderdag 20 november 2014 @ 23:35:
Waar het op neer komt, als er in hele absurd extreme gevallen ZFS files kapot gaan omdat je geen ECC geheugen had gebruik, dan hadden die zelfde files nog veel en veel eerder kapot gegaan als FAT32, ext4 of NTSF was gebruikt.
Je loop naar mijn mening dus zeker wel een hoop FUD te spuien, is het slim om ECC te gebruiken, jazeker, is het een absolute noodzaak voor simpele thuis servers, nee absoluut niet.

Ja het is het zeker waard om een er paar euro extra aan uit te geven, maar het is niet zo noodzakelijk om er aanzienlijk meer geld in te investeren om ook die ECC ondersteuning te hebben, zeker niet voor een simpele thuis server/NAS op een budget.

En als jij hier elke keer hard loop te schreeuwen dat ZFS een absolute noodzaak is, jaag je ook de mensen weg die nog steeds beter af waren geweest met ZFS zonder ECC!

Ik zou dus dus zegen, houd daar alsjeblieft mee op, en zeg gewoon dat ECC wel aan te raden is voor thuis gebruikers, maar zeker geen absolute noodzaak, want voor de meeste zien hun thuis servers niet als een 'Mission Critical Systems', en de reverentie materiaal waar jij je persoonlijke en zeer sterke mening op baseert doen dat wel.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?

Pagina: 1 ... 163 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.