Acties:
  • 0 Henk 'm!

  • Struikrover
  • Registratie: Juni 2005
  • Laatst online: 01-10 13:48
FireDrunk schreef op donderdag 22 mei 2014 @ 17:03:
Je zit naar een hele oude CPU te kijken, pak of een G1820 (nieuwste generatie), of ga voor AMD AM1. Die zijn ook erg goedkoop.

(Je moet dus sowieso naar een ander moederbord, iets met H81 ofzo)
Thanks! Ik had nog niet eens gekeken naar de generatie.
Ik heb nu het volgende lijstje, ziet er voor mij goed uit:

Behuizing: CFI-A2059 http://linitx.com/product...ase-2-hot-swap-bays/13013
#ProductPrijsSubtotaal
1Intel Celeron G1820 Boxed€ 29,39€ 29,39
1MSI H81I€ 57,-€ 57,-
3WD Green WD10EZRX, 1TB€ 47,63€ 142,89
1Crucial 2GB CT25664BA1339€ 18,73€ 18,73
Bekijk collectie
Importeer producten
Totaal€ 248,01

Acties:
  • 0 Henk 'm!

  • wishmaster1986
  • Registratie: April 2004
  • Laatst online: 19:34
Verwijderd schreef op woensdag 21 mei 2014 @ 23:16:
[...]


Hi, ik heb ook zo'n case met 3x een 4in3 bracket en wil daar een NAS van maken.
Kun je posten welke hard- en software je hebt gebruikt om hem als NAS te laten functioneren?
Dit zijn wel oude foto's maar het idee is nog hetzelfde :)

Huidige hardware:
Intel DQ67SW
Intel i5 2400
16GB Kingston geheugen
350W Coolermaster pure power voeding
IBM M1015 met HBA firmware
Intel dual port GBE nic
4x Samsung 2TB green F4
4x Samsung 1TB green F3
2x 320GB voor ESXI datastore
1x 250GB 2,5" als download disk ivm downspinnen van de andere HDD's
1x 128 Crucial M4 128GB SSD (Moet nog worden aangesloten)

VMware ESXI 5.5 erop met daarop de volgende VM's:
1x OmniOS met Napp-it (NAS)
1x pfSense (Router / Firewall)
1x CentOS (Downloadserver met Sickbeard, Couchpotato etc. en MySQL voor de shared XBMC library)
1x Windows Server 2008 R2 (2e domain controller als failover voor de 1e DC in het datacenter)
1x Windows Server 2012 R2 (Terminal server en remote app server)
En af en toe nog eens een test VM voor verschillende dingen

Plaatjes:

Afbeeldingslocatie: http://i.imgur.com/zYiCKnC.jpg

Afbeeldingslocatie: http://i.imgur.com/V1vUrYU.jpg

Afbeeldingslocatie: http://i.imgur.com/d5PDOeP.jpg

Afbeeldingslocatie: http://i.imgur.com/PusTQiA.jpg

Eigenlijk wil ik weer een nieuwe grotere NAS/ESXI box maken maar ja tijd en geld he :+

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 09:53
Dat tweede los je op door dat rechter ding in de laatste foto te verkopen. ;)

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

Verwijderd

FireDrunk schreef op vrijdag 23 mei 2014 @ 08:28:
Op dat niveau verwacht ik eerlijk gezegd meer van AMD dan van Intel... AMD doet het de laatste tijd erg goed met zijn SoC's, en Intel's J1900 SoC is meer een hekkensluiter om de laatste markt te bedienen dan een paradepaardje als ik het zo mag zien.
J1900 is gewoon een gecastreerde Bay Trail soc; afgeleid van de 2550/2750 SoC-chips. Die zijn toch echt wel wat luxer dan wat AMD te bieden heeft. Hoogiut op grafisch vlak dat AMD het wel beter doet, maar gezien het verschil in TDP is dat ook niet zo verwonderlijk.

En AMD zit nu nog steeds met Kabini; wat eigenlijk al verouderd is. Beema en Mullins zouden het van Kabini moeten overnemen; al kan dat nog even duren. Dus meer van AMD verwachten?

Ik heb nu beide platforms, dus benchmarks enzo kan ik ook wel doen.

[ Voor 25% gewijzigd door Verwijderd op 23-05-2014 14:07 ]


Acties:
  • 0 Henk 'm!

  • Oggy
  • Registratie: Augustus 2007
  • Laatst online: 14:43
Verwijderd schreef op vrijdag 23 mei 2014 @ 14:05:
[...]

J1900 is gewoon een gecastreerde Bay Trail soc; afgeleid van de 2550/2750 SoC-chips. Die zijn toch echt wel wat luxer dan wat AMD te bieden heeft. Hoogiut op grafisch vlak dat AMD het wel beter doet, maar gezien het verschil in TDP is dat ook niet zo verwonderlijk.

En AMD zit nu nog steeds met Kabini; wat eigenlijk al verouderd is. Beema en Mullins zouden het van Kabini moeten overnemen; al kan dat nog even duren. Dus meer van AMD verwachten?

Ik heb nu beide platforms, dus benchmarks enzo kan ik ook wel doen.
Ik ben wel benieuwd naar het resultaat, ik was van plan AM1 met 5350, maar als J1900 geschikter / goedkoper en zuiniger is dan de AMD is dat wellicht een optie als media- server/downloader/htpc

i7 8700k @ 4.8ghz 24/7, 16gb ddr4 3200, MSI 1080 Gaming / CM Mastercase Maker 5T, Audio Technica AD900X


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Verwijderd schreef op donderdag 22 mei 2014 @ 23:13:
Ben benieuwd hoe de SuperMicro X10SBA met Intel J1900 het doet. Een beetje de tegenhanger van AMD Kabini en beide een echte SoC. Maar Intel J1900 is 10W en Athlon 5350 is 25W. Overigens vooral door de graphics vermoed ik.
De TDP's van Intel en AMD kun je niet vergelijken. In de review van HWI komt de Athlon 5350 er dan ook beter vanaf dan de Intel J1900 qua verbruik, iets beter qua CPU prestaties en stukken beter qua grafische prestaties. Nu gebruik jij niet vergelijkbare onderdelen, maar is wel duidelijk dat AM1 een heel erg goed platform is voor AMD en dat TDP's duidelijk niet te vergelijken zijn.

[ Voor 7% gewijzigd door -The_Mask- op 23-05-2014 14:48 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Mja om nou van één review uit te gaan is riskant, zeker als de resultaten afwijken van andere reviews, zoals deze: http://www.techspot.com/r...el-bay-trail-d/page8.html

Bijvoorbeeld dat AMD idle zuiniger zou zijn, valt denk ik te bestrijden. Ik denk dat zaken op het moederbord een veel grotere invloed hebben op idle power consumption.

Bij max power consumption zien we wel dat Athlon 5350 volgens TechSpot 16W extra verbruikt ten opzichte van de J1900. Dat is redelijk in lijn met het verschil in TDP: 25W versus 10W. Bij HWI is alleen CPU-load getest en niet CPU+GPU load, en het lijkt te kloppen dat een deel van de TDP alleen voor de graphics is bestemd en dat je dat met CPU load niet 'vol' krijgt.

Acties:
  • 0 Henk 'm!
Wat is nou eigenlijk de discussie? :+

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Over het verschil in TDP denk ik. Mux zegt dat je TDP van AMD en Intel niet met elkaar kunt vergelijken. Als ik me goed herinner komt dit doordat AMD en Intel een andere definitie geven aan TDP. Uit mijn hoofd was AMD 'eerlijker' en TDP betekende daar ook maximaal stroomverbruik. Bij Intel ging het om een gemiddelde gedurende een bepaalde tijdsduur; waarbij het gedurende piekmomenten dus wel bovenuit kan komen. AMD heeft laatst ook 'SDP' oftewel Scenario Design Power geintroduceerd. Nu de processor veel meer taken krijgt en een echte SoC wordt, gekoppeld met dat CPU cores veel zuiniger worden (1W per core) krijg je het probleem dat de chip misschien wel 10W is, maar dat bij full CPU load je dit bij lange na niet haalt; een deel van het power budget zit ook in de SoC/chipset taken (PCIe, netwerk, audio, USB, IMC). SDP zou daarbij een redelijker power budget kunnen opgeven.

Daarnaast wordt TDP natuurlijk misbruikt als power spec, terwijl het bedoeld was als thermische spec. Maar met turbo core is het begrip TDP ook moeilijker geworden. Je hebt 'long TDP' wat dicht bij de originele thermische spec zit, en je hebt short TDP waarbij de chip tijdelijk pieken mag vertonen boven de TDP. Dat laatste is meer een electrische spec; je PicoPSU enzo moet het kunnen trekken, maar qua thermische spec maakt het weinig uit omdat alleen het gemiddelde over een redelijke tijd telt; meerdere seconden in elk geval.

Ik denk dat je kunt stellen dat de J1900 en Athlon 5350 qua CPU-power ongeveer gelijk zijn, misschien de Athlon 10% sneller ofzo. Maar ook meer CPU-power consumption bij full load en minder performance-per-watt, waar Intel het erg goed in doet dankzij het modernere productieproces; ik geloof dat Kabini nog 28nm is?

De Athlon 5350 heeft een deel van zijn TDP voor de SoC-onderdelen (USB3 etc) en grafische cores. Dat laatste spaar je natuurlijk uit als je een text-mode ZFS server gaat gebruiken.

Toch kun je stellen dat Intel het goed doet tegen de Athlon 5350; ongeveer dezelfde performance tegen slechts 10W TDP en versus 25W bij de Athlon 5350. Gevolg is ook dat de Athlon standaard met actieve koeler komt, terwijl de Intel J1900 vaak passief wordt gekoeld. Bij de SuperMicro X10SBA is dat wel een heel klein koelblok; die volgens mij niet groot genoeg is om 10W passief te koelen. Dat is nog wel iets vreemds... Andere J1900 bordjes hebben een veel grotere heatsink, zoals dit bordje: pricewatch: ASRock Q1900DC-ITX.

Acties:
  • 0 Henk 'm!
reviews: Het AM1-platform met Athlon-apu

Alleen op multipar gebied is de J1900 sneller, voor de rest is het verschil een stuk groter dan die 10% die jij zegt...

Waar jij op doelt qua TDP is waar de Opteron serie al langer mee schermt, dat is ACP (Wikipedia: Average CPU power).

Bij Intel is het juist wel echt Thermisch... Dat zie je goed bij de -T verianten, die throttlen gewoon bij een gemiddeld te hoge TDP, meer niet.

De vraag is vooral: is de TDP van AMD vandaag de dag wel een TDP of is het al een SDP...

Even niets...


Acties:
  • 0 Henk 'm!

  • rikadoo
  • Registratie: Oktober 2007
  • Niet online
Verwijderd schreef op donderdag 22 mei 2014 @ 00:13:
[...]

Eén overweging is dat je ipv ESXi twee systemen bouwt. Het geld dat je uitspaart om geen vt-d setup nodig te hebben compenseert weer dat je twee systemen bouwt. Het is een idee, maar je moet zelf kijken of het handig is in jouw situatie, omdat het ook meer plek vraagt natuurlijk. Maar zou je ZFS server en ESXi virtualisatie scheiden, dan heeft dat wel voordelen.
Ik heb liever 1 systeem, lekker makkelijk en volgens mij kan dit prima toch?
Samsung doet aan journal rollback; die SSDs kun je beter niet gebruiken voor ZFS. Ik raad de goedkopere Crucial M500 aan, 240GB is een mooie grootte; waarvan je bijvoorbeeld 200GB kunt gebruiken en 40GB voor overprovisioning. De SSD kun je gebruiken voor boot/systeem, L2ARC cache en sLOG device voor je HDD pool.
Duidelijk
Ja. Minder kan prima (250W-350W). Tenzij je echt veel (16+) HDDs tegelijk wilt opspinnen.
Oke, een Seasonic G-Serie 360 watt is de laagste die ik kan vinden; en is ook voor eventuele uitbreiding nog wel even genoeg lijkt me dan?
In ZFSguru kun je de 3TB schijf zo partitioneren dat je een 1TB partitie hebt en daarna de 2TB partitie. Dan heb je 4x 2TB en een losse TB ter beschikking. Daarvan kun je ook een boot disk maken, met ruimte voor services, torrents, etc.
Oke dit werkt dus zonder problemen? Dat die ene 1TB los is is neit erg zou ik idd als download partitie kunnen gebruiken dan oid, ben al blij dat het te gebruiken is ipv dat je die ene TB verliest zou zonde zijn; dan had ik ergens een 2TB op de kop getikt.
Je kunt een ZFS pool 'degraded' aanmaken met een nepdisk (ramdisk) en daarna rebooten. Dan is hij degraded en kun je er wel naar schrijven en zo data overhevelen en zodra de bronschijf leeg is kun je deze toevoegen aan de ZFS pool en deze compleet maken.
Kun je wat meer vertellen hierover? Hoe moet ik dit zien, heb ik dan wel extra HDD nodig of is het systeem (ZFS) slim genoeg om van EXT4 naar ZFS partitie indeling te veranderen? Of is er een artikel over?


Ik heb momenteel dit uitgekozen? Nog op of aanmerkingen? (Leuke kast?)

#ProductPrijsSubtotaal
1pricewatch: Intel Xeon E3-1220 V3 Boxed€ 180,20€ 180,20
1pricewatch: Supermicro X10SLM-F€ 168,34€ 168,34
1pricewatch: Samsung M391B1G73BH0-CH9€ 65,29€ 65,29
1pricewatch: Seasonic G-Serie 360Watt€ 57,90€ 57,90
1pricewatch: Crucial M500 2,5" 240GB
€ 94,99€ 94,99




Totaal€ 566,29


Hoe zit het eigelijk met streamen naar een PS3 of een tv oid? ik gebruik voor de PS3 nu PS3 Media Server vanaf mij PC, is het met plugin mogelijk om ook zo de films series etc te streamen naar aparaten die niet zelf kunnen coderen?

Er word overheen gelezen, maakt verder niet uit, bij deze nog een keer mijn bericht :)

AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x Asus RoG XG27AQDMG | 1x LG UltraGear 27GL850


Acties:
  • 0 Henk 'm!

  • the_cyberspace
  • Registratie: Juni 2004
  • Niet online

the_cyberspace

Prutser :)

Weet je zeker dat dit geheugen gaat werken op dat SuperMicro bord? Volgens mij slikt dat bord alleen ECC geheugen ;)

"Sommige mensen zeggen dat ik gek ben, maar gekken horen toch thuis in het gekkenhuis, of ben ik nou gek??"


Acties:
  • 0 Henk 'm!

  • rikadoo
  • Registratie: Oktober 2007
  • Niet online
The_Cyberspace schreef op zaterdag 24 mei 2014 @ 17:59:
Weet je zeker dat dit geheugen gaat werken op dat SuperMicro bord? Volgens mij slikt dat bord alleen ECC geheugen ;)
Aah shit dacht dat het ECC was, eens kijken....

EDIT: heb het aangepast pricewatch: Samsung M391B1G73BH0-CH9 is het geworden. Laagste prijs in de pricewatch met ECC :)

[ Voor 26% gewijzigd door rikadoo op 24-05-2014 18:14 ]

AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x Asus RoG XG27AQDMG | 1x LG UltraGear 27GL850


Acties:
  • 0 Henk 'm!

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 09-10 19:46
Heb een vraag over mdadm + TLER/ERC/CCTL, zal eerst even een inleidend verhaaltje doen, indien TL;DR; skip naar beneden.

Verhaaltje
Ik ben momenteel bezig om mijn [url=/forum/list_message/38859712#38859712]huidige build[/url] wat om te bouwen van 2TB naar 4TB disks. Er zit al een nieuw controller in; de LSI SAS 9201-16i, welke compatible is met >2.2T disks.

Momenteel ben ik data aan het kopiëren van mijn 'oude' array met 9 x WD20EARS naar mijn nieuwe array, voorlopig even bestaande uit 5 x WD40EFRX (RED), md raid5, XFS, 16TB effectief. Binnenkort komen daar 3 schijven bij en zal het een raid6 worden met dus 24TB effectief.

Ik heb lang na zitten denken over de schijven; de 2TB WD Greens waren op zich goed bevallen, zolang je maar op de hoogte bent van de quirks (geen TLER + je moet IntelliPark disablen met WDIDLE3.exe). Nu had ik gelezen dat je sinds the WD RED's zijn ingevoerd, je Intellipark niet meer kunt uitschakelen op de Greens. Puur marksegmentatie. Daarom ben ik met enige tegenzin (ik haat om €25-30 per disk neer te tellen om een kunstmatig opgworpen barrière te kunnen overwinnen) voor de WD Red's gegaan. Heb nog even overwogen om de Hitachi/HGST 5k4000 te doen, maar aangezien ze bijna even duur zijn, de Hitachi luidruchtiger en minder zuinig is en ik erg gecharmeerd ben van WD's advance replacement warranty, heb ik toch de RED's gekocht.

Enfin, lang verhaal kort: ik heb 5 WD Red's, waarmee je middels smartmontools live the TLER-setting kunt instellen. Hierover heb ik een vraag.

Linux MD + TLER?
Voorheen heb ik altijd gelezen en gehoord dat TLER/ERC/CCTL 'harmful' is voor software raid ("misschien had de disk nog wel gerepareerd kunnen worden"), dus heb ik nooit schijven met deze tech hoeven of willen kopen. Nu begin ik deze aanname echter in twijfel te trekken. Hopelijk zijn er hier meer mensen die erover hebben nagedacht, wat research hebben gedaan en wellicht helderheid kunnen verschaffen.

Dat mdadm in principe geen timeout doet is volgens mij nog steeds een valide aanname. Waar ik, en volgens mij velen met mij, geen rekening mee hebben gehouden, is de timeout van de SCSI layer zelf. Dit zag ik langskomen op wikipedia.

De case die vóór TLER wordt gemaakt, ook met software raid, luidt op internet als volgt. Inderdaad, MD zelf heeft geen timeout en een vrij goede recovery procedure:
quote: man md
.. a read-error will instead cause md to attempt a recovery by overwriting the bad block. i.e. it will find the correct data from elsewhere, write it over the block that failed, and then try to read it back again.
Als dit lukt dan zou dit inderdaad ideaal zijn. Echter, zodra de SCSI timeout wordt bereikt (30s), zal hoe dan ook de drive gewoon offline worden gehaald en krijgt mdadm niet de mogelijkheid om gericht de sectoren/data te repareren adhv de parity data volgens de bovenstaande procedure.

Dus, zegt men, moet de TLER timeout worden ingesteld op een value die iets onder de SCSI timeout-waarde ligt. Op die manier wordt leidt een read error in de disk niet tot een SCSI timeout, maar simpelweg een read error.

Dus mijn vraag: wat denken jullie hiervan? Cruciaal hier lijkt me de vraag of het inderdaad zo dat een SCSI timeout tot het droppen van een drive leidt.

Dus, TLER aan of uit?

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


Acties:
  • 0 Henk 'm!

Verwijderd

HarmoniousVibe schreef op zondag 25 mei 2014 @ 00:15:
Ik heb lang na zitten denken over de schijven; de 2TB WD Greens waren op zich goed bevallen, zolang je maar op de hoogte bent van de quirks (geen TLER + je moet IntelliPark disablen met WDIDLE3.exe). Nu had ik gelezen dat je sinds the WD RED's zijn ingevoerd, je Intellipark niet meer kunt uitschakelen op de Greens. Puur marksegmentatie. Daarom ben ik met enige tegenzin (ik haat om €25-30 per disk neer te tellen om een kunstmatig opgworpen barrière te kunnen overwinnen) voor de WD Red's gegaan.
Dat had denk ik niet gehoeven; headparking kun je op de WD Green op 300 seconden instellen; en dat vind ik zelf nog veel beter dan helemaal uitschakelen. Sowieso is headparking op recente WD Green modellen veel minder agressief dan in het verleden. Dus als je nu Greens zou kopen, zou je headparking niet hoeven aan te passen.

Reds hebben natuurlijk wel een jaar extra garantie.
Linux MD + TLER?
Voorheen heb ik altijd gelezen en gehoord dat TLER/ERC/CCTL 'harmful' is voor software raid ("misschien had de disk nog wel gerepareerd kunnen worden"), dus heb ik nooit schijven met deze tech hoeven of willen kopen. Nu begin ik deze aanname echter in twijfel te trekken. Hopelijk zijn er hier meer mensen die erover hebben nagedacht, wat research hebben gedaan en wellicht helderheid kunnen verschaffen.
Het gaat er niet om dat de disk zichzelf 'repareert'. Het gaat erom dat de disk de laatste defensielinie is in je totale aanpak van bescherming van gegevens.

Je praat bijvoorbeeld helemaal niet over een degraded volue; dat is natuurlijk waar het hier om gaat. Als je geen bescherming meer geniet van de RAID-laag, dan ben je dus onbeschermd. Elke bad sector zal zich vertalen in verlies van informatie. Soms wel cruciaal, zoals de RAID metadata of filesystem metadata. Wat je dan niet wilt is dat de schijf geen eens wilt proberen om te recoveren, zoals in het geval van TLER. TLER doet weinig meer dan de recovery bijna helemaal uit te schakelen door de tijd te verkorten tot 7 seconden; minder dan de 10 seconden timeout die de strengste RAID controllers hanteren.
Dat mdadm in principe geen timeout doet is volgens mij nog steeds een valide aanname. Waar ik, en volgens mij velen met mij, geen rekening mee hebben gehouden, is de timeout van de SCSI layer zelf.
Bij ZFS is het niet veel anders. Het is het OS en de storage backend die bepaalt of er een timeout is. En die timeout kan verschillen of je op SCSI subsystem zit of AHCI. Bij *BSD is dat het geval.
De case die vóór TLER wordt gemaakt, ook met software raid, luidt op internet als volgt. Inderdaad, MD zelf heeft geen timeout en een vrij goede recovery procedure:

Als dit lukt dan zou dit inderdaad ideaal zijn. Echter, zodra de SCSI timeout wordt bereikt (30s), zal hoe dan ook de drive gewoon offline worden gehaald en krijgt mdadm niet de mogelijkheid om gericht de sectoren/data te repareren adhv de parity data volgens de bovenstaande procedure.
Huh, offline?!!

Welk OS gooit een hardeschijf 'offline' als er een sector niet kan worden gelezen? Als Linux daaronder valt, zou ik direct van OS wisselen. Maar dat geloof ik niet. Het zijn hardware RAID controllers die onder deze categorie vallen. Het zou kunnen dat degene die jou dat advies geeft, zelf een controller gebruikt zoals Areca. Deze zijn ongeschikt voor Software RAID omdat ze inderdaad bij bad sectors de schijf onzichtbaar maken voor het OS. Daar kan het OS helemaal niets aan doen. Een controller die het OS verbied om contact met schijven te onderhouden klinkt erg sharia in mijn oren. Daar word ik niet blij van.
Dus, zegt men, moet de TLER timeout worden ingesteld op een value die iets onder de SCSI timeout-waarde ligt. Op die manier wordt leidt een read error in de disk niet tot een SCSI timeout, maar simpelweg een read error.
Ik zie niet in waarom het zou uitmaken of je OS zegt read error, of dat de schijf zegt read error. Ik zou verwachten dat dit leidt tot hetzelfde gedrag op het niveau van het filesystem en RAID layer. Je kunt de disk timeouts vaak ook veranderen, in elk geval onder *BSD OS.
Dus, TLER aan of uit?
Het is denk ik een beetje aan welke kant van het argument je staat. Als je nooit degraded zult draaien dan kun je prima met TLER ingeschakeld draaien, als jouw OS daar sneller mee om kan gaan. Want dat is wel een nadeel: recovery betekent lange timeouts tenzij je OS eerder ingrijpt.

Echter, als je ooit degraded zou draaien, dan wil je niet dat bad sector recovery min of meer wordt uitgeschakeld. Dat kan er zomaar voor zorgen dat belangrijke data wordt 'opgegeven' omdat je degraded draait en de schijven niet de kans kregen om serieuze recovery te proberen. Dan is het dus jammer voor je data. En dat is de reden dat ik zeg, probeer met TLER uitgeschakeld te draaien. Wil je korte timeouts, los dit dan op in je OS. Zo hoort het IMO.

Acties:
  • 0 Henk 'm!

  • Ganymedus
  • Registratie: Maart 2001
  • Laatst online: 03-09-2023
Ik ben een beetje vastgelopen met mijn DIY NAS.
Ik heb de volgende configuratie in mijn hoofd:

Fractal Design Node 304
be quiet! Pure Power L8 400W
4x WD 4TB RED

Probleem is waar ik op dit moment mee zit is dat ik een mini itx bord zoek (past in de kast) die minimaal 4x sata heeft, 6x is eigenlijk de wens. Ik wil dit bij voorkeur combineren met een lichte intel processor. Ik kan geen geschikte mobo vinden die ook nog eens van het formaat mini-itx is.

Doel is een xpenology NAS te bouwen met als uitgang goedkoper (hollander) uit te komen dan een ds414+ waarbij ik zelf nog het e.e.a. kan spelen met eventueel freenas en vmware (windows/ubuntu)

Heeft iemand een goede suggestie qua moederbord en eventueel hoeveel cpu kracht ik nodig heb?

Díreach don la ínníu ná bíodh buaírt ort!


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 14:20
pricewatch: Asus H87I-PLUS? Heeft nog een Intel-netwerkkaart ook :)

Je weet dat je in de Pricewatch kunt filteren? :P

Wat wil je er precies mee doen? De goedkoopste Celeron is voor de meeste taken snel genoeg, zelfs (één) stream transcoden in Plex moet wel lukken. Wil je meer dan ga je richting een i3 voor 2 of 3 streams en een i5 als je nog meer gaat streamen. Behalve Plex zijn er niet zo heel veel applicaties die thuisgebruikers veel gebruiken en die heftig aan de CPU trekken volgens mij.

[ Voor 30% gewijzigd door Paul op 26-05-2014 07:35 ]

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Habana
  • Registratie: Oktober 2005
  • Laatst online: 16:52
@ Ganymedus, Mijn keus was en het werkt prima, kijk ook eens naar de SilverStone SST-DS380B externe behuizing, hotswap en je kan zonder problemen 8x3.5" drives in kwijt.

Mini-ITX bordjes met 6x Sata zijn er genoeg te vinden bij alle fabrikanten, kan je ook nog aanvullen met één "DELOCK PCI Expresscard 2x Sata 6Gb/s"

http://www.silverstonetek....php?pid=452&area=en&tid=

Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
Habana schreef op maandag 26 mei 2014 @ 13:55:
@ Ganymedus, Mijn keus was en het werkt prima, kijk ook eens naar de SilverStone SST-DS380B externe behuizing, hotswap en je kan zonder problemen 8x3.5" drives in kwijt.

Mini-ITX bordjes met 6x Sata zijn er genoeg te vinden bij alle fabrikanten, kan je ook nog aanvullen met één "DELOCK PCI Expresscard 2x Sata 6Gb/s"

http://www.silverstonetek....php?pid=452&area=en&tid=
of, als je van een avontuurtje houdt, proberen een E3C224D4I-14S er in te krijgen :)

Het zijn geniale kasten, kan niet wachten tot ik die van mij eindelijk in elkaar ga zetten.

Acties:
  • 0 Henk 'm!

  • Wlie
  • Registratie: Februari 2009
  • Niet online
Ben ook aan het rondkijken voor een zelfbouw NAS/server.

Ga er niet erg veeleisende taken mee uitvoeren, voornamelijk fileserver en torrentserver. (Linux)
Misschien dat ik er in de toekomst nog een VM op wil draaien.

Ben op het moment aan het twijfelen tussen deze twee builds
#ProductPrijsSubtotaal
1ASRock Q1900M€ 61,06€ 61,06
2WD Red SATA 6 Gb/s WD20EFRX, 2TB€ 80,65€ 161,30
1Cooler Master Silencio 352€ 49,79€ 49,79
1Crucial CT51264BA160BJ€ 29,-€ 29,-
1be quiet! System Power 7 300W€ 30,98€ 30,98
Bekijk collectie
Importeer producten
Totaal€ 332,13


en
#ProductPrijsSubtotaal
1Intel Celeron G1820 Boxed€ 29,39€ 29,39
1MSI H87M-P32€ 49,-€ 49,-
2WD Red SATA 6 Gb/s WD20EFRX, 2TB€ 80,65€ 161,30
1Cooler Master Silencio 352€ 49,79€ 49,79
1Crucial CT51264BA160BJ€ 29,-€ 29,-
1be quiet! System Power 7 300W€ 30,98€ 30,98
Bekijk collectie
Importeer producten
Totaal€ 349,46


Voordelen van de J1900:
- wellicht minder stroomverbruik (significant?)
- volledig passief gekoeld

Voordelen van de Celeron:
- meer power en daardoor iets toekomst bestendiger
- mogelijkheid voor het upgraden van de CPU
- moederbord ondersteund RAID (wil de twee schijven in raid 1 draaien)
- meer SATA aansluitingen

Ik neig nu dus naar de build met de Celeron alleen zie ik bepaalde dingen misschien over het hoofd.
Ook ben ik niet zeker van het verschil in het verbruik, TDP zegt namelijk weinig over het idle verbruik.

Acties:
  • 0 Henk 'm!

Verwijderd

Misschien is iets als een Athlon 5350 AM1 build wat voor jou. Het ASrock bordje - wat ik ook heb - heeft een 19V-powersupply. Dan heb je geen aparte voeding meer nodig. Met 2 hardeschijven lukt dat prima. Ook ben je mogelijk wat goedkoper uit. Gaat dan om dit bordje: pricewatch: ASRock AM1H-ITX. Daar hoort nog de AMD Athlon 5350 processor bij.

Hij werkt bij mij nog niet goed onder FreeBSD, maar Linux werkte wel voor zover ik vlug had getest.

Het grote voordeel als je je ATX-voeding kunt dumpen is dat je idle veel zuiniger bent; dat is fijn voor een 24/7 NAS.

Acties:
  • 0 Henk 'm!
Als je al RAID gaat doen, doe het dan met je Operating System ipv met die gare onboard controllers...
Buiten dat: Liever een dagelijkse (of zelfs uurlijkse) backup dan RAID. RAID beschermt je niet tegen bijvoorbeeld per ongeluk iets verwijderen, waar een backup dat wel doet.

Even niets...


Acties:
  • 0 Henk 'm!

  • Wlie
  • Registratie: Februari 2009
  • Niet online
Verwijderd schreef op dinsdag 27 mei 2014 @ 00:23:
Misschien is iets als een Athlon 5350 AM1 build wat voor jou. Het ASrock bordje - wat ik ook heb - heeft een 19V-powersupply. Dan heb je geen aparte voeding meer nodig. Met 2 hardeschijven lukt dat prima. Ook ben je mogelijk wat goedkoper uit. Gaat dan om dit bordje: pricewatch: ASRock AM1H-ITX. Daar hoort nog de AMD Athlon 5350 processor bij.

Hij werkt bij mij nog niet goed onder FreeBSD, maar Linux werkte wel voor zover ik vlug had getest.

Het grote voordeel als je je ATX-voeding kunt dumpen is dat je idle veel zuiniger bent; dat is fijn voor een 24/7 NAS.
Is inderdaad ook een goede optie. Volgens deze website zou het prima moeten werken.
FireDrunk schreef op dinsdag 27 mei 2014 @ 08:07:
Als je al RAID gaat doen, doe het dan met je Operating System ipv met die gare onboard controllers...
Buiten dat: Liever een dagelijkse (of zelfs uurlijkse) backup dan RAID. RAID beschermt je niet tegen bijvoorbeeld per ongeluk iets verwijderen, waar een backup dat wel doet.
Is RAID via je OS niet (veel) langzamer dan hardwarematige RAID? Of was dit voornamelijk vroeger het geval?

Ik ga de RAID 1 niet als 'backup' gebruiken, daarvoor heb ik een externe USB schijf. Verder komt er toch weinig data op te staan die ik niet kwijt mag raken.

bedankt voor de input :)

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 14:20
Hangt er van af, RAID 1 maakt sowieso niet uit, klassieke RAID 5 hangt van je OS af. md onder Linux performt heel aardig, onder Windows wordt het bij mijn weten amper gebruikt. Een fatsoenlijke (lees: dure!) raid-controller kan wel flink winst boeken, vooral omdat je daar write-back op aan kunt zetten. Veel besturingssystemen doen (deden?) met name write-through, omdat er geen bescherming was bij stroomuitval. Met journaling filesystems ondervang je wel corruptie maar wat nog in de cache stond is wel weg.

Long story short: gewoon MD gebruiken :) Je zit al aan relatief dure RAID-controllers voordat je er een hebt die fatsoenlijk wordt ondersteund door Linux :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Wlie
  • Registratie: Februari 2009
  • Niet online
Heb nu dit lijstje;
#ProductPrijsSubtotaal
1AMD Athlon 5350 Boxed€ 38,50€ 38,50
1ASRock AM1H-ITX€ 47,41€ 47,41
2WD Red SATA 6 Gb/s WD20EFRX, 2TB€ 80,65€ 161,30
1Fractal Design Node 304 Zwart€ 63,99€ 63,99
1Crucial CT51264BA160BJ€ 29,-€ 29,-
Bekijk collectie
Importeer producten
Totaal€ 340,20


Laptop voeding heb ik nog liggen, ga hem vandaag bestellen als er geen opmerkingen meer zijn.

edit: is inmiddels besteld :)

[ Voor 3% gewijzigd door Wlie op 27-05-2014 11:57 ]


Acties:
  • 0 Henk 'm!

  • g0ulash
  • Registratie: Januari 2011
  • Laatst online: 30-08 20:37
Ik heb een vraag over een toekomstige setup. Ik wil dus een NAS/Server gaan aanschaffen die voor een aantal dingen gaat dienen:

- Back-up van foto's en een klein beetje documenten (documenten gaan ook op Dropbox/Skydrive etc.)
- Downloadserver voor torrents en usenet
- (Waarschijnlijk) Plex media server, zodat ik via Rasplex en mijn tablet alles kan kijken.

OS dat ik wil gaan draaien is Debian en ik wil graag een RAID-Z1 opstelling maken.

Op dit moment heb ik dit lijstje gemaakt:

#ProductPrijsSubtotaal
1AMD Athlon 5350 Boxed€ 47,-€ 47,-
1ASRock AM1H-ITX€ 47,41€ 47,41
1Cooler Master Elite 130€ 39,40€ 39,40
1Samsung M391B1G73BH0-CH9€ 65,29€ 65,29
1be quiet! System Power 7 300W€ 30,98€ 30,98
1Kingston SSDNow V300 60GB€ 40,49€ 40,49
Bekijk collectie
Importeer producten
Totaal€ 270,57


P.S. Hier komt nog 3x WD Green 2TB bij.

De vragen die mij resten zijn:
- Zal de CPU krachtig genoeg zijn om te dienen als Plex media server en alle andere dingen die ik er mee wil doen (tegelijkertijd dan)?
- Is de PSU genoeg, of misschien wel te veel en kan ik beter voor een 19V adapter gaan?

Bedankt voor jullie reactie alvast :)

Acties:
  • 0 Henk 'm!

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 09-10 19:46
Verwijderd schreef op zondag 25 mei 2014 @ 09:35:
[...]

Dat had denk ik niet gehoeven; headparking kun je op de WD Green op 300 seconden instellen; en dat vind ik zelf nog veel beter dan helemaal uitschakelen. Sowieso is headparking op recente WD Green modellen veel minder agressief dan in het verleden. Dus als je nu Greens zou kopen, zou je headparking niet hoeven aan te passen.

Reds hebben natuurlijk wel een jaar extra garantie.
Hmm.. dat wist ik niet. Waarom zou je IntelliPark niet uitschakelen? Voor als ze een langere tijd staan te idlen neem ik aan? Dat gebeurt bij mij toch niet.
Verwijderd schreef op zondag 25 mei 2014 @ 09:35:
[...]

Het gaat er niet om dat de disk zichzelf 'repareert'. Het gaat erom dat de disk de laatste defensielinie is in je totale aanpak van bescherming van gegevens.

Je praat bijvoorbeeld helemaal niet over een degraded volue; dat is natuurlijk waar het hier om gaat. Als je geen bescherming meer geniet van de RAID-laag, dan ben je dus onbeschermd. Elke bad sector zal zich vertalen in verlies van informatie. Soms wel cruciaal, zoals de RAID metadata of filesystem metadata. Wat je dan niet wilt is dat de schijf geen eens wilt proberen om te recoveren, zoals in het geval van TLER. TLER doet weinig meer dan de recovery bijna helemaal uit te schakelen door de tijd te verkorten tot 7 seconden; minder dan de 10 seconden timeout die de strengste RAID controllers hanteren.
Nou, ik praat niet over degraded volumes, omdat ik óók graag wil voorkomen dat de array überhaupt degraded wordt door het voor niets failen van een disk.
Verwijderd schreef op zondag 25 mei 2014 @ 09:35:
[...]

Bij ZFS is het niet veel anders. Het is het OS en de storage backend die bepaalt of er een timeout is. En die timeout kan verschillen of je op SCSI subsystem zit of AHCI. Bij *BSD is dat het geval.


[...]

Huh, offline?!!

Welk OS gooit een hardeschijf 'offline' als er een sector niet kan worden gelezen? Als Linux daaronder valt, zou ik direct van OS wisselen. Maar dat geloof ik niet. Het zijn hardware RAID controllers die onder deze categorie vallen. Het zou kunnen dat degene die jou dat advies geeft, zelf een controller gebruikt zoals Areca. Deze zijn ongeschikt voor Software RAID omdat ze inderdaad bij bad sectors de schijf onzichtbaar maken voor het OS. Daar kan het OS helemaal niets aan doen. Een controller die het OS verbied om contact met schijven te onderhouden klinkt erg sharia in mijn oren. Daar word ik niet blij van.
Volgens man md probeert mdadm bij een read error eerst een ata_reset(), maar als dat niet lukt dan wordt deze gewoon uit de array gekicked; dat bedoel ik met offline:
If the md driver detects a write error on a device in a RAID1, RAID4, RAID5, RAID6, or RAID10 array, it immediately disables that device (marking it as faulty) and continues operation on the remaining devices. If there are spare drives, the driver will start recreating on one of the spare drives the data which was on that failed drive, either by copying a working drive in a RAID1 configuration, or by doing calculations with the parity block on RAID4, RAID5 or RAID6, or by finding and copying originals for RAID10.

In kernels prior to about 2.6.15, a read error would cause the same effect as a write error. In later kernels, a read-error will instead cause md to attempt a recovery by overwriting the bad block. i.e. it will find the correct data from elsewhere, write it over the block that failed, and then try to read it back again. If either the write or the re-read fail, md will treat the error the same way that a write error is treated, and will fail the whole device.
Verwijderd schreef op zondag 25 mei 2014 @ 09:35:
[...]

Ik zie niet in waarom het zou uitmaken of je OS zegt read error, of dat de schijf zegt read error. Ik zou verwachten dat dit leidt tot hetzelfde gedrag op het niveau van het filesystem en RAID layer. Je kunt de disk timeouts vaak ook veranderen, in elk geval onder *BSD OS.
Nou het zou kunnen dat als de SCSI-laag de MD-laag bypassed en dus het hele device faalt.
Verwijderd schreef op zondag 25 mei 2014 @ 09:35:
[...]

Het is denk ik een beetje aan welke kant van het argument je staat. Als je nooit degraded zult draaien dan kun je prima met TLER ingeschakeld draaien, als jouw OS daar sneller mee om kan gaan. Want dat is wel een nadeel: recovery betekent lange timeouts tenzij je OS eerder ingrijpt.

Echter, als je ooit degraded zou draaien, dan wil je niet dat bad sector recovery min of meer wordt uitgeschakeld. Dat kan er zomaar voor zorgen dat belangrijke data wordt 'opgegeven' omdat je degraded draait en de schijven niet de kans kregen om serieuze recovery te proberen. Dan is het dus jammer voor je data. En dat is de reden dat ik zeg, probeer met TLER uitgeschakeld te draaien. Wil je korte timeouts, los dit dan op in je OS. Zo hoort het IMO.
Sowieso, mocht ik degraded komen te draaien met 0 parity disks dan zal het eerste zijn wat ik doe TLER uitschakelen en de recovery limits van de SCSI layer verhogen naar een kwartier ofzo. Want dan heeft de MD recovery-procedure überhaupt geen zin.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


Acties:
  • 0 Henk 'm!

Verwijderd

g0ulash schreef op dinsdag 27 mei 2014 @ 11:41:
Ik heb een vraag over een toekomstige setup. Ik wil dus een NAS/Server gaan aanschaffen die voor een aantal dingen gaat dienen:
Geheugen zou ik aanpassen; je hebt eigenlijk het slechtste geheugen (CL11, DDR3/1333 en dan nog op 1.5V). Je kunt voor dezelfde prijs CL8, DDR3/1600 en 1.35V krijgen; superieur dus. pricewatch: Crucial Ballistix Tactical BLT2C8G3D1608ET3LX0CEU (met 1 latje kon ik niet zo snel vinden)

Sandforce SSD moet je niet kopen; Crucial M500 120GB is dubbel zo groot, iets duurder en vele malen beter en betrouwbaarder.

Verder de voeding kun je dumpen als je een zuinige NAS wilt. Met ATX-voeding kan dat best wat schelen. Alleen zijn drie schijven met PicoPSU wel op het randje. Kan opzich prima met 25W TDP + 16W + 16W + 16W = 73W. Met een 80W netvoeding heb je dan genoeg piekvermogen om de hardeschijven op te laten spinnen. Echter, je kunt dan niet eindeloos uitbreiden; omdat je netvoeding (power brick) dat niet trekt. 150W +12V voedingsblokken zijn erg duur.
Is de PSU genoeg, of misschien wel te veel en kan ik beter voor een 19V adapter gaan?
Ah ja, dit bord heeft al een ingebouwde PicoPSU; maar dan niet met 12V maar 19V. Dat is ook makkelijker om hoger wattage netblokken te krijgen; veel laptops draaien op 19V bijvoorbeeld. Ik zou inderdaad proberen om je ATX-voeding te dumpen.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 09:53
Verwijderd schreef op dinsdag 27 mei 2014 @ 20:53:
[...]

Geheugen zou ik aanpassen; je hebt eigenlijk het slechtste geheugen (CL11, DDR3/1333 en dan nog op 1.5V). Je kunt voor dezelfde prijs CL8, DDR3/1600 en 1.35V krijgen; superieur dus. pricewatch: Crucial Ballistix Tactical BLT2C8G3D1608ET3LX0CEU (met 1 latje kon ik niet zo snel vinden)
Dat is deze: pricewatch: Crucial BLT8G3D1608ET3LX0CEU

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • g0ulash
  • Registratie: Januari 2011
  • Laatst online: 30-08 20:37
Verwijderd schreef op dinsdag 27 mei 2014 @ 20:53:
[...]

Geheugen zou ik aanpassen; je hebt eigenlijk het slechtste geheugen (CL11, DDR3/1333 en dan nog op 1.5V). Je kunt voor dezelfde prijs CL8, DDR3/1600 en 1.35V krijgen; superieur dus. pricewatch: Crucial Ballistix Tactical BLT2C8G3D1608ET3LX0CEU (met 1 latje kon ik niet zo snel vinden)

Sandforce SSD moet je niet kopen; Crucial M500 120GB is dubbel zo groot, iets duurder en vele malen beter en betrouwbaarder.

Verder de voeding kun je dumpen als je een zuinige NAS wilt. Met ATX-voeding kan dat best wat schelen. Alleen zijn drie schijven met PicoPSU wel op het randje. Kan opzich prima met 25W TDP + 16W + 16W + 16W = 73W. Met een 80W netvoeding heb je dan genoeg piekvermogen om de hardeschijven op te laten spinnen. Echter, je kunt dan niet eindeloos uitbreiden; omdat je netvoeding (power brick) dat niet trekt. 150W +12V voedingsblokken zijn erg duur.


[...]

Ah ja, dit bord heeft al een ingebouwde PicoPSU; maar dan niet met 12V maar 19V. Dat is ook makkelijker om hoger wattage netblokken te krijgen; veel laptops draaien op 19V bijvoorbeeld. Ik zou inderdaad proberen om je ATX-voeding te dumpen.
120GB SSD vind ik eigenlijk redelijk onzin, omdat dat veel te veel is. Ik zal nog eens zoeken naar andere mogelijkheden.

Wat betreft het geheugen, het geheugen dat je nu aanwijst is niet ECC, mis ik daar niet een goed stuk in dan?

edit:
Ik zie nu net dat het moederbord toch geen ECC ondersteund dus ik kan inderdaad het beste naar andere RAM op zoek.


Wat voor PSU/adapter raad je dan aan? Een laptopvoeding? Dat kan ik niet echt uit je verhaal filteren.

[ Voor 3% gewijzigd door g0ulash op 27-05-2014 21:20 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Alleen sommige bordjes/processors kunnen ECC geheugen; als je ECC wilt moet je flink extra de portemonnee trekken. Alleen oudere AMD platforms kun je ECC enigszins goedkoop krijgen.

Als je een 120GB SSD neemt kun je 60GB daarvan gebruiken voor L2ARC bijvoorbeeld; je dient een groot gedeelte (30 - 50%) als overprovisioning over te laten. Een 60GB SSD kun je hooguit als 30GB L2ARC gebruiken. Daarnaast wil je wellicht ook je OS op de SSD installeren, dus 60GB is echt te klein. Als je geen L2ARC wilt zou ik helemaal geen SSD kopen. Maar als je een SSD koopt, koop dan een echte ipv Kingston/Sandforce enzo. Die zijn ook voor sLOG feature niet geschikt en sowieso lever je héél veel kwaliteit in voor een paar euro. Liever geen SSD dan; zou ik je dan aanraden. Je kunt het achteraf altijd doen.

Maar je wilt Linux draaien dus dat sluit Root-on-ZFS ook een beetje uit; omdat dat nog erg buggy werkt op Linux platform. Dus in dat geval zou je misschien toch naar een SSD willen kijken; of je moet je HDDs zo formatteren dat ze allemaal x gigabyte aan het begin reserveren voor je operating system.

Als je voor dat ASRock bordje gaat; dan hoort daar een 19V-voedingsblok bij inderdaad. Je hebt een header op het moederbord waarmee je enkele schijven van stroom kunt voorzien; je hebt immers geen losse stroomstekkers meer. Je hebt daar wel nog een SATA splitterkabel bij nodig, zoals: pricewatch: Silverstone SST-CP06 4x SATA.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 09:53
ECC is één van de punten waar de meningen over uiteen lopen. Sommigen vinden het niet echt noodzakelijk voor thuis, anderen hebben het geld er niet voor over en weer anderen geven meer geld uit om maar ECC te kunnen gebruiken. Dus die discussie wil ik even niet aanboren (gebruik de zoekfunctie, kom je er veel over tegen).

Dat CiPHER geen ECC selecteert is logisch aangezien het Kabini setje wel ECC udimm aankan, maar de ECC functionaliteit werkt niet. Dus feitelijk heb je er geen voordeel van om ECC modules te nemen op een dergelijk setje.

Wat de voeding betreft. Een 12V adapter kan ook met het moederbord. Zie ook vanaf deze reactie.

[ Voor 13% gewijzigd door Dadona op 27-05-2014 21:26 ]

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • g0ulash
  • Registratie: Januari 2011
  • Laatst online: 30-08 20:37
Verwijderd schreef op dinsdag 27 mei 2014 @ 21:24:
Alleen sommige bordjes/processors kunnen ECC geheugen; als je ECC wilt moet je flink extra de portemonnee trekken. Alleen oudere AMD platforms kun je ECC enigszins goedkoop krijgen.

Als je een 120GB SSD neemt kun je 60GB daarvan gebruiken voor L2ARC bijvoorbeeld; je dient een groot gedeelte (30 - 50%) als overprovisioning over te laten. Een 60GB SSD kun je hooguit als 30GB L2ARC gebruiken. Daarnaast wil je wellicht ook je OS op de SSD installeren, dus 60GB is echt te klein. Als je geen L2ARC wilt zou ik helemaal geen SSD kopen. Maar als je een SSD koopt, koop dan een echte ipv Kingston/Sandforce enzo. Die zijn ook voor sLOG feature niet geschikt en sowieso lever je héél veel kwaliteit in voor een paar euro. Liever geen SSD dan; zou ik je dan aanraden. Je kunt het achteraf altijd doen.

Maar je wilt Linux draaien dus dat sluit Root-on-ZFS ook een beetje uit; omdat dat nog erg buggy werkt op Linux platform. Dus in dat geval zou je misschien toch naar een SSD willen kijken; of je moet je HDDs zo formatteren dat ze allemaal x gigabyte aan het begin reserveren voor je operating system.

Als je voor dat ASRock bordje gaat; dan hoort daar een 19V-voedingsblok bij inderdaad. Je hebt een header op het moederbord waarmee je enkele schijven van stroom kunt voorzien; je hebt immers geen losse stroomstekkers meer. Je hebt daar wel nog een SATA splitterkabel bij nodig, zoals: pricewatch: Silverstone SST-CP06 4x SATA.
(Ik merk dat je er nog wat termen in gooit die ik nog moet Googlen, haha. Maar hele fijne feedback in ieder geval).

Ik heb de SSD vervangen voor een Samsung 840 EVO 120GB, omdat ik die goedkoop kan krijgen via mijn werk (goedkoper dan die Crucial).

Wat betreft de laptoplader zit ik nog even te kijken welke ik het beste zou kunnen kopen, maar ik zie dat het in ieder geval een DC Jack aansluiting is. Die kan ik ook nog wel een fatsoenlijke kopen via mijn werk. Ik denk dat ik dan het beste voor 90-120W kan gaan?
Dadona schreef op dinsdag 27 mei 2014 @ 21:24:
ECC is één van de punten waar de meningen over uiteen lopen. Sommigen vinden het niet echt noodzakelijk voor thuis, anderen hebben het geld er niet voor over en weer anderen geven meer geld uit om maar ECC te kunnen gebruiken. Dus die discussie wil ik even niet aanboren (gebruik de zoekfunctie, kom je er veel over tegen).

Dat CiPHER geen ECC selecteert is logisch aangezien het Kabini setje wel ECC udimm aankan, maar de ECC functionaliteit werkt niet. Dus feitelijk heb je er geen voordeel van om ECC modules te nemen op een dergelijk setje.

Wat de voeding betreft. Een 12V adapter kan ook met het moederbord. Zie ook vanaf deze reactie.
Hmm, zo te zien aan de reacties kan ik misschien beter voor de 19V gaan. Wat mux zegt m.b.t de hardeschijven.

[ Voor 18% gewijzigd door g0ulash op 27-05-2014 21:40 ]


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 14:20
g0ulash schreef op dinsdag 27 mei 2014 @ 21:37:
Ik heb de SSD vervangen voor een Samsung 840 EVO 120GB, omdat ik die goedkoop kan krijgen via mijn werk (goedkoper dan die Crucial).
Voor sLOG of L2ARC? Voor sLOG zijn Samsungs niet geschikt omdat die na een unexpected power down een journal rollback doen, Crucials flushen wat ze nog in cache hebben.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

Verwijderd

HarmoniousVibe schreef op dinsdag 27 mei 2014 @ 18:28:
Hmm.. dat wist ik niet. Waarom zou je IntelliPark niet uitschakelen? Voor als ze een langere tijd staan te idlen neem ik aan? Dat gebeurt bij mij toch niet.
Headparking is een nuttige feature. Het beschermt je leeskop tegen vibraties en als je langdurig bij 24/7 gebruik de schijf niet gebruikt is dat wel wenselijk. Verder scheelt het ook energie. Als je ze 24/7 zonder spindown gaat gebruiken dan is headparking zeker een nuttige feature. Bij oudere WD-schijven stond dit echter heel agressief ingesteld (7 seconden). Dat is nu verbeterd en je hoeft er eigenlijk niets meer aan te doen.

Spindown is voor de WD schijf niet zo interessant; van 2,8 watt naar 0,5 watt en daar lever je dan wel voor in dat je moet wachten bij het opspinnen. Ook kan het extra voor slijtage zorgen als je heel veel up- en downspint.
Nou, ik praat niet over degraded volumes, omdat ik óók graag wil voorkomen dat de array überhaupt degraded wordt door het voor niets failen van een disk.
Bij de eerste de beste bad sector zit je al met een degraded situatie; omdat je voor die sector niet alle bronnen hebt. TLER in zo'n situatie kan ervoor zorgen dat de data niet meer te recoveren is, terwijl zonder TLER je dat nog wel had kunnen recoveren. Dit geldt dus ook voor complete arrays.

En dat je niet degraded wilt draaien is logisch; maar als één schijf crasht en jij gaat rebuilden met een reserveschijf; dan moet je dus vertrouwen dat je geen bad sectors op de overige schijven krijgt. Als dat wel gebeurt heb je een probleem en al helemaal als TLER is ingeschakeld.
Volgens man md probeert mdadm bij een read error eerst een ata_reset(), maar als dat niet lukt dan wordt deze gewoon uit de array gekicked; dat bedoel ik met offline
De schijf wordt dan gewoon nog door het Operating System gezien; alleen de RAID engine besluit de schijf niet langer te gebruiken. Een schijf hoort nooit onzichtbaar te worden; dat gebeurt alleen bij Hardware RAID.

Conclusie is denk ik dat er argumenten kunnen zijn om juist vóór TLER of juist tegen TLER te kiezen. Wat ik vooral wilde bereiken met mijn betoog is dat TLER niet automatisch als iets 'nuttigs' of als 'extra' wordt gezien. Integendeel: als je het niet nodig hebt, dan wil je het ook niet. Het is een vieze smerige hack voor RAID engines die niet goed geschreven zijn; bijna alle RAID engines vallen daaronder. Als het OS echter netjes geschreven is, heb je nooit geen TLER nodig. Als je wilt dat de schijf ophoudt met recoveren, kan er gewoon een RESET-commando worden gestuurd. De meeste RAID engines zijn gewoon amateuristisch; met name die voor Windows. Linux is ook niet perfect; BSD heeft default ook niet de juiste instellingen. Er kan dus nog een hoop worden verbeterd. Ook ZFS is niet perfect, maar komt zeker in de buurt omdat je eigenlijk nooit meer last hebt van bad sectors in een redundante configuratie.

Acties:
  • 0 Henk 'm!

  • g0ulash
  • Registratie: Januari 2011
  • Laatst online: 30-08 20:37
Paul schreef op dinsdag 27 mei 2014 @ 22:19:
[...]
Voor sLOG of L2ARC? Voor sLOG zijn Samsungs niet geschikt omdat die na een unexpected power down een journal rollback doen, Crucials flushen wat ze nog in cache hebben.
Goed om te weten, dan ga ik een Crucial fixen.

#ProductPrijsSubtotaal
1AMD Athlon 5350 Boxed€ 47,-€ 47,-
1ASRock AM1H-ITX€ 47,-€ 47,-
1Cooler Master Elite 130€ 39,40€ 39,40
1Silverstone SST-CP06 4x SATA€ 8,08€ 8,08
1Crucial BLT8G3D1608ET3LX0CEU€ 70,17€ 70,17
1Crucial M500 2,5" 120GB€ 55,90€ 55,90
Bekijk collectie
Importeer producten
Totaal€ 267,55


Dit wordt hem dan. Mijn laatste vraag was nog m.b.t. de power van de APU om als Plex Media Server te dienen. Daar is deze krachtig genoeg voor toch?
Verder geen opmerkingen meer nodig denk ik? Nog een goede 19V 90W (of 120W) adapter bij vinden en dan is het compleet.

Bedankt voor jullie advies.

EDIT:

Ik zat eerst te twijfelen om voor de pricewatch: Cooler Master Elite 110 te gaan, maar daar past niet alles in als ik een ATX PSU neem. Misschien dat het nu wel gaat passen? Weet niet echt wat de uitbreidingsmogelijkheden zijn.

[ Voor 5% gewijzigd door g0ulash op 28-05-2014 07:58 ]


Acties:
  • 0 Henk 'm!

  • hidde212
  • Registratie: Mei 2011
  • Laatst online: 20:00

hidde212

Free your mind...

...and your ass will follow


Acties:
  • 0 Henk 'm!

  • g0ulash
  • Registratie: Januari 2011
  • Laatst online: 30-08 20:37

Acties:
  • 0 Henk 'm!

  • slooffmaster
  • Registratie: September 2013
  • Laatst online: 23-07 23:39
@Julesk
Voor transcoding van een enkele HD stream met Plex zou deze CPU (Passmark van 2631) voldoende moeten zijn. Zie ook:
https://support.plex.tv/hc/en-us/articles/201774043

[ Voor 4% gewijzigd door slooffmaster op 29-05-2014 07:15 ]


Acties:
  • 0 Henk 'm!

  • Ganymedus
  • Registratie: Maart 2001
  • Laatst online: 03-09-2023
Paul schreef op maandag 26 mei 2014 @ 07:30:
Wat wil je er precies mee doen? De goedkoopste Celeron is voor de meeste taken snel genoeg, zelfs (één) stream transcoden in Plex moet wel lukken. Wil je meer dan ga je richting een i3 voor 2 of 3 streams en een i5 als je nog meer gaat streamen. Behalve Plex zijn er niet zo heel veel applicaties die thuisgebruikers veel gebruiken en die heftig aan de CPU trekken volgens mij.
In een notendop wil ik de volgende dingen ondernemen:
Streamen 1080p video, max 3 stromen tegelijkertijd;
VM server, max 1 vm omgeving tegelijkertijd;
backup twee MacBooks met redundancy;
Storage voor 126 gb foto's met redundancy;
Online privat cloud.

Díreach don la ínníu ná bíodh buaírt ort!


Acties:
  • 0 Henk 'm!

  • TrsvK
  • Registratie: September 2006
  • Laatst online: 16-09 16:46
Heren,

ik heb een tijdje geleden een ZFS nas gebouwd die op FreeNas loopt. Deze is verbonden via twee nics op het moederbord van mijn NAS met een managed switch zodat ik LACP kan gebruiken.

Nu wil ik een PC bouwen en deze ook via LACP verbinden zodat ik een 2Gb/s verbinding met mn NAS heb.
Is het daarvoor nodig dat ik voor deze pc een moederbord uitzoek met twee nics of kan ik ook LACP gebruiken met een onboard en een pci nic? Zo ja, kan ik dat dan gewoon softwarematig (in windows 7/8) instellen?

Acties:
  • 0 Henk 'm!

Verwijderd

Als je 2Gbps link wilt tussen twee machines; is LACP misschien niet de beste oplossing. Round robin zorgt namelijk wel voor een 2Gbps link tussen twee punten; iets wat jij denk ik wilt. LACP werkt goed bij meerdere connecties. Bijvoorbeeld één server met 4x gigabit in LACP zodat deze aan 4 computers max 1Gbps per stuk kan leveren.

Acties:
  • 0 Henk 'm!

  • TrsvK
  • Registratie: September 2006
  • Laatst online: 16-09 16:46
Verwijderd schreef op vrijdag 30 mei 2014 @ 17:50:
Als je 2Gbps link wilt tussen twee machines; is LACP misschien niet de beste oplossing. Round robin zorgt namelijk wel voor een 2Gbps link tussen twee punten; iets wat jij denk ik wilt. LACP werkt goed bij meerdere connecties. Bijvoorbeeld één server met 4x gigabit in LACP zodat deze aan 4 computers max 1Gbps per stuk kan leveren.
Ah stom 8)7 bedankt voor je reactie. Denk dat ik het dan maar bij 1 nic hou.. dat scheelt weer in de kosten.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 06-10 19:19
10GE werkt wel goed, maar is veel duurder..
Ongeveer 300 € per NIC en een kabel van 60€ voor een point to point link.
Switch hakt er helemaal in voor 800+ €

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!
Als je dan voor 10Gb gaat, koop dan deze: pricewatch: Intel X540-T1

Kan je gewoon een UTP kabeltje gebruiken van 5 euro.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Je kunt denk ik beter wachten op Thunderbolt; die krijgt ingebouwde PC-to-PC networking feature. Dus dan kun je straks een addon kaart kopen of het zit al op het moederbord, kabeltje tussen de server en desktop en je hebt 20 gigabit schoon aan de haak. Veel goedkoper en beter toegankelijk. Daar zet ik op in; want 10 gigabit is gewoon een ramp geworden. Dat blijft buiten bereik van consumenten; terwijl 1 gigabit begin 21e eeuw wel snel in prijs zakte. Bij 10 gigabit lijkt dat totaal niet het geval te zijn. Er is ook eigenlijk maar één echte chip: die van Intel. En er werd gesproken over 10GbE LOM (LAN-on-Motherboard) in 2014, maar dat heb ik enkel gezien op bordjes van 1000+ euro van SuperMicro, zogenaamde blade servers.

Kortom, erg teleurstellend voor ons dat 10GbE niet is doorgebroken. Viel natuurlijk te verwachten omdat 'wij' een te kleine markt zijn. Maar technisch gezien is het helemaal niet zo moeilijk om een 10-dollar chipje te maken wat 10 gigabit aan kan, denk ik dan.

Acties:
  • 0 Henk 'm!
Dat zal je nog vies tegenvallen... Je wil het complete TCP stack (offloading features enzo) in de chip bouwen. Als je CPU dat moet doen wordt het allemaal zo traag dat je er echt last van hebt.

De enige goede 10Gb chipjes zijn daarom stukken duurder, omdat deze een hoop extra offloading features in hardware implementeren.

Desalniettemin blijft het een gegeven dat de 10Gb prijs haast kunstmatig hooggehouden wordt...

PS: Overdrijven is ook een vak trouwens:
http://tweakers.net/categ...AVFlijpJVtJKhpbm5UmxtbS0A
http://www.tomshardware.c...erboard-10-gbe,26234.html


Bovendien is er ook nog dit:
http://www.hdbaset.org/technology

[ Voor 29% gewijzigd door FireDrunk op 30-05-2014 20:56 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Ik ben naar de HP NC522SFP aan het kijken gecombineerd met directattach, deze komen soms goedkoop langs op ebay.

[ Voor 25% gewijzigd door analog_ op 31-05-2014 12:29 ]


Acties:
  • 0 Henk 'm!

  • TrsvK
  • Registratie: September 2006
  • Laatst online: 16-09 16:46
Zon thunderbolt klinkt dan inderdaad wel als een aantrekkelijke upgrade in de toekomst. Het PCI x8 slot van de Asrock C2550 die ik gebruik is nog leeg gelukkig.

Eerst maar eens sparen voor een stapel greens. Ik hou nu al een half jaar de prijs van de 4tb versies in de gaten maar helaas willen deze nog niet echt dalen.

Acties:
  • 0 Henk 'm!

  • TrsvK
  • Registratie: September 2006
  • Laatst online: 16-09 16:46
Ik ben van plan om te beginnen met 6x4tb WD greens in raidz2. Later wil ik uitbreiden naar 10x4tb. Weet een van jullie misschien een workaround oid om deze overgang zo gemakkelijk, goedkoop en veilig mogelijk te laten verlopen? (Een tweede r2 pool zou uiteraard veiliger zijn maar er kunnen niet meer dan 10 schijven in de kast en om 6/10 schijven beschikbaar te hebben vindt ik wat weinig.

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 17:54
FireDrunk schreef op vrijdag 30 mei 2014 @ 20:48:
Dat zal je nog vies tegenvallen... Je wil het complete TCP stack (offloading features enzo) in de chip bouwen. Als je CPU dat moet doen wordt het allemaal zo traag dat je er echt last van hebt.

De enige goede 10Gb chipjes zijn daarom stukken duurder, omdat deze een hoop extra offloading features in hardware implementeren.
Jup :+ . Vandaag de dag zijn we voor een aantal klanten setups aan het uittekenen, en er zijn nu al genoeg voorbeelden te vinden waarbij zelfs zonder offloading CPU's (of een core toch al) volledig dichtgetrokken worden en waarbij je echt goed moet opletten hoe je met je software (OS) laag in combinatie met de offloading technieken EN dan ook nog eens drivers/firmware moet omgaan...

http://blogs.technet.com/...-10-gigabit-ethernet.aspx

@CiPHER: de "nood" aan 10Gbit is trouwens ook een heel stuk kleiner nu dan de nood van 1Gbit ooit was in het 100Mbit-tijdperk. Dat was zo de periode dat P2P opleefde, je DivX filmpjes snel wou overzetten van computer computer en HD films opkwamen... Die nood daaraan bij de doorsnee consument ligt vandaag de dag veel lager... 1Gbit voldoet nog prima, hell, ik ben er zeker van dat een meerderheid van gewone gezinnen vaak nog op 100Mbit zit en daar prima tevreden mee is...

Acties:
  • 0 Henk 'm!

Verwijderd

en er zijn nu al genoeg voorbeelden te vinden waarbij zelfs zonder offloading CPU's (of een core toch al) volledig dichtgetrokken
Met Netmap zou dat geen issue meer moeten zijn: http://info.iet.unipi.it/.../plot-tx-clock-201109.jpg

En ja ik snap wel dat 1 gigabit voor casual desktop prima is. Maar voor een NAS is 10Gbps of 20Gbps toch wel beter. Bovendien vind ik dat een interface nooit de bottleneck mag zijn; het draadje moet altijd sneller zijn dan de twee uiteinden. Zo moeilijk is dat ook niet, lijkt me. Alsof 10 gigabit datatransport in 2014 nu zo high-tech zou moeten zijn. Dat kan prima met een goedkoop Realtek-chippie, me dunkt.

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 17:54
Als ik het goed begrijp komt het gewoon op RSS neer?

Dat je netwerktraffiek gebalanced afgehandeld wordt door alle cores?

Acties:
  • 0 Henk 'm!

Verwijderd

RSS? Enlighten me? Ik ken alleen web-RSS. :P

Netmap is gewoon de FreeBSD TCP-stack omzeilen en het kennelijk op een veel directere manier doen. Een beetje Sendfile maar dan voor netwerk I/O ipv disk I/O zoals ik met mijn beperkte technische kennis kan volgen.

Als ik het goed begrijp kan Netmap ervoor zorgen dat je heel goed schaalt met cores en sowieso heel weinig CPU-kracht nodig hebt om héél veel TCP/IP packets te verzenden. Enig nadeel is dat het ook de firewall en andere dingen omzeilt, maar volgens mij was daar werk voor om ook dat nadeel te tackelen. Ik heb Netmap overigens nooit gebruikt.... maar het klinkt veelbelovend voor een 10GbE NAS. Of 20GbE zoals straks met Thunderbolt. Ik heb er wel zin in. :Y)

Acties:
  • 0 Henk 'm!

  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 12:23
TrsvK schreef op zondag 01 juni 2014 @ 01:45:
Ik ben van plan om te beginnen met 6x4tb WD greens in raidz2. Later wil ik uitbreiden naar 10x4tb. Weet een van jullie misschien een workaround oid om deze overgang zo gemakkelijk, goedkoop en veilig mogelijk te laten verlopen? (Een tweede r2 pool zou uiteraard veiliger zijn maar er kunnen niet meer dan 10 schijven in de kast en om 6/10 schijven beschikbaar te hebben vindt ik wat weinig.
Dit gaat niet. Je zult of een 2e pool/dev moeten aanmaken (met 4 HD's) of alles formateren en met 10 schijven aanmaken. Ik heb hetzelfde probleem en heb dus een 2e NAS gemaakt ;).

Om toch niet teveel geld kwijt te zijn, zou je een volledige backup moeten maken en daarna die 10 schijven in RaidZ2 zetten. Vervolgens terugkopieren....

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 06-10 19:19
Komen er ook makkelijke interface voor netmap ?
Desnoods een command line copy commando, maar de huidige voorbeelden zijn ehh niet geschikt voor iedereen.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • swat!
  • Registratie: September 2004
  • Laatst online: 20:12

swat!

computeraar

Verwijderd schreef op dinsdag 27 mei 2014 @ 20:53:
[...]

Geheugen zou ik aanpassen; je hebt eigenlijk het slechtste geheugen (CL11, DDR3/1333 en dan nog op 1.5V). Je kunt voor dezelfde prijs CL8, DDR3/1600 en 1.35V krijgen; superieur dus. pricewatch: Crucial Ballistix Tactical BLT2C8G3D1608ET3LX0CEU (met 1 latje kon ik niet zo snel vinden)

Sandforce SSD moet je niet kopen; Crucial M500 120GB is dubbel zo groot, iets duurder en vele malen beter en betrouwbaarder.

Verder de voeding kun je dumpen als je een zuinige NAS wilt. Met ATX-voeding kan dat best wat schelen. Alleen zijn drie schijven met PicoPSU wel op het randje. Kan opzich prima met 25W TDP + 16W + 16W + 16W = 73W. Met een 80W netvoeding heb je dan genoeg piekvermogen om de hardeschijven op te laten spinnen. Echter, je kunt dan niet eindeloos uitbreiden; omdat je netvoeding (power brick) dat niet trekt. 150W +12V voedingsblokken zijn erg duur.


[...]

Ah ja, dit bord heeft al een ingebouwde PicoPSU; maar dan niet met 12V maar 19V. Dat is ook makkelijker om hoger wattage netblokken te krijgen; veel laptops draaien op 19V bijvoorbeeld. Ik zou inderdaad proberen om je ATX-voeding te dumpen.
Ook ik ben van plan een DIY nasje te bouwen. Deze keer gaat het met name om de (energie)zuinigheid en FreeBSD icm ZFS.

Tot nu toe heb ik dit lijstje samengesteld:

#ProductPrijsSubtotaal
1AMD Athlon 5350 Boxed€ 46,99€ 46,99
1ASRock AM1H-ITX€ 47,-€ 47,-
1Cooler Master Elite 110€ 36,-€ 36,-
1Silverstone SST-CP06 4x SATA€ 8,08€ 8,08
1Crucial BLT8G3D1608ET3LX0CEU€ 70,17€ 70,17
Bekijk collectie
Importeer producten
Totaal€ 208,24


Daarnaast zijn deze schijven nog in mijn bezit, waarvan ik er 2 wil bijkopen:

#ProductPrijsSubtotaal
2Samsung SpinPoint M8 HN-M101MBB, 1TB€ 54,-€ 108,-
Bekijk collectie
Importeer producten
Totaal€ 108,-


Volgens deze site is de startup power consumption 3.89W, dus mits ik een goede netvoeding op de kop weet te tikken moet dat geen probleem zijn, toch?

EV6 Plus


Acties:
  • 0 Henk 'm!
jacovn schreef op zondag 01 juni 2014 @ 10:23:
Komen er ook makkelijke interface voor netmap ?
Desnoods een command line copy commando, maar de huidige voorbeelden zijn ehh niet geschikt voor iedereen.
Als Netmap goed geintegreerd wordt, en eventueel een 'echte' standaard zou worden, zouden alle reguliere tools vanzelf met dat stack gaan werken. Dan zouden reguliere tools gewoon die functionaliteit moeten gebruiken zonder dat de gebruiker er iets voor hoeft te doen... Het is in principe gewoon TCP.

Wat nog wel vergeten word is dat 10Gb pakketjes maken leuk is, maar maar de helft van het verhaal.

Voor applicaties die niet aan netmap voldoen als het er daadwerkelijk is:
Je moet ook nog data genereren, en dat moet gedaan worden door applicaties, en die data moet nog uit de applicatie gekopieerd worden naar het Netmap geheugen. DAT is juist het geen wat bij 10Gb veel CPU load gaat geven... 1GB/s aan geheugen kopie slagen is niet erg, maar als je dat 3 keer moet doen door al je aplicatie lagen heen, gaat je CPU toch behoorlijk bottlenecken.

Netmap is vooral leuk voor PF routers enzo die 1 taak hebben en die op >10Gb willen doen.

Voor reguliere Python applicaties als SabNZBd, SickBeard, CouchPotato, en reguliere C/C++ applicaties als Samba en NFS zal het waarschijnlijk nog heeeeeeeeeeeeeeeel lang duren voor die iets als Netmap gaan gebruiken.

Even niets...


Acties:
  • 0 Henk 'm!

  • TrsvK
  • Registratie: September 2006
  • Laatst online: 16-09 16:46
EnerQi schreef op zondag 01 juni 2014 @ 09:51:
[...]


Dit gaat niet. Je zult of een 2e pool/dev moeten aanmaken (met 4 HD's) of alles formateren en met 10 schijven aanmaken. Ik heb hetzelfde probleem en heb dus een 2e NAS gemaakt ;).

Om toch niet teveel geld kwijt te zijn, zou je een volledige backup moeten maken en daarna die 10 schijven in RaidZ2 zetten. Vervolgens terugkopieren....
Daar was ik al bang voor. Dit is we echt een groot nadeel van ZFS. Wellicht dat ze er in de toekomst een oplossing voor vinden.

Acties:
  • 0 Henk 'm!

Verwijderd

Dit is we echt een groot nadeel van ZFS.
Dat wordt door veel consumenten zo gezien. Echter, moet je een paar dingen goed begrijpen:
  • ZFS kan uitbreiden op manieren wat bij traditioneel RAID juist weer onmogelijk is; zoals mixen van RAID levels, mixen van verschillende grootte hardeschijven etc.
  • Het uitbreiden van een RAID5 met enkele disk (OCE - Online Capacity Expansion) is een risicovolle feature. Er moet tijdens het 'omspitten' van de data niets fout gaan, zoals bad sectors en dergelijke. Gebeurt dat wel, dan kan het zijn dat je alles kwijt bent, of in elk geval aan de recovery bent toegewezen. En die recovery is zeker niet makkelijk als je disks zich in een staat bevinden ergens tussen een 4-disk RAID5 en een 5-disk RAID5 bijvoorbeeld.
  • Het uitbreiden van ZFS on the fly is mogelijk nog ingewikkelder, en daarbij ligt het gevaar van bugs op de loer. RAID is nog redelijk simpel maar ZFS is toch al een complex beest. Als je daar ook nog zo'n risicovolle feature op los laat, bestaat de kans dat het in specifieke situaties helemaal mis gaat.
  • Omdat er een risico aan kleeft, kun je het beste een backup maken van je data voor de expansion. Maar dan is de hele feature ook niet meer nuttig; dan kun je evengoed de RAID verwijderen en opnieuw aanmaken en van backup herstellen. Waarschijnlijk zelfs nog sneller ook.
  • Omdat consumenten als jij bijna zeker geen backups maken bij de expansion; is het niet ondersteunen ervan juist een verbetering van de bescherming van je data in de praktijk. Het dwingt je om dingen op de veilige manier te doen; of niet.
En verder:
  • Omdat je bij ZFS geld uitspaart (geen RAID-controller, geen BBU, geen dure RAID edition schijven) is het kopen van wat extra disks in de beginsituatie ook niet onoverkomelijk. Je geeft je geld nu tenminste uit aan zaken die voor een NAS heel relevant zijn: opslag. In plaats van een duur systeem wat nodig is om die schijven aan te zwengelen. Dat doe je nu met intelligente software. Kortom: je geeft nu je geld uit aan nuttige hardware ipv aan 'overhead'.
  • ZFS ondersteunt wel degelijk het on the fly uitbreiden; maar alleen voor mirrors en niet voor RAID-Z-familie. Je kunt dus een enkele disk naar een 3-voudige mirror omzetten door twee disks toe te voegen, en deze disks later weer verwijderen zodat je weer met een enkele disk zit.
  • Je kunt wat je wilt bereiken door van de huidige 6-disk RAID-Z2 twee pariteitdisks af te snoepen; dan draai je double degraded. Die twee kun je vervolgens gebruiken om tijdelijk data op te zetten. Dan kun je de pool van de overige 4 disks verwijderen en een nieuwe pool aanmaken: de 10-disk RAID-Z2 pool maar dan zonder de twee parity disks want daar staat je huidige data nog op. Zodra je van die twee disks hebt gekopieerd naar je nieuwe 10-disk RAID-Z2 pool, kun je de twee disks aan de nieuwe 10-disk pool toevoegen zodat deze niet meer double degraded maar complete is. En zodoende heb je gemigreerd van 6-disk RAID-Z2 naar 10-disk RAID-Z2. Voorwaarde is wel dat je data op twee disks past.

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 17:54
Hoe je het ook draait of keert CiPHER, korte conclusie is gewoon dat het allemaal technisch wel een uitdaging mag zijn voor de ZFS makers, maar dat boeit een eindgebruiker niet. Die komt gewoon nu tot de conclusie van 'ey fuck ik kan niet online uitbreiden' (en je weet wat ik bedoel, kom niet af met die halfbakken oplossing van extra vdev's toevoegen ;) ) . Het is gewoon bijzonder ruk, kut, goor, ambetant, inefficient, duur en wat nog allemaal dat wanneer je pool volloopt dat je dan eigenlijk bijna veroordeeld bent om een volledig setje nieuwe disks aan te schaffen om een homogeen vdev'je te hebben. En dan mag je de kosten al niet hebben om een aparte RAID controller met BBU te heben, die kosten heb je ook niet als je een Ubuntu RAID NAS bouwt...

Voor de rest is ZFS prima hoor, maar je moet het gewoon onderkennen dat dat wel een big major disadvantage is...

Ik heb telkens de investering gedaan van de hele set disks weg te doen en nieuwe aan te kopen. Maar vandaag de dag heb ik spijt dat ik geen RAIDZ2 draai ipv RAIDZ of er snel naar kan overschakelen door een diskje er bij te smijten nu, ook al ben ik 100 keer geruster dat ik ZFS met enkelvoudige pariteit heb dan wanneer ik mijn QNAP nog had met die rotte Seagate 2TB schijven... (maar dat had niets te maken met QNAP, eerder met die Seagates...)

[ Voor 6% gewijzigd door HyperBart op 01-06-2014 20:27 ]


Acties:
  • 0 Henk 'm!

Verwijderd

HyperBart schreef op zondag 01 juni 2014 @ 20:26:
Hoe je het ook draait of keert CiPHER, korte conclusie is gewoon dat het allemaal technisch wel een uitdaging mag zijn voor de ZFS makers, maar dat boeit een eindgebruiker niet.
Snap ik. Maar ik denk dat het de gebruiker wel boeit als tijdens een expansion-procedure er iets mis gaat en de gebruiker al zijn data kwijt is. Dat lijkt mij wel degelijk relevant voor de eindgebruiker.
Het is gewoon bijzonder ruk, kut, goor, ambetant, inefficient, duur en wat nog allemaal dat wanneer je pool volloopt dat je dan eigenlijk bijna veroordeeld bent om een volledig setje nieuwe disks aan te schaffen om een homogeen vdev'je te hebben.
Ik vind dat je het enorm overdrijft. Bij een CoW-filesystem wil je sowieso niet dat je de schijven tot de nok toe vult. Dus als je 4TB denkt nodig te hebben, dan bouw je een 8TB ZFS server. Dan heb je ook weer een tijd om er tegenaan te gaan. Tegen de tijd dat je meer opslag wilt, kun je ook heel gemakkelijk een nieuwe 2e NAS bouwen. Dat kost niet veel extra versus alleen extra disks bijkopen als je het slim doet. Bovendien kan de oude dan als offline backup draaien en de nieuwe zuinigere server als 24/7 online NAS.

Het is wel zo dat ZFS je dwingt je toekomst te plannen, terwijl bij regulier RAID5 met expansion je inderdaad argeloos kunt uitbreiden. Totdat het misgaat natuurlijk....
En dan mag je de kosten al niet hebben om een aparte RAID controller met BBU te heben, die kosten heb je ook niet als je een Ubuntu RAID NAS bouwt...
Maar een dergelijke setup biedt ook lang niet de bescherming die ZFS biedt. Een Ubuntu RAID NAS mag je bijvoorbeeld best een UPS gebruiken indien je RAID5 met onveilige write-back gebruikt. Daarnaast ook dure 10^-15 of 10^-16 uBER schijven om tegen bad sectors te beschermen. Als je het zo bekijkt, ben je ook t.o.v. Ubuntu stukken voordeliger uit waar je makkelijk twee tot drie keer zoveel disks voor kunt kopen.
Voor de rest is ZFS prima hoor, maar je moet het gewoon onderkennen dat dat wel een big major disadvantage is...
Ieder nadeel heb' ze voordeel. :)

Doordat de feature er niet is, voorkom je ook dat mensen het gebruiken. Gevolg is dat iedereen die met ZFS bezig is, op een veilige manier zijn NAS uitbreidt. Onveilig uitbreiden wordt simpelweg niet ondersteund.
Ik heb telkens de investering gedaan van de hele set disks weg te doen en nieuwe aan te kopen. Maar vandaag de dag heb ik spijt dat ik geen RAIDZ2 draai ipv RAIDZ of er snel naar kan overschakelen door een diskje er bij te smijten nu
Nouja dat is nog het beste argument eigenlijk. En daarin geef ik je opzich wel gelijk. Als de feature veilig zou worden ontwikkeld en jarenlang getest, dan zou het op lange termijn een nuttige en welkome toevoeging kunnen zijn.

De realiteit is denk ik dat - mocht de feature er komen - het eerst uitgebreid getest en debugged moet worden. In ZFS worden nog steeds dataloss/corruptie bugs gevonden; na zoveel jaar van intensief gebruik op zoveel verschillende platforms.... Is dat niet een waarschuwing dat we niet te gretig moeten zijn met BPR (online expansion voor ZFS) ?!

Acties:
  • 0 Henk 'm!

  • Phyt_
  • Registratie: Oktober 2009
  • Laatst online: 16:48
HyperBart schreef op zondag 01 juni 2014 @ 20:26:
Hoe je het ook draait of keert CiPHER, korte conclusie is gewoon dat het allemaal technisch wel een uitdaging mag zijn voor de ZFS makers, maar dat boeit een eindgebruiker niet. Die komt gewoon nu tot de conclusie van 'ey fuck ik kan niet online uitbreiden' (en je weet wat ik bedoel, kom niet af met die halfbakken oplossing van extra vdev's toevoegen ;) ) . Het is gewoon bijzonder ruk, kut, goor, ambetant, inefficient, duur en wat nog allemaal dat wanneer je pool volloopt dat je dan eigenlijk bijna veroordeeld bent om een volledig setje nieuwe disks aan te schaffen om een homogeen vdev'je te hebben. En dan mag je de kosten al niet hebben om een aparte RAID controller met BBU te heben, die kosten heb je ook niet als je een Ubuntu RAID NAS bouwt...

Voor de rest is ZFS prima hoor, maar je moet het gewoon onderkennen dat dat wel een big major disadvantage is...


Ik heb telkens de investering gedaan van de hele set disks weg te doen en nieuwe aan te kopen. Maar vandaag de dag heb ik spijt dat ik geen RAIDZ2 draai ipv RAIDZ of er snel naar kan overschakelen door een diskje er bij te smijten nu, ook al ben ik 100 keer geruster dat ik ZFS met enkelvoudige pariteit heb dan wanneer ik mijn QNAP nog had met die rotte Seagate 2TB schijven... (maar dat had niets te maken met QNAP, eerder met die Seagates...)
_/-\o_

You know you ve played warcraft III too much when.... Your sitting next to a guy at the busstop waiting for a bus, and he stands up before the bus gets there, and you claim that hes map hacking


Acties:
  • 0 Henk 'm!
@CiPHER, ik vind dat je dingen door elkaar haalt.

Tuurlijk is ZFS veiliger omdat het de gebruiker beperkt in het doen van een OCE.
Maar dat maakt het niet automatisch een non-valide use-case...

Een gebruiker doet een afweging tussen: Veilig, Features, Snelheid en Kosten.
JIJ (ik schaar jou even onder de ZFS achterban enzo... no flame intended) bent niet degene die mag bepalen of een USE CASE valide is of niet...

De gebruiker mag natuurlijk zelf weten wat hij wil. Het zal zeker waar zijn dat ZFS veiliger is zonder die functie, maar dannog zal een gebruiker de feature willen. Een gebruiker wil namelijk alles!

Zowel veilig, als OCE, als snelheid, als weet ik wat.

Dat ZFS het niet kan is gewoon kut, en roepen dat het een onnodige feature is omdat het een onveilige feature is, is een beetje hetzelfde zeggen als:

We hebben geen virusscanners nodig, als je veilig internet wil, trek je de stekker maar uit je pc.

Gebruikers willen features, en gebruikers hebben use-cases. Voor de rest... not important.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Ik heb niet gezegd dat het een onnodige feature is; wel dat er grote risico's aan zijn verbonden. Als je eenmaal zo'n feature gaat ondersteunen, gaan mensen het ook gebruiken. En natuurlijk ook flink klagen en balen als ze hun data kwijt zijn. Dan komen er opeens allemaal slechte verhalen over ZFS.

Je stelling is dat de programmeur niet mag bepalen wat de gebruiker met zijn systeem doet. Opzich ben ik het daar mee eens; de gebruiker is de baas. Maar het is wel aan de programmeur om bepaalde features al dan niet te implementeren. Zeker BPR is zeker geen triviale feature, maar één die ZFS toch een stuk complexer maakt en heel diep ingrijpt in hoe ZFS functioneert.

Zo is het in ZFSguru ook niet mogelijk om disks te gebruiken zonder ze eerst te formatteren met een naam. Dat is een feature om te voorkomen dat de gebruiker fouten maakt. In jouw gedachtegang is ook dit een slecht iets; omdat het afbreuk zou doen aan de macht van de gebruiker.

Ik ben tegen het 'verbieden' van dingen, maar het niet al te makkelijk maken voor naïeve gebruikers om foute dingen te doen lijkt mij wel degelijk wenselijk. Als de gebruiker echt risico wilt lopen, kan het op command line alles doen wat het wilt. Maar als je eenmaal een BPR feature officiëel gaat ondersteunen, moet het ook veilig werken. Anders kun je er beter helemaal niet aan beginnen.

Daarnaast is het probleem helemaal niet zo groot als jullie doen voorkomen. Door de kostenbesparingen versus traditionele oplossingen kun je bij voorbaat al genoeg schijven kopen zodat je niet hoeft uit te breiden. En voor grote builds kun je prima met vdevs uitbreiden; in groepjes van x disks.

Het enige waar ik opzich wel begrip voor kan opbrengen is dat een gebruiker nu best wat moeite moet doen om van een 6-disk RAID-Z2 naar een 10-disk RAID-Z2 te komen. Maar ook dat is mogelijk, mits je data op twee disks past. En dat is dan nog stukken veiliger dan zo'n online expansion. Hooguit omslachtiger.

Acties:
  • 0 Henk 'm!

  • Ravefiend
  • Registratie: September 2002
  • Laatst online: 09-10 13:32

Ravefiend

Carpe diem!

Verwijderd schreef op zondag 01 juni 2014 @ 21:17:
Het enige waar ik opzich wel begrip voor kan opbrengen is dat een gebruiker nu best wat moeite moet doen om van een 6-disk RAID-Z2 naar een 10-disk RAID-Z2 te komen. Maar ook dat is mogelijk, mits je data op twee disks past. En dat is dan nog stukken veiliger dan zo'n online expansion. Hooguit omslachtiger.
Precies de situatie die heb: van een 6 disk naar een 10 disk config willen met een paar tweede hands WD20EARS / WD20EARX, maar wat moet ik toch mijn huidige data? :P

Acties:
  • 0 Henk 'm!

Verwijderd

Zie ook mijn initiële voorstel daarover:

Verwijderd in "Het grote DIY RAID NAS topic deel 3"
Je kunt wat je wilt bereiken door van de huidige 6-disk RAID-Z2 twee pariteitdisks af te snoepen; dan draai je double degraded. Die twee kun je vervolgens gebruiken om tijdelijk data op te zetten. Dan kun je de pool van de overige 4 disks verwijderen en een nieuwe pool aanmaken: de 10-disk RAID-Z2 pool maar dan zonder de twee parity disks want daar staat je huidige data nog op. Zodra je van die twee disks hebt gekopieerd naar je nieuwe 10-disk RAID-Z2 pool, kun je de twee disks aan de nieuwe 10-disk pool toevoegen zodat deze niet meer double degraded maar complete is. En zodoende heb je gemigreerd van 6-disk RAID-Z2 naar 10-disk RAID-Z2. Voorwaarde is wel dat je data op twee disks past.
Edit: nog beter zou zijn als je de oude pool intact laat; je hebt als het goed is toch 4 disks bijgekocht en daarvan kun je er twee gebruiken om data op te zetten. Dan de oude pool verwijderen en de nieuwe aanmaken met 8 van de 10 disks (double degraded). Dan data overkopiëren van de twee disks met data erop naar de degraded pool, en vervolgens de disks toevoegen aan de pool en je hebt een 10-disk RAID-Z2 met je data erop. :)

[ Voor 20% gewijzigd door Verwijderd op 01-06-2014 21:25 ]


Acties:
  • 0 Henk 'm!

  • TrsvK
  • Registratie: September 2006
  • Laatst online: 16-09 16:46
In sommige situaties kan dit handig zijn maar meestal heb je (bijna) vier volle schijven op het moment dat je wilt upgraden aan gezien dat ruimtetekort de hoofdreden is van een dergelijke upgrade.

De beste (maar niet zo nette) oplossing die ik nu heb bedacht is het aanschaffen van een (aantal) externe drives om de data op te slaan op het moment van upgraden en deze terugsturen naar de webshop nadat ze hun dienst hebben bewezen. Dat kan wettelijk binnen 7 werkdagen en bij de mycom zelfs binnen 14.

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 17:54
TrsvK schreef op zondag 01 juni 2014 @ 23:09:
De beste (maar niet zo nette) oplossing die ik nu heb bedacht is het aanschaffen van een (aantal) externe drives om de data op te slaan op het moment van upgraden en deze terugsturen naar de webshop nadat ze hun dienst hebben bewezen. Dat kan wettelijk binnen 7 werkdagen en bij de mycom zelfs binnen 14.
:/ :> :P :9 :o :*) :D _/-\o_

You fucking correct mothafuckah :+

Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Wat ik begrepen heb is dat het vooral vanwege technische aard niet geïmplementeerd is en omdat niemand er wilt/wou voor betalen toen hun Sunware was. Los ervan merk ik dat de meeste thuis gebruikers zelden hun array uitbreiden maar simpelweg hun diskset vervangen omdat ze weinig zin hebben in tien disk (stroomverbruik) oplossingen.

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
10 disks van nu is qua stroomverbruik vast vergelijkbaar met de 6 disks van een paar jaar terug :)

@TrsvK
dat lijkt mij gewoon de boel belazeren of oplichting. De wettelijke termijnen gelden zolang je de schijven niet gebruikt. Wanneer ik als webwinkel een geopende verpakking terug zou krijgen zou ik de disk zeker testen en de smart waarden uitlezen. Als dan blijkt dat de disks uren gedraait hebben en geen fouten zou ik de schijf niet als ongebruikt retour accepteren.

[ Voor 11% gewijzigd door BartNL op 02-06-2014 00:27 ]


Acties:
  • 0 Henk 'm!

Verwijderd

10 disks van nu is qua stroomverbruik vast vergelijkbaar met de 6 disks van een paar jaar terug :)
Huh? Toch juist andersom. Vroeger deden disks idle 8W. Nu doet WD Green WD40EZRX zo'n 2,8W idle. En om over de Watt-per-TB verhouding nog maar te zwijgen. Voor 10W hou je nu tegen de 10 terabyte in de lucht. Dat was vroeger wel anders natuurlijk. Met SSDs natuurlijk potentiëel nog veel beter. M500 1TB kan met DIPM bijna 1TB in de lucht houden tegen slechts 0,1 watt vermogen.
dat lijkt mij gewoon de boel belazeren of oplichting.
Inderdaad. En ik zou het fijn vinden als daarover ook niet verder wordt gediscussieerd. Dit valt onder illegale praktijken. Bovendien ook moreel verwerpelijk; jij wilt immers ook geen schijven krijgen van iemand die ze 'stiekem' al heeft gebruikt. Misschien heeft hij wel met zijn fikken de elektronica zomaar beetgepakt. :/

Als je tijdelijk schijven nodig hebt zou je wellicht bij een vriend of kennis kunnen aankloppen.

Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Voor de 10gbit mensen: mikrotik heeft een erg leuk speeltje, ~220USD.

[ Voor 3% gewijzigd door analog_ op 02-06-2014 01:01 ]


Acties:
  • 0 Henk 'm!

Verwijderd

En dan nog twee keer een Intel X540 NIC erbij en je zit al tegen de 1000 euro. Dan vind ik Thunderbolt toch nog een leukere budget 20Gbps oplossing. :)

Maar FireDrunk heeft opzich wel gelijk: eerst maar eens zien hoe je met CPU-load kunt schalen. Maar hey alles boven de 1 gigabit is welkom toch? 500MB/s vind ik ook al leuk, beter dan de ~100 die ik nu heb. En als ik het BSD<-->BSD doe ga ik uit van multicore scaling. BSD heeft nu ook fwe (firewire-over-ethernet) en dat werkt out of the box. Thunderbolt zou ook wel zo geimplementeerd worden verwacht ik. Dusssss. oOo

Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Als we toch over TB bezig zijn, ik kijk net naar die Intel NUC doosjes, er zijn twee i3 modelletjes, eentje met TB zonder GBe en eentje omgekeerd. De TB editie is een stuk goedkoper, vraag me nu af hoe duur en hoe performant de adapter is.
edit: zat blijkbaar enkel in gen1 te browsen, kijkt verder. Weinig TB switching materiaal, lijkt erop dat het voorlopig een point-to-point verhaal is.

[ Voor 24% gewijzigd door analog_ op 02-06-2014 01:29 ]


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 06-10 19:19
Ik snap de discussie over uitbreiden niet, je leest toch iets over zfs voordat je de data eraan toevertrouwd ?
Je koopt gewoon 10 nieuwe hdds en maak er een raidz2 pool bij. Kost dat te veel maak je een kleinere set..

Verder betwijfel ik of ZFS ooit voor thuisgebruikers bedacht is. En zakelijke gebruikers plannen meestal vooruit..

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • Ravefiend
  • Registratie: September 2002
  • Laatst online: 09-10 13:32

Ravefiend

Carpe diem!

Cijfermateriaal is altijd interessant dus bij deze:

 WD40EZRXWD30EZRX (2)WD20EZRX (2)WD30EZRXWD20EARXWD20EARS
Read/Write (W)4.54.14.165.35.3
Idle (W)3.33.03.05.53.33.3
Standby/Sleep(W)0.40.40.40.80.80.8

Toegegeven, de nieuwe schijven zijn er zekers zuiniger op geworden maar al bij al vallen die 2TBs nog wel best mee.

[ Voor 49% gewijzigd door Ravefiend op 02-06-2014 07:42 ]


Acties:
  • 0 Henk 'm!

  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 12:23
Verwijderd schreef op zondag 01 juni 2014 @ 21:23:
Zie ook mijn initiële voorstel daarover:

Verwijderd in "Het grote DIY RAID NAS topic deel 3"


[...]


Edit: nog beter zou zijn als je de oude pool intact laat; je hebt als het goed is toch 4 disks bijgekocht en daarvan kun je er twee gebruiken om data op te zetten. Dan de oude pool verwijderen en de nieuwe aanmaken met 8 van de 10 disks (double degraded). Dan data overkopiëren van de twee disks met data erop naar de degraded pool, en vervolgens de disks toevoegen aan de pool en je hebt een 10-disk RAID-Z2 met je data erop. :)
Een leuk idee CiPHER maar juist door double degraded te draaien, vergroot je enorm het risico op een bad sector. 'Gewoon' kopieren naar externe schijven is veiliger omdat bij een mismatch je altijd je bron nog hebt die geen fouten vertoond. Overigens speelt bij de externe schijven ook het bad sector probleem een rol (en geen beveiliging van ZFS). Alleen dit is maar voor max 2 dagen ;).

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 18:25
Maar dat kost je dus weer 2 extra schijven. ;)

Acties:
  • 0 Henk 'm!

  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 12:23
GioStyle schreef op maandag 02 juni 2014 @ 08:23:
Maar dat kost je dus weer 2 extra schijven. ;)
Het is altijd een kosten/veiligheid afweging. Maar ik ga ook geen risico aan met vele TB aan data. Die opnieuw downloaden kost mij meer tijd dan het aanschaffen van een harde schijf (of schijven). Ikzelf heb gewoon de afweging gemaakt wat mij het verlies in data kost (in tijd) en of het mij die harde schijven waard zijn. ;)

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 06-10 19:19
EnerQi schreef op maandag 02 juni 2014 @ 08:56:
[...]


Het is altijd een kosten/veiligheid afweging. Maar ik ga ook geen risico aan met vele TB aan data. Die opnieuw downloaden kost mij meer tijd dan het aanschaffen van een harde schijf (of schijven). Ikzelf heb gewoon de afweging gemaakt wat mij het verlies in data kost (in tijd) en of het mij die harde schijven waard zijn. ;)
+1 helemaal mee eens.

Ik heb server 3 besteld in onderdelen, had nog een mainbord (dus CPU, geheugen, SSD en kast besteld). Die gaat alle films voor de kinderen doen.
Ik moet die server ook inscalen van hoe groot hij worden moet. 12 bay Ri-vier kast besteld.
Dat is bij mij ver genoeg vooruit plannen..

[ Voor 28% gewijzigd door jacovn op 04-12-2015 13:39 ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 17:54
Verwijderd schreef op zondag 01 juni 2014 @ 21:17:
Ik heb niet gezegd dat het een onnodige feature is; wel dat er grote risico's aan zijn verbonden. Als je eenmaal zo'n feature gaat ondersteunen, gaan mensen het ook gebruiken. En natuurlijk ook flink klagen en balen als ze hun data kwijt zijn. Dan komen er opeens allemaal slechte verhalen over ZFS.
Nu, ik ben het wel over een ding met je eens, namelijk dat ALS het er in zit, dat het dan wel weer zo robuust en stevig moet zijn zoals ZFS nu is. Wat dat betreft verschoot ik wel even van deze uitspraak:
Verwijderd schreef op zondag 01 juni 2014 @ 20:44:
De realiteit is denk ik dat - mocht de feature er komen - het eerst uitgebreid getest en debugged moet worden. In ZFS worden nog steeds dataloss/corruptie bugs gevonden; na zoveel jaar van intensief gebruik op zoveel verschillende platforms.... Is dat niet een waarschuwing dat we niet te gretig moeten zijn met BPR (online expansion voor ZFS) ?!

Acties:
  • 0 Henk 'm!

  • TrsvK
  • Registratie: September 2006
  • Laatst online: 16-09 16:46
BartNL schreef op maandag 02 juni 2014 @ 00:23:
10 disks van nu is qua stroomverbruik vast vergelijkbaar met de 6 disks van een paar jaar terug :)

@TrsvK
dat lijkt mij gewoon de boel belazeren of oplichting. De wettelijke termijnen gelden zolang je de schijven niet gebruikt. Wanneer ik als webwinkel een geopende verpakking terug zou krijgen zou ik de disk zeker testen en de smart waarden uitlezen. Als dan blijkt dat de disks uren gedraait hebben en geen fouten zou ik de schijf niet als ongebruikt retour accepteren.
Hoewel ik je gelijk geef dat het moreel gezien wat wankel is om een product met voor bedachte raden op deze manier een dag te gebruiken, is het doel van de zichttermijn het uittesten van het product. zie: http://blog.webwinkelkeur...-afstand-de-zichttermijn/
Het is volgens mij dus niet illegaal om een harde schijf op deze manier te "testen".

Nogmaals, het is natuurlijk niet zo netjes en ik zal eerst even bij de mycom binnen lopen om te vragen of ze een aantal testschijven hebben die ik een dag zou kunnen lenen om dit voor elkaar te krijgen. Ik vermoed dat als ik voor ruim 1400 euro aan schijven koop ze die service wel willen bieden.
Als je tijdelijk schijven nodig hebt zou je wellicht bij een vriend of kennis kunnen aankloppen.
Ik heb helaas geen vriendjes met de benodigde 32 TB (2*4*4) aan vrije ruimte. :o

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 06-10 19:19
Ik ken wel iemand die een synology had en problemen kreeg en toen iets van 7 stuks 4 TB externe units mee kreeg om een backup te maken en de zaak te fixen en toen ze weer terug kon brengen.
Maar dat was een synology leverancier, wie weet moeten die deze service vaker bieden ?

Er zijn hier vast wel mensen met wat ruimte, ik heb (nog) wel 32 TB vrij wellicht anderen ook..

[ Voor 15% gewijzigd door jacovn op 02-06-2014 13:23 ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • Lekkerbek
  • Registratie: Mei 2003
  • Laatst online: 06-02 17:44
Heb guru 11.001 draaien op een AM1 bord. Super zuinig (vergeleken bij mijn oude XEON G5).

Wil nu virtualbox draaien met een aantal machines waaronder linux en 2012R2.
Bij de install van 2012R2 klapt de hele tijd VNC eruit.

Kom er uiteindelijk wel doorheen (soms virtualbox SRV herstarten) maar de stabiliteit van de VM's zijn niet om over naar huis te spreken.

Echter de XPEnology (met sanbzd) draait perfect en harkt newsgroepen gulzig naar binnen en blijft stabiel.

Ben dus op zoek gegaan naar de mogelijk oorzaak en kom tegen dat het mogelijk virtualbox 4.3.8 is die geupdate moet worden. Een andere oorzaak is de additions die roet in het eten gooien met 2012R2 (aero support, verwijdert dus en een paar VM's zijn idd stabieler).

Een vraag is, hebben andere mensen hier ook last van?

Andere vraag: zou je makkelijk vanaf BSD-shell virtualbox kunnen opgraden of zelfs KVM kunnen implementeren?

Als laatste : kan ik een snapshot van mijn Startup - volume maken, hierop pielen om bovenstaande wijzigingen te doen en vervolgens terug te gaan in de tijd? Moet ik dan nog ergens op letten?


Martijn

Acties:
  • 0 Henk 'm!

Verwijderd

Als je wilt updaten pak dan eerst de nieuwere systeemversie (10.1-001) die heeft ook nieuwere packages.

Verder heeft BSD-platform geen KVM; hooguit VirtualBox, QEMU en bhyve. Die laatste is waar het allemaal om draait. De BSD eigen hypervisor. Op dit moment nog sterk in ontwikkeling maar uiteindelijk zal dit wel het favoriete virtualisatieplatform kunnen worden.

Snapshotten kan, maar het idee is dat je in de toekomst met 0.2 final de Migration Manager hebt om een backup te maken van je systeemconfiguratie en hiermee ook supersnel weer online kunt zijn door de configuratie te herstellen.

Acties:
  • 0 Henk 'm!

  • Lekkerbek
  • Registratie: Mei 2003
  • Laatst online: 06-02 17:44
Terug naar 10 dus.

Is dat omwille dependencies?
Fresh install of kan ik voor de optie over bestaande heen?

Martijn

Acties:
  • 0 Henk 'm!

  • brid
  • Registratie: Januari 2001
  • Laatst online: 29-07-2024

brid

Onze excuses voor het ongemak

Zo de overstap van de athlon 235e naar I3 4130 is grotendeels klaar.

Zag in een oude post van mij dat de 235e met 5x f2 1.5Tb idle 75w deed, de 4130 doet nu idle 85w met 7x f2 1.5Tb en 4x F4 2TB, dus verbruik is erg netjes, scheelt ook dat linux/ubuntu 14.04 de cores op 800Mhz insteld, net als bij de e235

Ik wilde gisteren mijn disk weer laten downspinnen als deze niet gebruikt worden, maar om een of andere reden gaan de disk niet down. Had een HDParm -S 240 /sd[bcdefghijkl] gedaan en deze gaf aan dat spindown op 20 minuten was ingesteld. Maar de disks gaan niet down.

Is er een handige manier om te kijken of er iest leest/schijft naar de array's of een disk?
Ben al met IOtop en Iostat bezig geweest maar na 3 minuten naar geen activiteit ben je dat toch wel zat. Kan natuurlijk zijn dat er een programma is wat de smartwaardes monitor, maar zover ik bewust ben heb ik deze niet draaien.

Update:
Gisteren nog naar het systeem gekeken, smartctrl deamon disabled en kwam er achter dat webmin tegenwoordig ook de temps iedere 5 minuten checkte. Het probleem is nu voor de helft op gelost de raid set met xfs(4x F4) gaat nu netjes down, de raid set met ext3(6x F2) blijft helaas wel in de lucht.
Verbruik is nu al wel netjes van 85W naar 71W

Is het mogelijk met Topio een specifieke disk te excluden of op te geven welke niet?
Kan natuurlijk wel een batch mode met grep doen, maar moet makkelijker kunnen

[ Voor 22% gewijzigd door brid op 04-06-2014 09:16 ]

DIY NAS, Hoofd PC
Unchain your pc/laptop, buy a SSD!!!!!


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 06-10 19:19
Ik heb een ri-vier RVS2-06A gekocht. Leuke kast, maar die 4 80mm fans zijn niet echt geschikt voor huiskamer gebruik, man wat een herrie.
Leuke 4 pins connectors op de backplane, maar helaas, geen PWM support..

Dus 4x noctua erin gezet, en een pwm-mate om het toerental te kunnen regelen.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
fans in mijn Ri-Vier RV4324-03A kast maken op 12V ook erg veel geluid. Heb ze net als jij op een fancontroller aangesloten en bij opstarten PC hoor ik de fans gigantisch blazen en direct terugregelen. Vind dat persoonlijk geen probleem, heb liever fans die terug te regelen zijn dan fans die op max toerental niet koelen.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 06-10 19:19
Je moet gewoon de fanwall gaten dicht maken zodat iets zwakkere fans ook nog genoeg luchtstroom hebben, en niet lucht via een pad van minder weerstand kunnen aanzuigen. In mijn norco 4220 was dat het probleem, nu loop alles goed.
Wellicht nog dempings mat erin plaatsen tussen de fanwall en de drives dan plak je ook alle gaten dicht die er in zitten. Bij de norco werkt dit redelijk goed, maar die is veel dieper dus ruimte tussen de fanwall en het mainbord.
Deze rivier is veel minder diep, en het verschil zit tussen mainbord en fanwall, daar is geen ruimte haast. (Met een micro atx mainbord)

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • sloth
  • Registratie: Januari 2010
  • Niet online
Ik probeer een NTFS drive te mounten in nas4free, maar dat wil niet zo lukken:

[code]
mount_ntfs-3g /dev/ada1 /mnt/NTFS/
NTFS signature is missing.
Failed to mount '/dev/ada1': Invalid argument
The device '/dev/ada1' doesn't seem to have a valid NTFS.
Maybe the wrong device is used? Or the whole disk instead of a
partition (e.g. /dev/sda, not /dev/sda1)? Or the other way around?
[/code]

fuse heb ik geladen

[code]
kldload fuse
[/code]

dmesg output van de drive waarover het gaat:

[code]
ada1 at ahcich1 bus 0 scbus1 target 0 lun 0
ada1: <SAMSUNG HD204UI 1AQ10001> ATA-8 SATA 2.x device
ada1: 300.000MB/s transfers (SATA 2.x, UDMA6, PIO 8192bytes)
ada1: Command Queueing enabled
ada1: 1907729MB (3907029168 512 byte sectors: 16H 63S/T 16383C)
ada1: Previously was known as ad6
[/code]

Heeft iemand een idee wat ik fout doe?


Blijkbaar de foute partitie gemount..

Ben erachter gekomen via ls /dev/ada1* dat ik /dev/ada1s1 moest gebruiken

code:
1
mount_ntfs-3g /dev/ada1s1 /mnt/NTFS/

[ Voor 9% gewijzigd door sloth op 08-06-2014 01:36 ]


Acties:
  • 0 Henk 'm!

  • azerty
  • Registratie: Maart 2009
  • Laatst online: 20:44
Even een korte historie om mee te beginnen:

Een jaar of 7-8 terug begon ik met het opslaan van data op mijn computer. Toen dat niet meer genoeg was kocht ik een 1TB harde schijf, welke het een jaar of 2 heeft uitgehouden voordat hij vol was. Toen hij vol was, een 2TB gekocht, hield het tot begin vorig jaar uit. Toen heb ik, in plaats van nog een externe hdd te kopen, beslist om te investeren in een NAS. Deze Synology (DS413j) is ondertussen gevuld met 4x3TB, met een RAID5, wat me netto op een goede 8TB brengt. Maar, zoals te verwachten zou zijn, zit deze dus ook ongeveer vol :+

Daarom is mijn bedoeling om deze zomer een stapje verder te gaan, en zelf een server bouwen die mijn data met ZFS zou beheren.

Dankzij de vele interessante topics hier heb ik een build kunnen opstellen, maar ik zou toch graag nog wat feedback krijgen van de experts hier, omdat ik met ZFS nog geen ervaring heb.

#ProductPrijsSubtotaal
1Intel Core i5 4570 Boxed€ 164,50€ 164,50
1Gigabyte GA-Z87X-UD5H€ 173,01€ 173,01
10WD Red SATA 6 Gb/s WD30EFRX, 3TB€ 103,51€ 1.035,10
1Lian Li PC-D8000B€ 284,-€ 284,-
2BitFenix Recon Black€ 30,50€ 61,-
1Cooler Master Seidon 120V€ 37,85€ 37,85
3Scythe Slip Stream 140XT - 500RPM, 140mm€ 7,91€ 23,73
6Scythe Slip Stream 500rpm, 120mm€ 5,95€ 35,70
2Crucial Ballistix Sport BLS2CP8G3D1609DS1S00CEU€ 113,50€ 227,-
1Highpoint Rocket 640L€ 56,42€ 56,42
1Samsung SH-224DB Zwart€ 13,30€ 13,30
1Seasonic X-650 80+ Gold V2€ 117,85€ 117,85
2Crucial M500 2,5" 120GB€ 56,-€ 112,-
1APC Back-UPS BR1200G-GR€ 257,50€ 257,50
Bekijk collectie
Importeer producten
Totaal€ 2.598,96


Processor: nieuwere versie van de 3570 die in de krachtige ZFS build word aangeraden.
Moederbord: gekozen vanwege de 10 SATA-600 poorten en dubbele gigabit NIC.
RAM: 32Gb lijkt me genoeg?
HDD's: 10x WD red 3TB om mee te beginnen, kan later nog uitbreiden mocht nodig zijn
Highpoint Rocket 640L: omdat er nog 2x een SSD bovenop de 10 HDD's komt, heb ik deze nodig. 4 poorten is voorlopig genoeg...
2x M500: SSD's met power capacitators, zou dus geen probleem mogen zijn. Volg hier de grootte aangegeven in de krachtige ZFS build.
UPS: valt niet 100% onder de build eigenlijk, maar dit lijkt mij een voldoende krachtige UPS om de server nog een paar minuten draaiende te houden en alles deftig af te sluiten...

Het leeuwendeel van de bestanden zijn backups van data en dvd-schijfjes, dus de meeste data zal niet veel uitgelezen worden. Ik zou desondanks toch een L2ARC cache willen gebruiken, en ook de ZIL afsplitsen naar de SSD.

Mijn vragen zijn:

- Kan er nog iets aan deze build verbeterd worden?
- Zal 32Gb RAM volstaan? Ik heb gelezen dat de stelregel is om 1GB per TB aan opslag te voorzien, dus dit lijkt mij voldoende...

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
de LianLI kast lijkt mij onnodig duur en ik begrijp de waterkoeling ook niet zo? Idee dat je een NAS met 10 schijven stil gaat krijgen door een stille CPU koeler is optimistisch.
Voeding zou ik een 650W Coolermaster uit de VS serie nemen i.p.v. deze overjarige Seasonic. Of als het Seasonic moet zijn een modernere 660W platinum Seasonic of de minder dure 650W gold Seasonic.
Highpoint 640L ben ik persoonlijk geen fan van, zou een LSI gebaseerde controller in IT mode adviseren.
WD reds zou ik voor een ZFS build vervangen door WD Greens.

Zomaar wat ideeën ;)

Acties:
  • 0 Henk 'm!

Verwijderd

@wsitedesign

Waar wordt de 3570/4570 aanbevolen? Want dit is een erg dure chip en eigenlijk alleen nuttig als je veel CPU power nodig hebt en/of vt-d PCI-passthrough voor als je ESXi gaat draaien enzo. Zo niet dan kun je met een veel goedkopere chip ook prima ZFS draaien.

Verder vind ik moederbord extreem duur; een bord van 50 euro kan ook gewoon. Je hebt geen overclock-bord nodig waar de capacitors handmatig worden gemasseerd, net zoals je in Japanse restaurants biefstuk kunt krijgen waarvan de koeien dagelijks gemasseerd worden, wat zogenaamd voor lekker vlees zou zorgen. Een moederbord is gewoon tegenwoordig een vrij 'dom' ding. Het kan alleen maar verkeerd gaan met uitgebreide bordjes met allerlei extra chips onboard. Het liefst heb je gewoon een ultra-kaal bord waarin alleen de CPU-geleverde functionaliteit wordt geboden zonder extra chips.

Weet ook dat extra SATA op moederbord altijd door een extra chip wordt geboden. Dat dure bord van jou heeft 6 keer échte SATA van de chipset, en 4x extra aansluitingen via Marvell 88SE9230 chip. Dat loopt via PCI-express 2.0 x2 en dat betekent dat je ongeveer 200MB/s per SATA/600 poort kunt benutten. Voor hardeschijven opzich prima, maar je kunt beter geen SSD op deze controller aansluiten.

Highpoint 640L ken ik niet zo. Als die AHCI is via Marvell chip dan kun je deze wel gebruiken. Als het via Highpoint zijn drivers loopt, dan is deze controller niet geschikt voor ZFS en moet je deze ook absoluut niet daarvoor gebruiken. Highpoint heeft binary blob drivers die zeer slecht zijn. Zolang je de controller kunt gebruiken zonder dergelijke drivers, maar gewoon als AHCI controller, dan is er geen probleem.

Verder zou ik niet voor 10 x WD Red 3TB gaan maar voor 10x WD Green 4TB. Net iets duurder maar heb je wel 25% meer storage. Bovendien is de 4TB versie heel zuinig en min of meer de beste schijf van dit moment. Ik heb hem ook (WD40EZRX) en tot nu toe de beste schijf ooit in mijn bezit. Heerlijk stil ook.

Verder zie ik iets van 9 ventilatoren in je build. Ik zou ze allemaal cancellen. Gewoon 0 fans. Het is namelijk helemaal niet goed je schijven te koelen met ventilatoren; waarbij er temperatuurverschillen kunnen ontstaan als de dissipatie niet gelijkmatig verdeeld is. Het beste kun je zorgen dat de schijven doordat ze zuinig zijn helemaal niet warm worden, en via het metalen rack waarin ze bevestigd zitten langzaam opwarmen tot 35 graden en ook weer afkoelen tot 25 graden. Zonder actieve koeling dus. Scheelt ook weer qua zuinigheid en scheelt natuurlijk ook een heleboel herrie.

Je hebt ouder 1,5V geheugen geselecteerd. Van de Crucial Ballistix Sport series is er ook 1,35V geheugen. En ook de Tactical is op dit moment het beste setje omdat deze snellere timings heeft: pricewatch: Crucial Ballistix Tactical BLT2C8G3D1608ET3LX0CEU. Het is niet aangetoond door mijzelf of anderen, maar het is wel aannemelijk dat ZFS meer dan gemiddeld baat heeft bij sneller geheugen, omdat ZFS enorm geheugen intensief is.

Verder kun je Crucial M500 ook overwegen te vervangen met MX100; min of meer de opvolger van de M500. Mogelijk wel iets minder betrouwbaar vanwege minder bitcorrectie (127/128 ipv 15/16).

En de voeding; uitgaande van 80W piekvermogen en 16W * 10 = 160W voor de schijven, heb je dus 240W nodig. 650W lijkt mij sterk overdreven en betekent ook dat je build mogelijk minder zuinig is dan had gekund.

Kortom, volgens mij kun je je build een heel stuk minder duur maken en je geld in betere dingen investeren. Zoals in 4TB disks ipv 3TB. Ga je zelfs nog in prijs omlaag als je de rest van de adviezen meeneemt. :)

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
Als piekbelasting zo laag is als CiPHER aangeeft zou ik de pricewatch: Cooler Master VS V450S nemen. Deze Coolermaster PSU's zijn erg zuinig bij lage last en daarmee ideaal voor toepassing in NAS.

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Verwijderd schreef op zondag 08 juni 2014 @ 23:04:
Verder kun je Crucial M500 ook overwegen te vervangen met MX100; min of meer de opvolger van de M500. Mogelijk wel iets minder betrouwbaar vanwege minder bitcorrectie (127/128 ipv 15/16).
Omdat jij dit wel vaker noemt zit ik te twijfelen of niet "last minute" nog effe snel een M500 van 960 GB moet kopen voor mijn hoofd PC/gamebak waar ik van alles en nog wat mee doe.

Hoe groot is de reële kans ten opzichte van de M500 serie of een Intel 320 dat een M550 of MX100 crasht/corruptie problemen krijgt door de lagere bitcorrectie ?!

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

Verwijderd

Dat kan ik niet zeggen, ik kan alleen maar gokken. Dit komt omdat het alles te maken heeft met de originele Bit-Error-Rate van het gebruikte NAND geheugen. Met betere bitcorrectie kun je volstaan met lager kwaliteit NAND geheugen wat van nature een hogere BER heeft en dus meer fouten maakt.

Afbeeldingslocatie: http://tweakers.net/ext/f/xvCQH22Jfb8G2oywbHJPp2vn/full.jpg

Ik weet bijvoorbeeld niet of de MX100 beter NAND heeft dan de M500, en of er verschillen zitten tussen M500/M550 op dat vlak. Het gaat bij de MX100 om 16nm NAND als ik het goed begrepen heb; dus in elk geval moderner NAND-geheugen. Normaliter betekent moderner geheugen op kleiner productieprocédé ook dat het meer fouten maakt en dus betere errorcorrectie nodig heeft. Maar als Crucial bij de overstap opeens beter geheugen gebruikt dan valt de rekensom weer heel anders uit.

Ook kun je bedenken dat Crucial kan variëren met de kwaliteit NAND. Het is denk ik een verkeerde aanname om te denken dat gedurende het jaar dat het product op de markt is, de kwaliteit van de NAND niet wisselt. Het kan prima zijn dat tussen bepaalde productiedatums de NAND veel beter of juist veel slechter is. Met gelijkblijvende errorcorrectie heeft dit direct invloed op de betrouwbaarheid van de SSD.

De M500 heeft dus betere bitcorrectie bescherming dan de MX100 en M550, maar daarmee is nog niet gezegd dat deze ook netto betrouwbaarder zijn. De verschillen in NAND en de échte Bit-Error-Rate zal Crucial/Micron je niet vertellen; dat is denk ik bedrijfsgeheim.

Hoewel ik zelf nog wel de M500 heb gekocht ipv MX100, denk ik niet dat er een heel groot verschil tussen zit. Dus om nu snel naar de winkel te rennen is wellicht overdreven. Maar het is wel jammer dat Crucial achteruit gaat qua beveiliging. Ik zie liever dat de gebruiker kan kiezen tussen modellen net extra bitcorrectie of juist net iets meer opslagruimte. Want het voordeel van 127/128 bitcorrectie is dat je gewoon 256GB modellen krijgt ipv 240GB modellen bij de M500. Dat laatste is onvermijdelijk als je 1/16e van je opslagruimte opoffert aan bitcorrectie. Dat is precies het verschil tussen 240GB en 256GB. De NAND is 256GiB en dat is 6,8% meer dan 256GB. Maar dat wordt gebruikt voor spare space, mapping tables en andere onzichtbare opslag.

Acties:
  • 0 Henk 'm!

  • azerty
  • Registratie: Maart 2009
  • Laatst online: 20:44
BartNL schreef op zondag 08 juni 2014 @ 22:29:
de LianLI kast lijkt mij onnodig duur en ik begrijp de waterkoeling ook niet zo? Idee dat je een NAS met 10 schijven stil gaat krijgen door een stille CPU koeler is optimistisch.
Voeding zou ik een 650W Coolermaster uit de VS serie nemen i.p.v. deze overjarige Seasonic. Of als het Seasonic moet zijn een modernere 660W platinum Seasonic of de minder dure 650W gold Seasonic.
Highpoint 640L ben ik persoonlijk geen fan van, zou een LSI gebaseerde controller in IT mode adviseren.
WD reds zou ik voor een ZFS build vervangen door WD Greens.

Zomaar wat ideeën ;)
De LianLI is (voor zover ik uit de PW kan afleiden), de enige kast die 10+ schijven kan huishouden zonder naar een rack-server over te schakelen. Dat gaat iets mooier staan dan een rack-behuizing (die dan overigens op de grond zou moeten liggen...).

Voeding: dank voor de tip, ga ik zeker naar kijken.
Controller: de LSI's zijn wel een stukje duurder (of heb je misschien een voorbeeldje voor mij? Pricewatch LSI met 2 sata 600 poorten kom ik uit op LSI MegaRAID SAS 9211-4i, welke dan ook nog uitermate slecht leverbaar is... Ik woon in België helaas :( )
HDD's: Waarom zou je die willen vervangen? Als ik de 3TB's vergelijk (kosten een tientje per schijf meer) heb ik bij de RED's 1 jaar extra garantie en minder stroomverbruik.... (Als ik een ruwe berekening doe, scheelt 1.5 watt op lezen/schrijven en 0.2 watt op standby, dus is 15 watt & 2 watt resp. voor 10 schijven, en we ervan uit gaan dat ze 4u/dag lezen/schrijven en rest standby staan, kom ik op een jaarlijkse besparing van +- 35 kwh, 7€35 @ 0.21€/kwh... Dan heb je dat tienje verschil er toch rap uit?)

Lees ik de commentaar van CiPHER... 3TB vs 3TB is moeite minder, 3TB vs 4TB discussie is interessanter... Okay :)

In elk geval al bedankt voor de output (en als ik het fout heb, please do correct me)
Verwijderd schreef op zondag 08 juni 2014 @ 23:04:
@wsitedesign

Waar wordt de 3570/4570 aanbevolen? Want dit is een erg dure chip en eigenlijk alleen nuttig als je veel CPU power nodig hebt en/of vt-d PCI-passthrough voor als je ESXi gaat draaien enzo. Zo niet dan kun je met een veel goedkopere chip ook prima ZFS draaien.
Vanuit de TS van "Het grote ZFS topic", subkopje "En hoe bouw ik zo'n ZFS NAS dan? (8>"

Heb je dan eventueel een andere chip die de aanbeveling beter dient? Ik ben niet van plan om ESXi te draaien. Veel CPU power ga ik niet nodig hebben, behalve voor wat ZFS nodig heeft uiteraard...
Verwijderd schreef op zondag 08 juni 2014 @ 23:04:
Verder vind ik moederbord extreem duur; een bord van 50 euro kan ook gewoon. Je hebt geen overclock-bord nodig waar de capacitors handmatig worden gemasseerd, net zoals je in Japanse restaurants biefstuk kunt krijgen waarvan de koeien dagelijks gemasseerd worden, wat zogenaamd voor lekker vlees zou zorgen. Een moederbord is gewoon tegenwoordig een vrij 'dom' ding. Het kan alleen maar verkeerd gaan met uitgebreide bordjes met allerlei extra chips onboard. Het liefst heb je gewoon een ultra-kaal bord waarin alleen de CPU-geleverde functionaliteit wordt geboden zonder extra chips.

Weet ook dat extra SATA op moederbord altijd door een extra chip wordt geboden. Dat dure bord van jou heeft 6 keer échte SATA van de chipset, en 4x extra aansluitingen via Marvell 88SE9230 chip. Dat loopt via PCI-express 2.0 x2 en dat betekent dat je ongeveer 200MB/s per SATA/600 poort kunt benutten. Voor hardeschijven opzich prima, maar je kunt beter geen SSD op deze controller aansluiten.
De bedoeling was om de 2 SSD's aan te sluiten op de native chipset, en dan de andere schijven op de resterende vrije poorten. Natuurlijk, als er een betere oplossing is, door een goedkoper bord te nemen en de Highpoint te vervangen door een kaart met meer poorten op, is dit natuurlijk ook welkom als suggestie :)
Verwijderd schreef op zondag 08 juni 2014 @ 23:04:
Highpoint 640L ken ik niet zo. Als die AHCI is via Marvell chip dan kun je deze wel gebruiken. Als het via Highpoint zijn drivers loopt, dan is deze controller niet geschikt voor ZFS en moet je deze ook absoluut niet daarvoor gebruiken. Highpoint heeft binary blob drivers die zeer slecht zijn. Zolang je de controller kunt gebruiken zonder dergelijke drivers, maar gewoon als AHCI controller, dan is er geen probleem.
Van wat ik kan opmaken uit een aantal posts gebruiken ze inderdaad een Marvel chip, en is er sinds eind april 2013 native support voor in in freebsd (ervoor moest je zelf de kernel recompilen om het werkend te krijgen).
Verwijderd schreef op zondag 08 juni 2014 @ 23:04:
Verder zou ik niet voor 10 x WD Red 3TB gaan maar voor 10x WD Green 4TB. Net iets duurder maar heb je wel 25% meer storage. Bovendien is de 4TB versie heel zuinig en min of meer de beste schijf van dit moment. Ik heb hem ook (WD40EZRX) en tot nu toe de beste schijf ooit in mijn bezit. Heerlijk stil ook.
Daar heb je wel een punt. Ga dat zeker in overweging nemen :)
Verwijderd schreef op zondag 08 juni 2014 @ 23:04:
Verder zie ik iets van 9 ventilatoren in je build. Ik zou ze allemaal cancellen. Gewoon 0 fans. Het is namelijk helemaal niet goed je schijven te koelen met ventilatoren; waarbij er temperatuurverschillen kunnen ontstaan als de dissipatie niet gelijkmatig verdeeld is. Het beste kun je zorgen dat de schijven doordat ze zuinig zijn helemaal niet warm worden, en via het metalen rack waarin ze bevestigd zitten langzaam opwarmen tot 35 graden en ook weer afkoelen tot 25 graden. Zonder actieve koeling dus. Scheelt ook weer qua zuinigheid en scheelt natuurlijk ook een heleboel herrie.
De fans zitten symmetrisch verdeelt tov de schijven, maar inderdaad, ik denk nog iets te veel vanuit het standpunt van een gaming pc in plaats van een systeem met enkel maar wat HDD's en het moederbord...
Verwijderd schreef op zondag 08 juni 2014 @ 23:04:
Je hebt ouder 1,5V geheugen geselecteerd. Van de Crucial Ballistix Sport series is er ook 1,35V geheugen. En ook de Tactical is op dit moment het beste setje omdat deze snellere timings heeft: pricewatch: Crucial Ballistix Tactical BLT2C8G3D1608ET3LX0CEU. Het is niet aangetoond door mijzelf of anderen, maar het is wel aannemelijk dat ZFS meer dan gemiddeld baat heeft bij sneller geheugen, omdat ZFS enorm geheugen intensief is.

Verder kun je Crucial M500 ook overwegen te vervangen met MX100; min of meer de opvolger van de M500. Mogelijk wel iets minder betrouwbaar vanwege minder bitcorrectie (127/128 ipv 15/16).
Zal ik zeker meenemen. Je hebt een geldig punt met zowel de timings als het voltage. Wat betreft de SSD denk ik dat ik voorlopig op de M500 blijf, tenzij de levertijd ervan sterk achteruit zou gaan.
Verwijderd schreef op zondag 08 juni 2014 @ 23:04:
En de voeding; uitgaande van 80W piekvermogen en 16W * 10 = 160W voor de schijven, heb je dus 240W nodig. 650W lijkt mij sterk overdreven en betekent ook dat je build mogelijk minder zuinig is dan had gekund.
Ik zal zeker de berekening nog eens opnieuw maken eens ik weet hoe het zit met een eventueel beter geschikte processor, en dan de voeding aanpassen aan de nood.
Verwijderd schreef op zondag 08 juni 2014 @ 23:04:
Kortom, volgens mij kun je je build een heel stuk minder duur maken en je geld in betere dingen investeren. Zoals in 4TB disks ipv 3TB. Ga je zelfs nog in prijs omlaag als je de rest van de adviezen meeneemt. :)
Met een nieuwere fanless (op processor na) configuratie kom ik op een 100€ meerprijs voor de schijven op dit moment. Maar ik vermoed dat door de processor te downgraden (en eventueel het bord, maar daar heb ik dan weer de extra kost van een andere controller) er wel nog wat dichter in de buurt gekomen kan worden...

Edit:

Is een Intel Pentium G3220 Boxed bijvoorbeeld snel genoeg voor ZFS (met bijv. raidz2 of raidz3), of is dat toch wat te weinig power?

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
wsitedesign schreef op maandag 09 juni 2014 @ 02:12:
[...]Controller: de LSI's zijn wel een stukje duurder (of heb je misschien een voorbeeldje voor mij? Pricewatch LSI met 2 sata 600 poorten kom ik uit op LSI MegaRAID SAS 9211-4i, welke dan ook nog uitermate slecht leverbaar is...
deze pricewatch: IBM ServeRAID M1015 SAS/SATA Controller for System x is populair vanwege de prijs, 8x sata (eigenlijk 2x sas) en goede verkrijgbaarheid.
Pagina: 1 ... 150 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.