Acties:
  • 0 Henk 'm!

Verwijderd

Hij wilde een tientje voor z'n nieuwe ZFS server. :+

Daar is het forum natuurlijk niet voor bedoeld.

Acties:
  • 0 Henk 'm!

  • Gralgrathor
  • Registratie: April 2011
  • Laatst online: 20-08 13:41
Verwijderd schreef op donderdag 16 januari 2014 @ 16:43:
Daar is het forum natuurlijk niet voor bedoeld.
Geeft niet - ik had onverwachts een verjaardagsfeestje, dus ik heb mijn donderdagavondbiertjes toch wel gekregen.

Heeft iemand hier ervaring met BTRFS-RAID5 als basis voor een storage solution? Een testbed misschien?

Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Verwijderd schreef op donderdag 16 januari 2014 @ 16:43:
Hij wilde een tientje voor z'n nieuwe ZFS server. :+

Daar is het forum natuurlijk niet voor bedoeld.
Oh... -O-

Dus ik moet mijn upgrades ook zelf gaan betalen? Wat een armoe -O-


:+

[ Voor 4% gewijzigd door Tsurany op 17-01-2014 13:33 ]

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • mux
  • Registratie: Januari 2007
  • Laatst online: 11-10 19:46

mux

99% efficient!

Schrijf een paar goedgelezen blogs en je krijgt van iedereen allerlei gratis hardware ;)

Acties:
  • 0 Henk 'm!

  • Gralgrathor
  • Registratie: April 2011
  • Laatst online: 20-08 13:41
mux schreef op vrijdag 17 januari 2014 @ 13:59:
Schrijf een paar goedgelezen blogs en je krijgt van iedereen allerlei gratis hardware ;)
Ik krijg van iemand een gratis Asrock C2750 mainboard voor mijn Batman-verhalen? Cool!

Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online

ppl

Gralgrathor schreef op maandag 13 januari 2014 @ 18:16:
De SATA-poorten op de vreemde controller zijn natuurlijk wel extra.
Yup en die dingen nemen ook weer het nodige aan energie af. Daar moet je wel rekening mee houden als je het energiegebruik van het ASrock bord met die van Supermicro gaat vergelijken. Dat soort zaken wil nog wel eens verschillen verklaren :)
Maakt dat trouwens zonder vt-d heel erg veel uit? (Dat is een serieuze vraag: ik ben me een beetje aan het inlezen, maar het gaat je al snel duizelen).
Alleen als je VT-d nodig hebt; bijv. voor wie ESXi o.i.d. wil draaien en z'n storage controller wil doorgeven aan een vm met FreeNAS. Als je geen PCIe kaart hebt die je wil doorgeven maakt het gebrek van VT-d niets uit. Avoton is in ieder geval niet gericht op hardcore virtualisatie met VT-d mogelijkheden. Voor een fileserver/NAS/SAN of homeserver zal het prima werken. Als je FreeBSD draait heb je niet per definitie VT-d nodig; je kunt daar namelijk gebruik maken van jails (=OS level virtualisation) waardoor je eigenlijk direct de hardware aan kunt spreken.

Acties:
  • 0 Henk 'm!

Verwijderd

Yup en die dingen nemen ook weer het nodige aan energie af. Daar moet je wel rekening mee houden als je het energiegebruik van het ASrock bord met die van Supermicro gaat vergelijken. Dat soort zaken wil nog wel eens verschillen verklaren
Heb ik op mijn ASrock B75 bord gemeten en daar kwam ik aan 0,3 watt. De Intel-chip deed meer; ik geloof 0,6 watt voor 6 poorten (ASmedia voor 2 poorten). Maar de Intel controller verbruikte helemaal niets meer met gebruik van DIPM, ook al heb je geen enkele schijf aangesloten. Dus uiteindelijk is Intel inderdaad zuiniger. Maar het is ook weer niet dat die chip 4W ofzo verbruikt. In elk geval niet in rust.
Avoton is in ieder geval niet gericht op hardcore virtualisatie met VT-d mogelijkheden.
Nou toch best jammer dat je die meerdere ASMedia controllers niet kunt doorgeven via vt-d. Best wel een bumper voor ESXi gebruikers.
Als je FreeBSD draait heb je niet per definitie VT-d nodig; je kunt daar namelijk gebruik maken van jails (=OS level virtualisation) waardoor je eigenlijk direct de hardware aan kunt spreken.
Wat heeft jails te maken met de hardware direct aanspreken? Jails is gewoon een veredelde 'chroot' waarbij ook de kernel API is beveiligd.

[ Voor 16% gewijzigd door Verwijderd op 17-01-2014 21:00 ]


Acties:
  • 0 Henk 'm!
Ik denk meer dat hij bedoelt, dan heb je dus geen ESXi nodig voor virtualisatie. Maar dat is natuurlijk niet waar, want je kan in een Jail niet hetzelfde draaien als in een VM onder ESXi ;)

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Ah oke. Ik denk dat dat meer van toepassing is als Xen en BHyVe op BSD het goed doen. Misschien vanaf FreeBSD 11 dat dat enigszins gaat werken. Zo werkt BSD op BHyVe al, maar wordt er ook gewerkt aan ondersteuning voor Windows en nog een OS wat ik even kwijt ben (Linux?).

Als Xen of BHyVe een vervanging van ESXi kan worden, gaan we inderdaad een leuk tijdperk in. Dan heb je BSD 100% native die aan de hardware zit (dat bedoel jij ppl?) terwijl je heel efficiënt andere VMs kunt draaien met Xen en BHyVe. Laatstegenoemde heeft ook 'goedkope' PCI passthrough. Heel interessant lijkt mij dat de 'videokaart' van de APU-processor kan worden doorgegeven aan een guest. Dan zou je eventueel de machine als Linux workstation kunnen gebruiken of zelfs Windows gaming pc, terwijl er ZFSguru onderliggend op draait met native toegang tot je disks enzo. :9~

Acties:
  • 0 Henk 'm!

Verwijderd

Heeft iemand misschien ervaring met de 'init/shutdown scripts' optie in FreeNas 9?

Ik heb een scriptje gemaakt om enkele bestanden te kopiëren en dat werkt prima vanaf de console. De lees en uitvoerrechten staan dus goed. Het wordt alleen niet uitgevoerd door FreeNas tijdens de init of het afsluiten, wanneer ik het bij 'add init/shutdown script' toevoeg.
Ook als ik het commando uit het script rechtstreeks als een string meegeef in de daarvoor bestemde commandoregel wordt het niet uitgevoerd.

Het is me een raadsel waarom het niet werkt en ik weet ook niet hoe ik nu moet achterhalen waar het mis gaat.

Acties:
  • 0 Henk 'm!
Goedkope PCI passthrough in bhyve? Bhyve doet gewoon VT-d? Juist Xen heeft een smerige PCI-back driver functie die zonder VT-d werkt (maar dus een security risico is omdat er memory geshared word tussen host en guest, wat bij VT-d niet zo is.)

Even niets...


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Verwijderd schreef op vrijdag 17 januari 2014 @ 20:59:
Nou toch best jammer dat je die meerdere ASMedia controllers niet kunt doorgeven via vt-d. Best wel een bumper voor ESXi gebruikers.
Zoiets dan maar ??

http://www.asrock.com/mb/...0Extreme11ac/index.nl.asp

Is 6x Intel + 16x LSI SAS :D :9~ _O_

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

Verwijderd

Maar dan in Mini-ITX formaat. >:)

@FireDrunk: kan wel, ik dacht BHyVe maar als ik nu zoek krijg ik: https://wiki.freebsd.org/bhyve/pci_passthru. Dus wellicht heb je gelijk dat het om Xen ging. En security kan enorm belangrijk zijn, maar voor de mensen die een ZFS server willen combineren met b.v. een desktop OS als Ubuntu zal dit al iets minder het geval zijn. Het werkend krijgen is toch de eerste stap. En tot nu toe heb ik hier niet zoveel succesverhalen over gehoord.

Desalniettemin denk ik dat virtualisatie veel toekomstperspectief heeft. Zodra Xen en BHyVe rijpen op BSD platform zou ZFSguru er ook zijn voordeel mee kunnen doen. Genoeg gebruikers die naast ZFS/BSD nog andere dingen willen draaien op hun NAS. En ESXi met al zijn beperkingen en quirks is ook niet zaligmakend.

Acties:
  • 0 Henk 'm!
Oh zeker niet, en hun stunt om AHCI alleen beschikbaar te maken icm vCenter is al helemaal bagger...

Ik kijk ook zeker uit naar bhyve :)

offtopic:
Q: Is it "bhyve" or "BHyVe"?
A: The developers mercifully depreciated the CamelCase name "BHyVe" and simply refer to it as "bhyve".

http://bhyve.org/faq/

[ Voor 44% gewijzigd door FireDrunk op 18-01-2014 22:15 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
Mini-ATX vind ik ook goed hoor :) Je gaat sowieso geen mITX kast vinden die 22 schijven kwijt kan :P Ik was even bang dat dit ook een socket 2011 moederbordje zou zijn vanwege het gigantische aantal PCI-e lanes, maar dat valt (gelukkig?) mee.

Acties:
  • 0 Henk 'm!

  • wopie
  • Registratie: Maart 2006
  • Laatst online: 07-06 20:08
@Cipher & @Firedrunk,
In zekere zin is er al een alternatief, alleen nog niet op basis van Linux maar op basis van IllumOS. Ik bedoel dan SmartOS. ZFS icm zones en KVM (en DTrace). Mocht je dus niet bang zijn om een "nieuwe" wereld te betreden, dan kun je je dit ook eigen maken. Wat dat betreft begrijp ik niet zo goed waarom we niet zoveel lezen over SmartOS (aangezien we wel steeds meer lezen over ZoL, Xen, Bhyve), waarschijnlijk omdat de userbase nog niet zo groot is, of men vind IlluOS eng.

Acties:
  • 0 Henk 'm!

  • imdos
  • Registratie: Maart 2000
  • Laatst online: 11-10 10:28

imdos

I use FreeNAS and Ubuntu

Verwijderd schreef op zaterdag 18 januari 2014 @ 21:00:
Heeft iemand misschien ervaring met de 'init/shutdown scripts' optie in FreeNas 9?

Ik heb een scriptje gemaakt om enkele bestanden te kopiëren en dat werkt prima vanaf de console. De lees en uitvoerrechten staan dus goed. Het wordt alleen niet uitgevoerd door FreeNas tijdens de init of het afsluiten, wanneer ik het bij 'add init/shutdown script' toevoeg.
Ook als ik het commando uit het script rechtstreeks als een string meegeef in de daarvoor bestemde commandoregel wordt het niet uitgevoerd.

Het is me een raadsel waarom het niet werkt en ik weet ook niet hoe ik nu moet achterhalen waar het mis gaat.
Misschien verkeerde / geen shell (dus csh, ksh, bash of sh) gedefinieerd?
Of niet uitvoerbaar of rechten?

pvoutput. Waarom makkelijk doen, als het ook moeilijk kan! Every solution has a new problem


Acties:
  • 0 Henk 'm!

  • Flaat
  • Registratie: Oktober 2009
  • Laatst online: 05-09 09:38
Ik heb wat hulp nodig met het opzetten van een low budget nas, specifiek wat de beste oplossing is om m'n "oude" hard drives te gebruiken en wat voor een soft/hardware raid daar het meest geschikt voor is.

De nas zou gebruikt worden voor simpel huis gebruik, foto's, Fullhd films afspelen vanaf een htpc (niet 3d/4k en niet via DLNA maar op een htpc), downloads en wat documenten. Vooral om de foto's goed redundant op te slaan en beschikbaar te hebben op 2 laptops en een pc. We hebben de foto's nu in een bittorrent sync map om ze op alle 3 de apparaten automatisch op te slaan maar dat is niet echt een top oplossing. Zou het tevens fijn vinden als ik gewoon een download aan kan zetten op m'n desktop om het vervolgens op m'n htpc te kijken

Ik heb de volgende drives tot m'n beschikking
2x Samsung spinpoint f3 1tb
1x Seagate 640gb
1x 2.5 inch Toshiba 1tb
1x 2.5 inch WD 750gb
3x 320gb oude troep, lijkt me niet echt meer bruikbaar

Bijna al deze drives hebben nooit als os drive gewerkt en staan in 5 minuut spindown mode op m'n pc zodat ik geen lawaai heb, merendeel van wat ik doe staat op m'n ssd. De 750 gb 2.5 inch staat in m'n htpc en gaat alleen aan als er een film word gekeken/gedownload. Verder zijn ze allemaal onder de 2 jaar oud en hebben ze nooit 24/7 aangestaan dus het lijkt me nog bruikbaar.

De vraag is dus wat is de simpelste manier om hier een nette storage pool van te maken die het redundant maakt, performance hoeft dus niet hoog te zijn en het lijkt me dat ik 1 drive fail wel redundant genoeg moet zijn. Verder moet 2-3gig wel genoeg zijn dus ik kom denk ik wel op genoeg met wat ik heb.

Ik heb zelf gekeken naar ZFS, normaal raid en Flexraid.
ZFS ziet er erg lastig/complex uit en heeft grote ram requirements wat de bouwprijs van een systeem niet bepaald ten goede komt. Tevens komt het op mij over als iets dat niet echt noob vriendelijk is. Ik heb ook nog geen eenduidig antwoord kunnen vinden of het gaat werken met verschillende drive maten.

Normaal raid is (van wat ik weet ieg) ook niet te doen met verschillende drive maten en hardware raid lijkt me een beetje achterhaald voor wat ik nodig heb.

Ik kwam verder nog flexraid tegen, hier moet wel voor betaald worden maar het ziet er allemaal wel noob vriendelijk uit, kon er hier verder totaal niks over vinden dus was wat huiverig.

Ben dus vooral opzoek naar wat voor een os en software ik het beste kan gebruiken en wat voor een hardware requirements daaraan hangen zodat ik een idee heb van wat ik moet gaan aanschaffen

Hoop dat iemand me kan helpen hiermee.

[ Voor 5% gewijzigd door Flaat op 19-01-2014 17:20 ]


Acties:
  • 0 Henk 'm!

Verwijderd

imdos schreef op zondag 19 januari 2014 @ 12:19:
[...]

Misschien verkeerde / geen shell (dus csh, ksh, bash of sh) gedefinieerd?
Of niet uitvoerbaar of rechten?
Bedankt voor het meedenken!

Ik had helemaal niet stilgestaan bij de andere shell. Die stond op csh ingesteld, terwijl ik zelf van bash gebruik maak.
Het script wordt nu dus wel uitgevoerd, want dat kan ik in mijn log-entry zien. Het rsync commando wordt echter nog niet uitgevoerd en daar heb ik nog geen oorzaak voor gevonden. Het script is uitvoerbaar en de rechten staan ook goed, want vanaf de shell kan ik het gewoon uitvoeren en dan werkt alles naar behoren.

Acties:
  • 0 Henk 'm!

Verwijderd

Flaat schreef op zondag 19 januari 2014 @ 16:59:
Ik heb de volgende drives tot m'n beschikking
2x Samsung spinpoint f3 1tb
1x Seagate 640gb
1x 2.5 inch Toshiba 1tb
1x 2.5 inch WD 750gb

De vraag is dus wat is de simpelste manier om hier een nette storage pool van te maken die het redundant maakt, performance hoeft dus niet hoog te zijn en het lijkt me dat ik 1 drive fail wel redundant genoeg moet zijn. Verder moet 2-3gig wel genoeg zijn dus ik kom denk ik wel op genoeg met wat ik heb.
Een goede ZFS config zou zijn:
2x Samsung spinpoint f3 1tb +
1x 2.5 inch Toshiba 1tb
dus drie disks samen in een RAID-Z (raid5) dus enkelvoudige redundantie

En de 750GB/640GB schijven in een mirror voor boot en backup of extra storage.
Ik heb zelf gekeken naar ZFS, normaal raid en Flexraid.
ZFS ziet er erg lastig/complex uit en heeft grote ram requirements wat de bouwprijs van een systeem niet bepaald ten goede komt. Tevens komt het op mij over als iets dat niet echt noob vriendelijk is. Ik heb ook nog geen eenduidig antwoord kunnen vinden of het gaat werken met verschillende drive maten.
ZFS is niet lastig of complex. Ook niet noob-onvriendelijk. Een groot voordeel is dat je er geen omkijken meer naar hebt. Geen filesystem checks of andere gekkigheden. Gewoon data opslaan met een 'store and forget' mentaliteit.

Grote RAM requirements klopt ook niet. 64 megabyte is genoeg. Het punt is dat je graag extra RAM geheugen wilt hebben juist omdat ZFS hier zoveel meer intelligent kan omgaan dan een ander filesystem. Overigens kunnen NTFS en Ext4 ook vele gigabytes aan RAM gebruiken als filecache, dus dat is niets nieuws. Sterker nog, in principe wordt al je RAM gebruikt voor filecache wat niet actief door apps/OS gebruikt wordt. In die zin verbruikt ZFS juist minder RAM. Wel is het zo dat ZFS met systemen <= 4GB RAM minder snel is met sequential I/O. Maar het klinkt soms alsof ZFS dan niet zou werken; dat is onzin.

Het is juist andersom: ZFS zorgt voor goedkopere builds. Je hebt namelijk geen dure schijven nodig, geen hardware RAID controller met battery backup om RAID5 enigszins snel en veilig te laten functioneren. ZFS werkt prima met goedkope 'green' disks met een uBER-specificatie van 10^-14, kortom het consumentenspul.

Ga je voor andere oplossingen, weet dan dat deze niet bestand zijn tegen bad sectors en dat dit een groot risico kan vormen voor de integriteit van je data. Traditioneel RAID beschermt in feite niet tegen bad sectors, alleen tegen disk failure. Een bad sector kun je dan tellen als disk failure in het slechtste geval.

Gevolg is dat traditioneel RAID eigenlijk heel noobonvriendelijk is, omdat er vanalles kan gebeuren waarbij de gebruiker ook niet precies weet wat hij moet doen om weer toegang tot de data te krijgen. Dit zorgt voor veel dataverlies in de praktijk. Hetzelfde verhaal voor onboard RAID, behalve dat hier geen snelle én veilige RAID5 mogelijk is; de RAM wordt gebruikt als onveilige write-back en write-combine.

Ik zelf werk mee aan ZFSguru. Dat is het meest gebruiksvriendelijke ZFS platform. Je zou kunnen kijken of het wat voor je is, en eventueel vergelijken met FreeNAS en NAS4Free. Die zijn vollediger en hebben meer features, maar zijn mogelijk wel minder gebruiksvriendelijk.

Kortom, ik zou je zeker willen aansporen om ZFS serieus te overwegen. ZFS is véél betrouwbaarder dan al het andere wat je noemt.

Acties:
  • 0 Henk 'm!

  • Flaat
  • Registratie: Oktober 2009
  • Laatst online: 05-09 09:38
CiPHER heel erg bedankt voor je uitgebreide antwoord, ik ga me beter inlezen over ZFS. Zo zie je maar dat opgegooglede forum posts niet altijd even betrouwbare informatie opleveren.

Acties:
  • 0 Henk 'm!

  • Fermion
  • Registratie: Oktober 2007
  • Laatst online: 28-09 22:25
Van de week beleefde ik een horror moment, op de MegaRAID Storage Manager was ik bezig met het verwijderen van een overbodige RAID configuratie uit mijn IBM M5015 en uit mijn ESXI 5.5 en gooide per ongeluk de productieve RAID10 configuratie weg (ESXI en de VM's draait op een eigen harddrive, data staat op RAID). Op dat moment flitste alles voor mijn ogen voorbij en voor een minuut zat ik apathisch op de bank met de gedachte voor wat nu! Maar wat blijkt, de IBM M5015 is vergevingsgezind. Via de MegaRAID Storage Manager zette ik met de hand de config weer terug met de juiste Strip Size (niet gaan Initialiseren) en had al mijn data weer terug!

Wauw, ik heb andere verhalen gehoord! Ik had nog net daarvoor een RAID0 config met opzet verwijderd en voor de test deze ook terug gezet en dat werkte zomaar! De harddrive wel aangesloten voor waar ze eerst op stonden aangesloten. Was altijd in de veronderstelling dat wanneer je de RAID config weggooide, je DATA kwijt bent. De MegaRAID Storage Manager geeft namelijk ook een waarschuwing dat al je DATA verloren gaat wanneer je de config weg gooit. Maar kennelijk gaat de IBM M5015 daar slim mee om.


Configuratie:
- IBM M5015 Raid adapter 4x 4TB (voor data only)
- Losse drive waarop ESXI en de VM's geïnstalleerd staat
- ESXI 5.5
- MegaRAID Storage Manager, draait op een VM/Windows, daaruit beheer ik mijn IBM 5015

Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Ik heb Flexraid op Windows Server 2008 R2 gedraaid en alhoewel het prima werkte zou ik het niet aanraden. Het idee is zeer mooi maar in de praktijk had het aardig wat voeten in de aarde. Met ZFS heb je gewoon een stuk meer zekerheid voor dataveiligheid en dat is de meerkosten zeker waard.
ZFS kan je prima met 2GB draaien. Ja, niet zo snel als je zou willen maar alsnog snel genoeg voor de meeste situaties. RAM tegenaan gooien is leuk voor snelheid maar wie heeft dat in de praktijk nodig? Meeste thuisgebruikers niet.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

Verwijderd

Wellicht interessant voor velen: "Bitrot and atomic COWs: Inside “next-gen” filesystems"

[ Voor 34% gewijzigd door Verwijderd op 20-01-2014 20:47 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Dat is wel een leuk artikel, met misschien iets teveel lof over Btrfs. Is dit ondertussen op een niveau dat het ZFS kan vervangen of is het nog steeds niet geschikt voor "productie" ?

Acties:
  • 0 Henk 'm!

Verwijderd

Mensen die Btrfs op conventioneel RAID draaien hebben in elk geval bij lange na niet de veiligheid die ZFS biedt. Maar ik durf verder niet te zeggen in hoeverre Btrfs gevorderd is. Ik hoor soms wel positieve dingen, maar heb de indruk dat het nog steeds een bètaproject is. ZFS is al tijden volwassen en heeft natuurlijk een veel betere start. Daarnaast geldt dat door de licentie Btrfs waarschijnlijk ook Linux-only zal worden, net als ReFS een Microsoft-only filesystem is. ZFS heeft dan als voordeel een multi-platform filesystem te zijn, alleen Windows draait geen ZFS.

Acties:
  • 0 Henk 'm!
ReactOS doet ook geen ZFS :+

Even niets...


Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
FireDrunk schreef op maandag 20 januari 2014 @ 11:08:
[...]


Als je echt zoveel lanes nodig hebt moet je naar een Socket 2011 bord gaan. Die zijn daar op gemaakt.
Dan krijg je dit soort CPU's
http://ark.intel.com/prod...Cache-up-to-3_80-GHz?q=39
http://ark.intel.com/prod...5M-Cache-2_20-GHz?q=e5-26

Beide 40 PCIe lanes.
"Nodig" is een groot woord.
Maar dat zijn de aantallen zoals ik ze nu heb....
x8 voor de Mellanox-kaart
2 keer x8 voor de twee M1015's
x4 voor de dual head NIC
Met die optelsom kom ik op 28 uit.
En om nu nog een (paar?) keer onderuit te gaan op die PLX-chips, die ik op veel borden zie zitten, zie ik ff niet zitten.
Of iemand moet een bevestiging kunnen geven dat hij/zij het op een 1155 socket met 4 PCIe sloten zoals ik ze gebruik, dat het wel werkt... Dat waag ik het wel.
Ik ben de beroerdste niet om een nieuw bord en desnoods CPU en (ECC?) memory te kopen, maar er moet dan wel een redelijk vooruitzicht zijn op een goed werkende configuratie.

Acties:
  • 0 Henk 'm!

  • ItsValium
  • Registratie: Juni 2009
  • Laatst online: 16:59
@]Byte[ misschien eens kijken naar de supermicro reeks van moederborden. X9SRL-F bijvoorbeeld heeft 2 PCI-E 3.0 x8, 2 PCI-E 3.0 x8 (in x16), 2 PCI-E 3.0 x4 (in x8), 1 PCI-E 2.0 x4 (in x8), deze heb ik zelf in verschillende setups draaien met heel goede resultaten. Is wel socket 2011, dus nieuwe cpu en memory zal nodig zijn, op de site van supermicro kan je makkelijk browsen door gans hun aanbod.

Acties:
  • 0 Henk 'm!
Prachtig bord inderdaad, en daar kan ook een E5-16xx op. Is weer een tikje goedkoper.

pricewatch: Intel Xeon E5-1620 v2 Tray

Dus :)

[ Voor 44% gewijzigd door FireDrunk op 20-01-2014 23:18 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • ItsValium
  • Registratie: Juni 2009
  • Laatst online: 16:59
Of als je het helemaal bont wil maken en futureproof wil zijn -> X9DRH-7F 1 PCI-E 3.0 x16 and 6 PCI-E 3.0 x8, daar kan je een hele hoop HBA's en NIC's in kwijt, een hele sloot aan RAM (tot 1TB) en heb je onboard al 10 sata poorten en nog erbovenop een LSI 2208 controller, dus al 18 sata's rechtstreeks op het moederbord. Zo heb ik er ook een drietal draaien bij een aantal klanten maar lijkt me voor ]Byte[ wel wat overkill en stukken duurder natuurlijk. En met de juiste E5 Xeon ook nog eens brute rekenkracht.

[ Voor 7% gewijzigd door ItsValium op 20-01-2014 23:23 ]


Acties:
  • 0 Henk 'm!
Uiteraard, maar dat zijn zo ongeveer de sterkste configs die je kan maken 8-)

Maar wel errug leuk speelgoed _/-\o_ :Y <3

[ Voor 24% gewijzigd door FireDrunk op 20-01-2014 23:28 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Lol... Dat is wel een mega kickass board!
Dat ziet er uit als met een Bugatti Veyron je boodschappen bij de ALDI halen... _O- oOo
Ik ben mij nu even aan het oriënteren op de 2011 plankjes met het liefst onboard VGA. (scheelt mij weer een slot - wat mij betreft mag het zelfs via serial console zijn)

Acties:
  • 0 Henk 'm!

Verwijderd

Bedenk wel dat dat bord wel veel PCIe heeft, maar dat je maar de helft kunt gebruiken met één CPU.

Zie ook:
(Both CPUs need to be installed for full access to PCI-E slots and onboard controllers. See manual block diagram for details.)
Alleen ehm, tja, ik vind deze discussie meer iets voor het DIY RAID NAS topic. Goed als ik hem verplaats?

Acties:
  • 0 Henk 'm!
Het heeft zijdelings wel met ZFS te maken vanwege het niet kunnen (nou ja kunnen... af te raden) van expanders icm ZFS, waardoor je zoveel lanes nodig hebt :)

Maar goed, het past inderdaad ook in het DY RAID NAS Topic.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Wie heeft er een linkje naar de laatste IT mode firmware voor een M1015 ?
Ik kwam hier op uit : http://www.servethehome.com/ibm-serveraid-m1015-part-4/ ? maar is dit ook een handige/recente versie ?

Acties:
  • 0 Henk 'm!

  • Gralgrathor
  • Registratie: April 2011
  • Laatst online: 20-08 13:41
Phuncz schreef op maandag 20 januari 2014 @ 21:36:
Dat is wel een leuk artikel, met misschien iets teveel lof over Btrfs. Is dit ondertussen op een niveau dat het ZFS kan vervangen of is het nog steeds niet geschikt voor "productie" ?
Wat mij betreft is een stabiele en complete RAID5/6 (RAIDZ1/2 alternatief) implementatie een must. Zolang dat nog niet af is ga ik er niet eens mee experimenteren, laat staan dat ik het als main storage gebruik.

Acties:
  • 0 Henk 'm!

  • Gralgrathor
  • Registratie: April 2011
  • Laatst online: 20-08 13:41
En BeOS?

Acties:
  • 0 Henk 'm!

  • Sleepkever
  • Registratie: Juni 2007
  • Laatst online: 17:43
Gralgrathor schreef op dinsdag 21 januari 2014 @ 14:19:
[...]


Wat mij betreft is een stabiele en complete RAID5/6 (RAIDZ1/2 alternatief) implementatie een must. Zolang dat nog niet af is ga ik er niet eens mee experimenteren, laat staan dat ik het als main storage gebruik.
Er zit sinds april 2013 experimenteel RAID5/6 support in Btrfs. Sowieso is heel Btrfs nog zwaar experimenteel. Het zou wel eens stabiel genoeg kunnen zijn inmiddels maar wil je dat risico lopen?
Ik vind persoonlijk het werk ook maar traag gaan. Weet niet hoe oud ZFS inmiddels is, maar Btrfs heeft nogal een inhaalslag te doen als ze willen concureren met ZFS. En op dit tempo zie ik ze ZFS nog niet inhalen.

Acties:
  • 0 Henk 'm!

  • Gralgrathor
  • Registratie: April 2011
  • Laatst online: 20-08 13:41
Sleepkever schreef op dinsdag 21 januari 2014 @ 14:35:
Er zit sinds april 2013 experimenteel RAID5/6 support in Btrfs
Klopt, maar wat ik daar over lees boezemt nu niet echt vertrouwen in. Ik ben nog niemand tegengekomen die het als storage solution gebruikt. Terwijl de RAID0/1/10 implementaties volgens de ontwikkelaars en user reviews stabiel is, en niet onaardig presteert.

Soit, ik wacht dus nog even voordat ik er mee ga spelen. Mijn volgende generatie NAS gaat sowieso nog ZFS draaien. Als ik ooit de schijven bij elkaar krijg gescharreld.

Acties:
  • 0 Henk 'm!
Development van ZFS begon in 2001, development van Btrfs begon in 2008.

Dus niet zo zeuren :), het komt vanzelf... :)

ZFS heeft ook echt wel de nodige bugs gehad (Pre 28 kon het gebruik van een ZIL bijvoorbeeld je hele pool slopen enzo...)

[ Voor 34% gewijzigd door FireDrunk op 21-01-2014 14:54 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Gralgrathor
  • Registratie: April 2011
  • Laatst online: 20-08 13:41
Misschien denken de ontwikkelaars aan BTRFS dat ook? :+

Acties:
  • 0 Henk 'm!

  • Gralgrathor
  • Registratie: April 2011
  • Laatst online: 20-08 13:41
Ik begrijp dat Flexraid een laag bovenop het FS is, en dat pariteit (per file, niet per block!) naar een aparte disk wordt geschreven. Heeft zo zijn voordelen, vooral voor de huis-tuin-en-keuken-gebruiker, die wellicht een bij elkaar geraapt zootje schijven heeft waar al data op staat maar niet voldoende ruimte om het zootje naar een nieuwe stack te kopieren. Maar ik vraag me af hoe het omgaat met bad blocks. ZFS kan stilletjes een hoop problemen bij rotte oude disks corrigeren; maar in het geval van Flexraid ben je alsnog aangewezen op het onderliggende FS, en kan corrupte data alsnog naar de parity worden geschreven.

Dus als je serieus bent in je verlangen je storage betrouwbaarder te maken zou ik er toch voor kiezen te investeren in ZFS. Hoeft, zoals reeds is gezegd, niet veel te zijn. Drie keer 1TB in raidz is toch weer 2TB data, en met 2G RAM in je doos zal het geen snelheidsprijzen winnen, maar desondanks prima draaien. En wat betreft het opzetten van de array: toen ik daar als absolute n00b even voor ging zitten was ik er in een kwartiertje mee klaar. ZoL-native geinstalleerd (1 commando achter de prompt), array aangemaakt (nog eens 1 commando), data kopieren (1 commando, op naar de kroeg). Enige dat je nodig hebt is genoeg schijfruimte om je data op te bewaren terwijl je de overige schijven gebruikt voor het aanmaken van een ZFS array, want ZFS 'formatteert' je schijven als je de array aanmaakt.

Dat gezegd hebbende: wat zou het toch leuk zijn als je RAIDZ vdevs kon uitbreiden...

Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Dat is toch in ontwikkeling?

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • Gralgrathor
  • Registratie: April 2011
  • Laatst online: 20-08 13:41
Wie is in ontwikkeling?

Acties:
  • 0 Henk 'm!

Verwijderd

Block Pointer Rewrite, wat defrag en vdev expansion mogelijk maakt. Maar ik weet niet of dit nu echt wel in ontwikkeling is. Het is een grote feature die belangrijke on-disk veranderingen teweeg zal brengen. Geen kleine feature. En potentiëel ook gevaarlijk; bugs hierin kunnen je hele pool slopen. Bedenk ook wat er gebeurt als tijdens de expansion en rewrite er gekke dingen gebeuren als timeouts/bad sectors. Dit soort dingen moeten allemaal worden meegewogen.

En als de feature er eenmaal is, zul je alsnog eerst een backup moeten maken voordat je expansion uitvoert. Dus hoe nuttig is deze feature nou echt?

Acties:
  • 0 Henk 'm!

  • Gralgrathor
  • Registratie: April 2011
  • Laatst online: 20-08 13:41
Verwijderd schreef op dinsdag 21 januari 2014 @ 16:37:
Dus hoe nuttig is deze feature nou echt?
True. Ik zat al een heel relaas te bedenken over hoe het ZFS toegankelijker zou maken voor Jan met de pet, die een willekeurig allegaartje van disks heeft en in willekeurige volgorde vrijmaakt voor zijn opslagsysteem... Maar eigenlijk moeten mensen die geen zin hebben om een beetje na te denken over de vereisten van hun opslag gewoon JBOD draaien. Betrouwbaarheid is voor mensen die serieus bezig zijn ;)

Acties:
  • 0 Henk 'm!
Er is altijd een use-case, en klakkeloos een feature onnuttig verklaren omdat je persé moet backuppen is kolder natuurlijk. Zolang er usecases voor te verzinnen zijn (en die zijn er genoeg) waarom zou je het dan niet doen?

Bedenk ook dat je bijvoorbeeld door een block pointer rewrite van recordsize zou kunnen wisselen, of zou kunnen shrinken. Waar je misschien vroeger 8*2TB hebt, kan je eerst 4 schijven voor 4TB's vervangen, en daarna je filesystem shrinken zonder dat je backups hoeft te maken.

Genoeg usecases, maar zeker niet zonder risico. Gewoon voor ieder wat wils...

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Het is best leuk natuurlijk, maar ook heel veel werk. Niet alleen om de feature te ontwikkelen maar ook om hem zorgvuldig te testen. Het is een monsterfeature die de on-disk ZFS data ingrijpend gaat veranderen; de transient state zeg maar is extreem belangrijk.

Dus de reden om het 'niet te doen' zou zijn omdat het toch nooit echt stabiel wordt, binnen een periode van enkele jaren. Dan kan het interessanter zijn om de 'beste ZFS devs' voor andere zaken in te zetten. Er valt genoeg aan ZFS te verbeteren nog.

Bovendien, als BPR relatief eenvoudig was om toe doen, waren er allang serieuze pogingen gedaan. De extra's die je noemt zoals shrinking, recordsize en defragmentatie zijn natuurlijk ook heel belangrijk. Maar we moeten ons ook beseffen dat er geen Sun meer is die de ontwikkeling van ZFS ondersteunt. Het hangt nu af van een handjevol vrijwilligers. Dus is er wel genoeg mankracht om zo'n grote feature daadwerkelijk te kunnen afleveren binnen 5 jaar tijd? En als het antwoord ja is, in hoeverre gaat dit ten koste van andere features?

Dat gezegd, ik zou zeker blij zijn als de functionaliteit er is. Maar misschien nog blijer als in plaats daarvan een waslijst aan andere verbeteringen zijn doorgevoerd. Op de een of andere manier denk ik dat dat veel meer oplevert in de praktijk dan BPR.

Acties:
  • 0 Henk 'm!
Uiteraard :) Laat ze een Python API maken :+

Even niets...


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 19:12
Het ontbreken van die feature is wel waarom ik ZFS niet volwassen vind. De onderdelen / features die wel af zijn / werken doen hun werk afaik ook gewoon goed, daar hoor je me ook niet over. Echter, een disk toevoegen en deze, zelfs als er nog _niks_ naar is geschreven, niet meer kunnen verwijderen? Geen (online of offline) raid level migration? Geen defrag op een CoW-FS?

Kom op mensen, het is 2014, geen 1984... Het FS weer waar alle blokjes staan, hoe lastig is het dan om blokje A van positie 1 naar positie 2 te verplaatsen en de pointer bij te werken?

Kijk, ik ben zelf ook programmeur (geweest) en ik weet hoe lastig het is om iets gedaan te krijgen van een architectuur die daar niet voor ontworpen is, maar mijns inziens zijn dit redelijk cruciale bewerkingen op een filesystem dat bedoeld is om over meerdere disken te werken!

Mijns inziens is dat ook een van de redenen waarom veel hobbyisten nu een fileserver hebben met een utilization onder de 50% of zo. Je kunt een RAIDZ niet uitbreiden dus maak er maar meteen een van 5 disks ook al heb je maar data voor 2...

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

Verwijderd

Voor een consumentenfilesystem kun je misschien onvolwassen noemen; enterprise gruwelt natuurlijk van RAID5 expansion / rewrite. Het blijft altijd een risico vormen zodat je een backup bij de hand moet hebben, en kan daarnaast langer duren dan het opnieuw aanmaken van een pool en het kopiëren van de data. Enig voordeel is dan dat je systeem online blijft tijdens de procedure, maar dan wel met heel trage disk I/O voor langer dan een dag, dus dat is zeker niet zaligmakend voor zakelijke gebruikers.

Consumenten hebben vaak geen backup. Als de dat wel hadden, hebben ze BPR ook helemaal niet nodig. Dan is het sneller, veiliger en makkelijker om de pool opnieuw aan te maken. Juist de consumenten zonder 1:1 backup willen deze feature, en dat is nu juist de groep die veel nadeel zou kunnen ondervinden van deze feature, omdat ze dan massaal onveilige expansion gaan gebruiken. Dit zal in de praktijk zorgen voor dataverlies bij sommigen en dat betekent weer dat ZFS voor hen niet het eindstation is qua betrouwbaarheid.

Kortom, ik zie ook nadelen bij BPR in de praktijk. Want wie gaan die feature gebruiken? Juist diegenen die extra risico lopen. Zoals hier.

[ Voor 3% gewijzigd door Verwijderd op 21-01-2014 18:57 ]


Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Tnx voor alle tips.
Hier kon ik wel aardig mee uit de voeten.
* ]Byte[ heeft net zijn X9SRL-F met (voorlopig) 32 GB-ECC en E5-2620v2 besteld...

Acties:
  • 0 Henk 'm!
Heb je geld teveel ofzo? :S

Even niets...


Acties:
  • 0 Henk 'm!

  • ItsValium
  • Registratie: Juni 2009
  • Laatst online: 16:59
]Byte\[ schreef op dinsdag 21 januari 2014 @ 20:32:
Tnx voor alle tips.
Hier kon ik wel aardig mee uit de voeten.
* ]Byte[ heeft net zijn X9SRL-F met (voorlopig) 32 GB-ECC en E5-2620v2 besteld...
Zal je geen spijt van krijgen. Ik gebruik al jaren supermicro voor allerhande setups. Beste prijs kwaliteitsverhouding voor echt serverspul!

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Lol...
Dan had ik wel de X9DRH-7F gehaald met twee E5-2650v2's en 128 GB gehaald.
Ik heb wat dat betreft wel een paar voordelen.
Ik schaf het zakelijk aan. BTW wordt aan het einde van Q1 gelijk verrekend, en de rest is afschrijving die de boeken in gaat voor een paar jaar.
Het is voor mij ook altijd een stukje R&D om het op die manier later ook bij klanten te kunnen implementeren.
Dat wil en moet ik wel weten of het stabiel is en wat ik voor ondersteuning kan bieden.

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
ItsValium schreef op dinsdag 21 januari 2014 @ 21:26:
[...]

Zal je geen spijt van krijgen. Ik gebruik al jaren supermicro voor allerhande setups. Beste prijs kwaliteitsverhouding voor echt serverspul!
Als ik eerlijk moet zijn had ik ook gedacht dat het duurder zou zijn!
Kwalitatief staat Supermicro al langere tijd goed aangeschreven, maar de prijs hield mij eigenlijk, zoals nu blijkt onterecht, weg.
Maar ik weet nu wel wat ik als basis voor mijn nieuwe projecten ga gebruiken...

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 18:10

Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online

ppl

Verwijderd schreef op vrijdag 17 januari 2014 @ 20:59:
Wat heeft jails te maken met de hardware direct aanspreken? Jails is gewoon een veredelde 'chroot' waarbij ook de kernel API is beveiligd.
Dat klinkt als hopeloos verouderde informatie (net als dat deze reactie ook behoorlijk laat is :P). Jails hebben zich in de loop der tijd heel ver ontwikkeld. Zo ver dat je ze nauwelijks nog met een chroot omgeving kunt vergelijken. Dingen als Linux en FreeBSD 4 worden inmiddels in een jail op bijv. een FreeBSD 9.2 of 10 machine gedraaid. Daarbij kun je ook bepalen of een jail alle resources mag gebruiken of maar een beperkte hoeveelheid.

Het grote probleem bij gewone virtualisatie is het kunnen aanspreken van hardware. Door de manier waarop jails werken is dat daar een stuk eenvoudiger dan met gewone virtualisatie. Zoals je zelf al opmerkt heb je daar VT-d nodig, bij jails niet. Immers, het onderliggende OS biedt de hardware al aan. Probleem is alleen dat niet alles in een jail werkt (Windows draaien kan daarin niet). Dan wil je volledige virtualisatie en zit je nu nog aan Virtualbox vast. Bhyve is namelijk nog niet volwassen genoeg, daar wordt aan gewerkt. Als je echter een oude FreeBSD versie of iets van Linux wil kunnen draaien dan is dat nu al mogelijk met de jails. Doordat je daar de hardware directer kunt aanspreken is het verlies van VT-d ineens niet zo erg meer.

Om een voorbeeld te geven: met ESXi zou je aparte vm's maken voor een fileserver, een webserver, domain controller, enz. Met FreeBSD kun je dit alles met jails af doen waardoor je resources bespaart (heeft zfs weer wat meer geheugen tot z'n beschikking) terwijl de fileserver jail toch gewoon bij de zfs pool kan en dus gewoon als NAS/SAN kan functioneren. Zonder verlies van betrouwbaarheid. Dat ligt bij ESXi toch wel even anders. De enige optie die je zonder VT-d hebt is het gebruik van RDM en dat is niet bepaald betrouwbaar.

Btw, VT-d en ESXi is ook lang niet altijd een gelukkig huwelijk. Goed vooronderzoek wat wel en wat niet werkt qua hardware is hier wel van belang.
Verwijderd schreef op zaterdag 18 januari 2014 @ 13:53:
Als Xen of BHyVe een vervanging van ESXi kan worden, gaan we inderdaad een leuk tijdperk in. Dan heb je BSD 100% native die aan de hardware zit (dat bedoel jij ppl?) terwijl je heel efficiënt andere VMs kunt draaien met Xen en BHyVe.
Ja dat bedoelde ik. Wat we met die virtualisatie mogelijkheden straks kunnen doen is de hardware nog efficiënter gebruiken dan we nu doen. Iets als ESXi heeft namelijk behoorlijk wat overhead. Als je alles toch op 1 OS houdt is dat doodzonde. Juist daar zijn jails/containers zeer nuttig. Met dingen als Xen, Bhyve en Virtualbox kun je dan weer dingen doen die niet met jails/containers mogelijk zijn. Voor zuinigheid kon dit nog wel eens erg belangrijk gaan worden (je kunt het namelijk ook omdraaien: je kunt slome zuinige hardware dusdanig inzetten dat het ineens net zoveel kan als de krachtigere energieslurpende hardware).
Paul schreef op dinsdag 21 januari 2014 @ 18:37:
Kom op mensen, het is 2014, geen 1984... Het FS weer waar alle blokjes staan, hoe lastig is het dan om blokje A van positie 1 naar positie 2 te verplaatsen en de pointer bij te werken?
Het grote probleem met ZFS is het verschil in implementatie. Het wordt door diverse systemen gebruikt die ieder weer hun eigen implementatie hebben. Daar hebben ze inmiddels OpenZFS voor opgericht. De ontwikkeling wordt daarmee gecentraliseerd waardoor de implementaties op 1 lijn komen te zitten. Tel daarbij op dat de FreeBSD kernel iets heel anders is als die van Illumos en het feit dat de publieke ZFS ontwikkeling dankzij Oracle op z'n gat ligt en zie daar de reden waarom bepaalde features er (nog) niet in zitten. Ik hoop dat ze met OpenZFS dat wel van de grond krijgen.
Mijns inziens is dat ook een van de redenen waarom veel hobbyisten nu een fileserver hebben met een utilization onder de 50% of zo. Je kunt een RAIDZ niet uitbreiden dus maak er maar meteen een van 5 disks ook al heb je maar data voor 2...
ZFS is relatief eenvoudig om mee te werken en werkt met consumer hardware. Je hebt dus geen diepgaande storage kennis nodig en ook geen servergrade componenten. Ideaal om thuis helemaal los te gaan. En ja, een hobbyist zou een hobbyist niet zijn als ie geen overkill aan hardware zou hebben :) We hebben het hier over hele andere dingen dan wat je op enterprise niveau zou doen (een hobbyist vindt het al snel "wel best", een houding die niet past op enterprise niveau).

Btw, ik ben eigenlijk benieuwd in hoeverre Dragonfly met HAMMER op dit moment als NAS in te zetten is. Iemand hier die dit al heeft geprobeerd?

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 19:12
]Byte\[ schreef op dinsdag 21 januari 2014 @ 20:32:
* ]Byte[ heeft net zijn X9SRL-F met (voorlopig) 32 GB-ECC en E5-2620v2 besteld...
Had je niet beter een E5-1620 v2 kunnen nemen? True, 2 cores minder, maar ze lopen wel bijna 2x zo hard. Ik weet niet wat je belasting wordt, ik zie zakelijk gebruik, mogelijk dat je voldoende clients hebt om de 6 cores bezig te houden met Samba (of iets anders) :) Zelf heb ik te weinig concurrent connecties om baat te hebben bij meer cores dus ik ben wel blij met mijn E5-1620 v2 :)
Verwijderd schreef op dinsdag 21 januari 2014 @ 18:52:
Voor een consumentenfilesystem kun je misschien onvolwassen noemen; enterprise gruwelt natuurlijk van RAID5 expansion / rewrite.
Nou ja, gruwelen... Bij een EMC Isilon (ok, die werken meer op node-niveau dan disk, maar het principe blijft redelijk gelijk) kun je data van een node wegmigreren met behoud van redundancy (en daar hebben ze specifiek performance- en archiving nodes, en wat smaken er tussenin, dus data naar een andere tier brengen komt redelijk vaak voor), op een IBM SVC kun je volumes van de ene 'tier' naar de andere kopiëren (true, kopiëren) maar ook volumes / schijven toevoegen aan een mdiskpool en vervolgens rebalancen of mdisks verwijderen uit een mdiskpool etc etc. Ja, daar werk je vaak met 1:1-kopieën met daarnaast backups, maar al die apparaten kunnen wel fatsoenlijk uitgebreid worden :)

Online... Alles weggooien en opnieuw beginnen, mijn werkgever ziet me aankomen over 3 maanden als de library van de backup vol zit, of even het hele bedrijf platgooien omdat er schijfruimte bij moet op de disk arrays.

Nu zijn dat wat grotere apparaten waardoor er waarschijnlijk wat meer schijven tegelijk bij komen dan bij de meeste ZFS-implementaties, maar allemaal kunnen ze disks of nodes vrijspelen en rebalancen als er speelgoed bij komt... Ik kan, mits ik voldoende ruimte heb, vrijwel alles vrijspelen, toevoegen, verwijderen etc. ZFS kan niks van dat alles... Dat hoeft geen probleem te zijn, maar je moet er wel rekening mee houden, en het heeft me serieus een tijdje tegengehouden het te gebruiken.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Demo
  • Registratie: Juni 2000
  • Laatst online: 10-10 18:39

Demo

Probleemschietende Tovenaar

ppl schreef op woensdag 22 januari 2014 @ 00:10:
Btw, ik ben eigenlijk benieuwd in hoeverre Dragonfly met HAMMER op dit moment als NAS in te zetten is. Iemand hier die dit al heeft geprobeerd?
Leeft dat nog? Ik herinner me dat het ten tijde van FreeBSD 4 uitgebracht werd, maar heb er daarna nooit meer iets van gehoord.. HAMMER klinkt op papier ook interessant, maar een compleet OS met eigen filesystem dat door zo'n klein team wordt onderhouden, vind ik toch griezelig.

Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done


Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Paul schreef op woensdag 22 januari 2014 @ 00:23:
[...]
Ik weet niet wat je belasting wordt,
[...]
Het is voor mijn ZFSguru-box, waarop ik o.a. ook dedup zal gaan draaien.
Verder zaken als MySQL, NFS, Samba, iSCSI enz.
De koppeling met ESX hangt met IPoIB met iSCSI.

Buiten dat heeft de 1620v2 een TDP van 135W en de 2620v2 een TDP van 95W. (dit woog voor mij ook wel mee in de beslissing om een 2620 te nemen)

[ Voor 18% gewijzigd door ]Byte[ op 22-01-2014 15:19 ]


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
interessant om zo'n uitgebreide ervaring te lezen, qua Seagates komt mijn ervaring overeen waarbij bij mij de 4TB tot toe geen uitval hebben terwijl de 3TB in dezelfde periode al wel weer een schijf is uitgevallen.

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Dat niet alleen. Op een aantal van ruim 27.000 drives geeft dit toch wel een redelijk goed / representatief beeld.
Ik had blijkbaar toevallig 1 pech-disk (WD Red - 4 TB) die na 56 dagen errors begon te geven.
Gelukkig was ZFSguru er om het te repairen.

Acties:
  • 0 Henk 'm!

  • syl765
  • Registratie: Juni 2004
  • Laatst online: 12-09 14:47
@Demoniac

Zeker wel dat DragonFly nog leeft.
En het gaat de goede kant op qua performance. Dragonfly liep altijd wat achter, maar ze zijn een behoorlijke inhaalslag aan het maken.
http://www.dragonflybsd.org/performance/

Matthew Dillon is natuurlijk niet de eerste de beste. Wat die man in korte tijd neerzet is toch bewonderings waardig.

gr

Acties:
  • 0 Henk 'm!
Het ging meer over HAMMER denk ik...

Even niets...


Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online

ppl

Demoniac schreef op woensdag 22 januari 2014 @ 07:55:
[...]
Leeft dat nog? Ik herinner me dat het ten tijde van FreeBSD 4 uitgebracht werd, maar heb er daarna nooit meer iets van gehoord.. HAMMER klinkt op papier ook interessant, maar een compleet OS met eigen filesystem dat door zo'n klein team wordt onderhouden, vind ik toch griezelig.
DragonflyBSD is een fork van FreeBSD 4. Beide projecten zijn qua omvang van hoeveelheid mensen niet groot. Dat is Linux echter ook niet. De grootte is dus niet anders als menig ander open source project en waarschijnlijk ook niet van die van menig closed source project. Kortom, als je dat griezelig vindt blijft er eigenlijk geen enkel OS meer over ;)

Zie de lijst van (vaste) bijdragers: http://www.dragonflybsd.org/team/

HAMMER klinkt op papier inderdaad erg interessant, vandaar dat ik ook de vraag stelde ;) ZFS is erg groot en dit is 1 van de concurrenten maar hoe werkt deze nou in de praktijk voor mensen?

Acties:
  • 0 Henk 'm!

  • Demo
  • Registratie: Juni 2000
  • Laatst online: 10-10 18:39

Demo

Probleemschietende Tovenaar

Het verschil tussen Linux en Dragonfly is echter dat op Linux inmiddels zoveel commerciële producten gebouwd zijn, dat als die ontwikkeling dreigt te gaan stagneren, er nog wel een paar multinationals zijn die er in kunnen en willen investeren. Dat zie ik bij DragonflyBSD niet echt terug.. Anderzijds ben ik nooit vies geweest van het uitproberen van minder gebruikelijke OS'en, dus misschien moet ik het ook maar eens installeren :)

Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done


Acties:
  • 0 Henk 'm!

  • indian
  • Registratie: Maart 2001
  • Laatst online: 02-09 19:10
ilovebrewski schreef op dinsdag 29 oktober 2013 @ 13:07:
Ik heb begin dit jaar gekozen voor een setup van ZFSguru met 5 stuks 3 TB WD RED in RAIDZ1. Hiervoor gekozen vanwege de garantie van 3 jaar en het lage vermogen.
Echter wil ik nog steeds TLER uitschakelen omdat ik een ZFS configuratie heb. Zijn er mensen die hier ervaring mee hebben? WDTLER.exe schijnt niet meer te werken met deze harde schijven.
Heeft iemand misschien ervaring met het uitzetten van de TLER op de WD red schijven? Het gaat om een ZFS build net zoals ilovebrewski.

Acties:
  • 0 Henk 'm!

  • Demo
  • Registratie: Juni 2000
  • Laatst online: 10-10 18:39

Demo

Probleemschietende Tovenaar

indian schreef op vrijdag 24 januari 2014 @ 09:58:
[...]


Heeft iemand misschien ervaring met het uitzetten van de TLER op de WD red schijven? Het gaat om een ZFS build net zoals ilovebrewski.
Wil je bij ZFS de TLER niet juist aan hebben? Om enorme timeouts te voorkomen en het oplossen van een hardwarematige leesfout aan ZFS over te laten? Als TLER uit moet, had je net zo goed WD Green's kunnen kopen...

Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done


Acties:
  • 0 Henk 'm!

  • indian
  • Registratie: Maart 2001
  • Laatst online: 02-09 19:10
Demoniac schreef op vrijdag 24 januari 2014 @ 10:27:
[...]
Wil je bij ZFS de TLER niet juist aan hebben? Om enorme timeouts te voorkomen en het oplossen van een hardwarematige leesfout aan ZFS over te laten? Als TLER uit moet, had je net zo goed WD Green's kunnen kopen...
In dit topic staat het advies om TLER uit te zetten voor ZFS omdat er geen sprake is van hardware raid (waar tler geschikt voor is). De green schijven hebben 1 jaar kortere garantie, schijnen niet zo goed tegen vibraties te kunnen (backblaze artikel) en zijn ouder qua techologie.

Acties:
  • 0 Henk 'm!

Verwijderd

Green en Red zijn fysiek hetzelfde; dat ze ouder zijn klopt niet dat is een vergissing van iemand die Green met 750GB platters vergelijkt met Red met 1000GB platters. Maar dat is appels met peren; als je nu Green of Red koopt krijg je de 1000GB platter versie. Snelheid, performance en betrouwbaarheid zou gelijk moeten zijn.

Enig verschil is de firmware. Je kunt volgens mij inderdaad WDTLER.exe gebruiken. Je kunt ook de soft timeouts van het operating system gebruiken. Timeout-waarde heb je eigenlijk niets mee te maken behalve in gevallen van bad sectors. Er was echter discussie een tijd terug over de voordelen van TLER op een ZFS configuratie. Wil je maximale beschikbaarheid voor applicaties dan kan het zeker nut hebben. Geef je alleen om databescherming, dan heb je TLER niet nodig en kan het zelfs risicovol zijn in gevallen waar je geen redundancy meer hebt, zoals een degraded RAID-Z.

Acties:
  • 0 Henk 'm!

  • et36s
  • Registratie: Maart 2001
  • Laatst online: 10-10 19:19
http://www.supermicro.nl/...rd/celeron/X10/X10SBA.cfm

Eindelijk het diy NAS / XBMC board waar ik al jaren op wacht :) 7 year productlife, mSATA (ssd), Mini PCI-e (wifi-AC+bluetooth module), dual GB network, 6xSATA, J1900 quadcore processor passief gekoeld (evensnel als een core i5-1410 volgens cbu-boss) HDMI, USB3.0 en wordt betaalbaar zo rond de 185,-

Acties:
  • 0 Henk 'm!

Verwijderd

Dat is zeker een heel leuk bord, met eindelijk een passief gekoelde SoC-chip waar je wat mee kan; quadcore is heel leuk voor ZFS. De SATA is 2x SATA/300 door SoC en 4x SATA/600 door Marvell chip. Dat laatste is geen volle bandbreedte, maar zeker niet verkeerd zo! Ook +12V dus PicoPSU heb je niet meer nodig. Nu hopen dat BSD er goed op draait.

Ik heb zelf ook wel interesse in dit bordje. Enig puntje is dat er maximaal 4GiB So-DIMMs ingaan, ik had liever 8GiB DIMM modules gehad.

Acties:
  • 0 Henk 'm!

  • Gralgrathor
  • Registratie: April 2011
  • Laatst online: 20-08 13:41
Verwijderd schreef op vrijdag 24 januari 2014 @ 11:44:
Enig puntje is dat er maximaal 4GiB So-DIMMs ingaan, ik had liever 8GiB DIMM modules gehad.
En non-ECC. Zeker geen onbelangrijk puntje, als je het voor een nextgen FS zou willen gebruiken.

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Vandaag X9SRL-F met CPU binnen, morgen komt memory.
Lol... had er even geen rekening mee gehouden dat bij Xeon CPU's geen cooler zit.
Die moet ik dus morgen nog even halen. :+

Acties:
  • 0 Henk 'm!

  • TiZu
  • Registratie: Augustus 2010
  • Laatst online: 24-09 14:56
Bij mijn E3 zat wel een koeler. Volgens mij zitten er geen koelers bij socket 2011.

Acties:
  • 0 Henk 'm!
Koop gelijk een goede ;) (Noctua ofzo :) )

Toevallig net mijn FC rig aan de praat... FreeBSD icm een QLogic fibre channel kaartje naar een ESXi machine met een Emulex kaartje.

Ging allemaal prima, en ik haalde redelijke snelheden (20000 iops 4K Random Read, 5500 4k iops Random Write).

Tot ik een tweede verbinding maakte... 8-)

Toen krakte FreeBSD met een dikke kernel panic...

Even kijken waar dat op slaat :P

[ Voor 82% gewijzigd door FireDrunk op 24-01-2014 16:34 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
FireDrunk schreef op vrijdag 24 januari 2014 @ 16:32:
Koop gelijk een goede ;) (Noctua ofzo :) )
Tnx voor de tip. Dat was al bijna mijn volgende vraag.
Ik had ze al zien staan. Wat mij opvalt is dat ze redelijk stil zijn met toch een goede airflow.
[...]
Toen krakte FreeBSD met een dikke kernel panic...
Dat had je nu niet moeten zeggen. Die panic had ik ook al eens gehad.
Was eigenlijk van plan om mijn FC-kaartje er toch weer bij te prikken in dit bord.
Ik denk dat ik eerst maar eens een 2e ZFSguru ga bouwen (heb straks toch een compleet board over O-) ) om dat eens rustig goed te testen.

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 19:12
Houd er rekening mee dat dat moederbord een Narrow ILM / socker 2011 heeft! Ik heb daarom maar de cooler van Supermicro zelf gekocht samen met een losse fan, aangezien de stock fan blijkbaar wat herrie maakt. Heb de stock fan niet geprobeerd overigens, met die Shadow Wings hoor ik hem niet. Tijdens een memtest (multithreaded) wordt de CPU 65 graden (fan in BIOS ingesteld op langzaamste stand meen ik).

#ProductPrijsSubtotaal
1Supermicro SNK-P0050AP4€ 33,99€ 33,99
1be quiet! Shadow Wings PWM, 92mm€ 11,-€ 11,-

[ Voor 6% gewijzigd door Paul op 24-01-2014 17:01 ]

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • jadjong
  • Registratie: Juli 2001
  • Niet online
]Byte\[ schreef op vrijdag 24 januari 2014 @ 16:27:
Vandaag X9SRL-F met CPU binnen, morgen komt memory.
Lol... had er even geen rekening mee gehouden dat bij Xeon CPU's geen cooler zit.
Die moet ik dus morgen nog even halen. :+
KOOP EEN NARROW SOCKET KOELER!!!!.

Normale passen niet op een X9SRL. :+

[ Voor 50% gewijzigd door jadjong op 24-01-2014 17:02 ]


Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
jadjong schreef op vrijdag 24 januari 2014 @ 17:02:
[...]
KOOP EEN NARROW SOCKET KOELER!!!!.

Normale passen niet op een X9SRL. :+
NEE!!! Ik ga GEEN NARROW cooler halen! :+

Het klopt dat de X9SRL een narrow socket heeft...

Ik heb echter de X9SRL-F en die heeft een REGULAR SOCKET! 8) :Y
Dat was het eerste wat ik net gecontroleerd heb toen ik de doos open maakte.
Ik wist al van de narrow/regular op basis van het user manual wat ik al eerder had gedownload.

Acties:
  • 0 Henk 'm!
Goed bezig :D

Even niets...


Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020

Acties:
  • 0 Henk 'm!

  • jadjong
  • Registratie: Juli 2001
  • Niet online
]Byte\[ schreef op vrijdag 24 januari 2014 @ 17:40:
[...]

NEE!!! Ik ga GEEN NARROW cooler halen! :+

Het klopt dat de X9SRL een narrow socket heeft...

Ik heb echter de X9SRL-F en die heeft een REGULAR SOCKET! 8) :Y
Dat was het eerste wat ik net gecontroleerd heb toen ik de doos open maakte.
Ik wist al van de narrow/regular op basis van het user manual wat ik al eerder had gedownload.
Ik heb hier ook een -F en daar past zelfs met hamer geen regular in. Welke revisie heb je?

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 19:12
Good luck met terugsturen van je cooler... Ik heb ook een X9SRL-F en ik heb toch echt op de cooler de brede bracket eraf moeten schroeven en de smalle erop...

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
* ]Byte[ moet zijn mond af en toe een beetje houden en eerst goed op het bord kijken...
rev. 1.01
Ik was zo gefixeerd wat ik in het manual had gelezen dat ik het board niet goed bekeken had.
Omdat die 2011 socket groter is dan ik normaal in mijn handen heb, dacht ik dat dit de regular was.

Maar op zich als je even goed kijkt, de narrow heeft de holes in het verlengde van de socket zitten en de regular erbuiten.
Deze zitten duidelijk in het verlengde van de socket.

Tnx voor de waarschuwingen!
* ]Byte[ gaat zich in een hoekje zitten schamen...

Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 07-10 13:38
et36s schreef op vrijdag 24 januari 2014 @ 11:07:
http://www.supermicro.nl/...rd/celeron/X10/X10SBA.cfm

Eindelijk het diy NAS / XBMC board waar ik al jaren op wacht :) 7 year productlife, mSATA (ssd), Mini PCI-e (wifi-AC+bluetooth module), dual GB network, 6xSATA, J1900 quadcore processor passief gekoeld (evensnel als een core i5-1410 volgens cbu-boss) HDMI, USB3.0 en wordt betaalbaar zo rond de 185,-
Hier zie ik toch ook een hoop niet-NAS doeleinden in, dus als ik off-topic mag gaan...

Maak een mooie case waar dit moederbord inpast en een 230V => 12V adapter. Zorg wel voor een flinke adapter zodat je het moederbord ervan kan draaien en... Een iPad Retina display :D Combineer dat met een leuke SSD van bijv. 128GB of iets meer waar je Windows 8.1 opzet (en eventueel) een touchpanel) en je hebt een mooie kleine en relatief goedkope PC :D Als ik nou ietsjes handiger was met dingen maken zou ik zoiets graag in elkaar knutselen. Het hoeft volgens mij niet eens heel erg moeilijk te zijn.

De buitenafmetingen kunnen dan grofweg overeenkomen met die van de iPad Retina, dus 19x25x5cm ofzo. Daar past dat mITX bordje makkelijk in (je houd 1cm tegenover de kant van het IO panel over en 8cm aan de zijkant) waardoor de adapter er ook makkelijk in moet passen. Het scherm heeft alleen wel een fatsoenlijke driver nodig voor de backlight, dus dat zou dan wel nog gebouwd moeten worden. Maargoed :)

Meer on-topic: Het ziet er wel uit als een heel interessante basis voor een HTPC/NAS inderdaad. Als de CPU inderdaad zo krachtig is als hierboven gezegd dan zorgt het voor een lekker stil systeem waarbij je waarschijnlijk enkel de schijven hoort. Enige minpuntje dat ik zo kan zien is het feit dat het PCIe slot slechts voor x2 bedraad is. Dat betekent volgens mij al heel snel dat er geen (fatsoenlijke) SAS controllers in passen :-(

Acties:
  • 0 Henk 'm!

Verwijderd

Met PCIe 2.0 x2 zou je 1GB/s PCIe bandbreedte hebben. Is dat niet genoeg voor je controller? Kun je prima mee doen toch, snelheidsmonster zal het toch niet worden. En je hebt ook nog een USB3 poort. Kun je best wel wat van maken.

Acties:
  • 0 Henk 'm!
Die Celeron J1900 net zo snel als een i5-1410??? Dat wil ik zien... Die Celeron is eigenlijk gewoon een Atom CPUtje wat een updateje gekregen heeft.

Ik denk dat dat vies tegen gaat vallen...

(Het zal voor de meeste taken snel zat zijn, maar net zo snel als een i5? I highly doubt that...)

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Oude Atom = In-Order execution, nieuwe Atom = Out-of-Order execution, dus ook sneller. Bovendien is het een echte SoC; de gehele chipset zit in de processor. Dat zou hem heel zuinig moeten maken zeker idle, omdat ook de chipset nu op 22nm is gebakken. Zelfde als Intel Avoton.

Enige 'benchmark' die ik heb gevonden: http://cpuboss.com/cpu/Intel-Celeron-J1900

Ik ben er wel enthousiast over eigenlijk. Ik zou graag meer Mini-ITX bordjes zien met onboard CPU en passief gekoeld. Deze heeft 6x AHCI SATA poorten en is betaalbaar. En omdat het Intel is mag je het uiteindelijk ook kopen, in tegenstelling tot AMD Kabini wat bijna nergens te bekennen valt. Gaat ook binnenkort opgevolgd worden door Beema, maar of we dat dan ook daadwerkelijk kunnen kopen een kwart jaar na introductie blijft nog maar de vraag. Ik ben niet meer zo optimistisch. Wat ik wil lijkt een nichemarkt te zijn.

[ Voor 5% gewijzigd door Verwijderd op 24-01-2014 22:40 ]


Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 18:37
Verwijderd schreef op vrijdag 24 januari 2014 @ 22:39:

Wat ik wil lijkt een nichemarkt te zijn.
Dat is bij Tweakers toch altijd zo? :+

Acties:
  • 0 Henk 'm!

Verwijderd

Mwa, genoeg casemodderspul en andere geinigheden te koop, zou ik zeggen. Maar moederborden is lastig... de leuke bordjes zijn alleen via specifieke kanalen te koop. De mainstream mobo bakkers zijn doorgaans ook niet zo geïnteresseerd in idle power bijvoorbeeld. En passief gekoeld lijkt ook niet zo in trek te zijn. Persoonlijk mag die koeler op J1900 (10W) wel groter van mij; 10W voor zijn klein ding betekent dat hij heel warm kan worden. Als ik het allemaal zelf mocht doen kwam er natuurlijk een ultrageil storagebord uit wat zowel betaalbaar, zuinig, stil als feature-rijk is.

Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Heeft iemand ervaring met dit soort spul? http://www.fantec.eu/html...053090539990/article.html

Ik wil wellicht naar een kleinere kast overstappen en met mijn huidige 4x3TB moet dat ook prima kunnen. Echter wil ik de optie open houden om via een dergelijk systeem toch vier extra harde schijven via e-sata aan te sluiten. Vraag me alleen af welke snelheden ik mag verwachten? Vier schijven aanspreken via RAIDZ1 dus 300MB/s delen door vier schijven. Maar hoe efficiënt zijn die controllers?

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Iemand nog een goede tip voor een narrow-socket Noctua?
(of een andere goede...)

[ Voor 19% gewijzigd door ]Byte[ op 25-01-2014 09:53 ]


Acties:
  • 0 Henk 'm!

  • Joni
  • Registratie: Oktober 2002
  • Niet online
Ik heb voor een tower systeem met een X9SRH-F gelozen voor de NH-U12DX i4. Gaat prima, maar de fan blaast wel van beneden naar boven. Van voor naar achter gaat niet. Voor mij geen probleem, omdat ik geen uitbreidingskaarten en een top fan heb.

[ Voor 1% gewijzigd door Joni op 25-01-2014 11:00 . Reden: Blaasrichting klopte niet ]


Acties:
  • 0 Henk 'm!

  • Rctworld
  • Registratie: Januari 2004
  • Laatst online: 10-10 20:12
Ik ben nog niet zolang bezig met FreeNAS, maar zie nu het volgende in mijn logs:
<WDC WD30XXXXXXXXXX 80.00A80> ATA-9 SATA 3.x device
300.000MB/s transfers (SATA 2.x, UDMA6, PIO 8192bytes)

Dit is een WD RED 3TB schijf die dus officieel 6Gbps ondersteund (en dus ook als SATA 3.x) wordt herkend maar slechts op 300MB/s communiceert. Waarschijnlijk maakt dit behoorlijk weinig uit omdat een normale HDD toch geen doorvoer haalt boven de 300 maar klopt dit wel? Ik heb twee RED schijven in RAID1 + een enkele WD RE 500GB enterprise schijf die standaard in mijn HP ML310e server zat, die laatste communiceert echter wel daadwerkelijk op 600MBps.

Verder las ik dat WD RED geen APM ondersteund, moet ik enkel de standby time instellen of heeft de APM setting nog wel degelijk nut?

Ook vroeg ik mij af of er eigenlijk nog iets te doen is met die enkele 500GB schijf? Die zou een behoorlijk stukje sneller moeten zijn dan de RED's maar ik heb geen RAID set... Die schijven zijn los duurder dan een 3TB RED en als ik een matchende HP versie (qua firmware) wil hebben kan ik helemaal diep in de buidel tasten. Of kan ik die bijvoorbeeld het best gebruiken als download scratch folder?

Acties:
  • 0 Henk 'm!
Wat ondersteund je moederbord? :)

Even niets...


Acties:
  • 0 Henk 'm!

  • Rctworld
  • Registratie: Januari 2004
  • Laatst online: 10-10 20:12
Voor zover ik weet 6Gbps. De RE krijgt wel 600 als transfer snelheid, de RED's niet.
Pagina: 1 ... 141 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.