Geeft niet - ik had onverwachts een verjaardagsfeestje, dus ik heb mijn donderdagavondbiertjes toch wel gekregen.Verwijderd schreef op donderdag 16 januari 2014 @ 16:43:
Daar is het forum natuurlijk niet voor bedoeld.
Heeft iemand hier ervaring met BTRFS-RAID5 als basis voor een storage solution? Een testbed misschien?
Oh...Verwijderd schreef op donderdag 16 januari 2014 @ 16:43:
Hij wilde een tientje voor z'n nieuwe ZFS server.
Daar is het forum natuurlijk niet voor bedoeld.
Dus ik moet mijn upgrades ook zelf gaan betalen? Wat een armoe
[ Voor 4% gewijzigd door Tsurany op 17-01-2014 13:33 ]
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Ik krijg van iemand een gratis Asrock C2750 mainboard voor mijn Batman-verhalen? Cool!mux schreef op vrijdag 17 januari 2014 @ 13:59:
Schrijf een paar goedgelezen blogs en je krijgt van iedereen allerlei gratis hardware
Yup en die dingen nemen ook weer het nodige aan energie af. Daar moet je wel rekening mee houden als je het energiegebruik van het ASrock bord met die van Supermicro gaat vergelijken. Dat soort zaken wil nog wel eens verschillen verklarenGralgrathor schreef op maandag 13 januari 2014 @ 18:16:
De SATA-poorten op de vreemde controller zijn natuurlijk wel extra.
Alleen als je VT-d nodig hebt; bijv. voor wie ESXi o.i.d. wil draaien en z'n storage controller wil doorgeven aan een vm met FreeNAS. Als je geen PCIe kaart hebt die je wil doorgeven maakt het gebrek van VT-d niets uit. Avoton is in ieder geval niet gericht op hardcore virtualisatie met VT-d mogelijkheden. Voor een fileserver/NAS/SAN of homeserver zal het prima werken. Als je FreeBSD draait heb je niet per definitie VT-d nodig; je kunt daar namelijk gebruik maken van jails (=OS level virtualisation) waardoor je eigenlijk direct de hardware aan kunt spreken.Maakt dat trouwens zonder vt-d heel erg veel uit? (Dat is een serieuze vraag: ik ben me een beetje aan het inlezen, maar het gaat je al snel duizelen).
Verwijderd
Heb ik op mijn ASrock B75 bord gemeten en daar kwam ik aan 0,3 watt. De Intel-chip deed meer; ik geloof 0,6 watt voor 6 poorten (ASmedia voor 2 poorten). Maar de Intel controller verbruikte helemaal niets meer met gebruik van DIPM, ook al heb je geen enkele schijf aangesloten. Dus uiteindelijk is Intel inderdaad zuiniger. Maar het is ook weer niet dat die chip 4W ofzo verbruikt. In elk geval niet in rust.Yup en die dingen nemen ook weer het nodige aan energie af. Daar moet je wel rekening mee houden als je het energiegebruik van het ASrock bord met die van Supermicro gaat vergelijken. Dat soort zaken wil nog wel eens verschillen verklaren
Nou toch best jammer dat je die meerdere ASMedia controllers niet kunt doorgeven via vt-d. Best wel een bumper voor ESXi gebruikers.Avoton is in ieder geval niet gericht op hardcore virtualisatie met VT-d mogelijkheden.
Wat heeft jails te maken met de hardware direct aanspreken? Jails is gewoon een veredelde 'chroot' waarbij ook de kernel API is beveiligd.Als je FreeBSD draait heb je niet per definitie VT-d nodig; je kunt daar namelijk gebruik maken van jails (=OS level virtualisation) waardoor je eigenlijk direct de hardware aan kunt spreken.
[ Voor 16% gewijzigd door Verwijderd op 17-01-2014 21:00 ]
Even niets...
Verwijderd
Als Xen of BHyVe een vervanging van ESXi kan worden, gaan we inderdaad een leuk tijdperk in. Dan heb je BSD 100% native die aan de hardware zit (dat bedoel jij ppl?) terwijl je heel efficiënt andere VMs kunt draaien met Xen en BHyVe. Laatstegenoemde heeft ook 'goedkope' PCI passthrough. Heel interessant lijkt mij dat de 'videokaart' van de APU-processor kan worden doorgegeven aan een guest. Dan zou je eventueel de machine als Linux workstation kunnen gebruiken of zelfs Windows gaming pc, terwijl er ZFSguru onderliggend op draait met native toegang tot je disks enzo.
Verwijderd
Ik heb een scriptje gemaakt om enkele bestanden te kopiëren en dat werkt prima vanaf de console. De lees en uitvoerrechten staan dus goed. Het wordt alleen niet uitgevoerd door FreeNas tijdens de init of het afsluiten, wanneer ik het bij 'add init/shutdown script' toevoeg.
Ook als ik het commando uit het script rechtstreeks als een string meegeef in de daarvoor bestemde commandoregel wordt het niet uitgevoerd.
Het is me een raadsel waarom het niet werkt en ik weet ook niet hoe ik nu moet achterhalen waar het mis gaat.
Even niets...
Zoiets dan maar ??Verwijderd schreef op vrijdag 17 januari 2014 @ 20:59:
Nou toch best jammer dat je die meerdere ASMedia controllers niet kunt doorgeven via vt-d. Best wel een bumper voor ESXi gebruikers.
http://www.asrock.com/mb/...0Extreme11ac/index.nl.asp
Is 6x Intel + 16x LSI SAS
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Verwijderd
@FireDrunk: kan wel, ik dacht BHyVe maar als ik nu zoek krijg ik: https://wiki.freebsd.org/bhyve/pci_passthru. Dus wellicht heb je gelijk dat het om Xen ging. En security kan enorm belangrijk zijn, maar voor de mensen die een ZFS server willen combineren met b.v. een desktop OS als Ubuntu zal dit al iets minder het geval zijn. Het werkend krijgen is toch de eerste stap. En tot nu toe heb ik hier niet zoveel succesverhalen over gehoord.
Desalniettemin denk ik dat virtualisatie veel toekomstperspectief heeft. Zodra Xen en BHyVe rijpen op BSD platform zou ZFSguru er ook zijn voordeel mee kunnen doen. Genoeg gebruikers die naast ZFS/BSD nog andere dingen willen draaien op hun NAS. En ESXi met al zijn beperkingen en quirks is ook niet zaligmakend.
Ik kijk ook zeker uit naar bhyve
Q: Is it "bhyve" or "BHyVe"?
A: The developers mercifully depreciated the CamelCase name "BHyVe" and simply refer to it as "bhyve".
http://bhyve.org/faq/
[ Voor 44% gewijzigd door FireDrunk op 18-01-2014 22:15 ]
Even niets...
nero355 schreef op zaterdag 18 januari 2014 @ 21:32:
[...]
Zoiets dan maar ??
http://www.asrock.com/mb/...0Extreme11ac/index.nl.asp
Is 6x Intel + 16x LSI SAS![]()
![]()
Mini-ATX vind ik ook goed hoor
In zekere zin is er al een alternatief, alleen nog niet op basis van Linux maar op basis van IllumOS. Ik bedoel dan SmartOS. ZFS icm zones en KVM (en DTrace). Mocht je dus niet bang zijn om een "nieuwe" wereld te betreden, dan kun je je dit ook eigen maken. Wat dat betreft begrijp ik niet zo goed waarom we niet zoveel lezen over SmartOS (aangezien we wel steeds meer lezen over ZoL, Xen, Bhyve), waarschijnlijk omdat de userbase nog niet zo groot is, of men vind IlluOS eng.
Misschien verkeerde / geen shell (dus csh, ksh, bash of sh) gedefinieerd?Verwijderd schreef op zaterdag 18 januari 2014 @ 21:00:
Heeft iemand misschien ervaring met de 'init/shutdown scripts' optie in FreeNas 9?
Ik heb een scriptje gemaakt om enkele bestanden te kopiëren en dat werkt prima vanaf de console. De lees en uitvoerrechten staan dus goed. Het wordt alleen niet uitgevoerd door FreeNas tijdens de init of het afsluiten, wanneer ik het bij 'add init/shutdown script' toevoeg.
Ook als ik het commando uit het script rechtstreeks als een string meegeef in de daarvoor bestemde commandoregel wordt het niet uitgevoerd.
Het is me een raadsel waarom het niet werkt en ik weet ook niet hoe ik nu moet achterhalen waar het mis gaat.
Of niet uitvoerbaar of rechten?
pvoutput. Waarom makkelijk doen, als het ook moeilijk kan! Every solution has a new problem
De nas zou gebruikt worden voor simpel huis gebruik, foto's, Fullhd films afspelen vanaf een htpc (niet 3d/4k en niet via DLNA maar op een htpc), downloads en wat documenten. Vooral om de foto's goed redundant op te slaan en beschikbaar te hebben op 2 laptops en een pc. We hebben de foto's nu in een bittorrent sync map om ze op alle 3 de apparaten automatisch op te slaan maar dat is niet echt een top oplossing. Zou het tevens fijn vinden als ik gewoon een download aan kan zetten op m'n desktop om het vervolgens op m'n htpc te kijken
Ik heb de volgende drives tot m'n beschikking
2x Samsung spinpoint f3 1tb
1x Seagate 640gb
1x 2.5 inch Toshiba 1tb
1x 2.5 inch WD 750gb
3x 320gb oude troep, lijkt me niet echt meer bruikbaar
Bijna al deze drives hebben nooit als os drive gewerkt en staan in 5 minuut spindown mode op m'n pc zodat ik geen lawaai heb, merendeel van wat ik doe staat op m'n ssd. De 750 gb 2.5 inch staat in m'n htpc en gaat alleen aan als er een film word gekeken/gedownload. Verder zijn ze allemaal onder de 2 jaar oud en hebben ze nooit 24/7 aangestaan dus het lijkt me nog bruikbaar.
De vraag is dus wat is de simpelste manier om hier een nette storage pool van te maken die het redundant maakt, performance hoeft dus niet hoog te zijn en het lijkt me dat ik 1 drive fail wel redundant genoeg moet zijn. Verder moet 2-3gig wel genoeg zijn dus ik kom denk ik wel op genoeg met wat ik heb.
Ik heb zelf gekeken naar ZFS, normaal raid en Flexraid.
ZFS ziet er erg lastig/complex uit en heeft grote ram requirements wat de bouwprijs van een systeem niet bepaald ten goede komt. Tevens komt het op mij over als iets dat niet echt noob vriendelijk is. Ik heb ook nog geen eenduidig antwoord kunnen vinden of het gaat werken met verschillende drive maten.
Normaal raid is (van wat ik weet ieg) ook niet te doen met verschillende drive maten en hardware raid lijkt me een beetje achterhaald voor wat ik nodig heb.
Ik kwam verder nog flexraid tegen, hier moet wel voor betaald worden maar het ziet er allemaal wel noob vriendelijk uit, kon er hier verder totaal niks over vinden dus was wat huiverig.
Ben dus vooral opzoek naar wat voor een os en software ik het beste kan gebruiken en wat voor een hardware requirements daaraan hangen zodat ik een idee heb van wat ik moet gaan aanschaffen
Hoop dat iemand me kan helpen hiermee.
[ Voor 5% gewijzigd door Flaat op 19-01-2014 17:20 ]
Verwijderd
Bedankt voor het meedenken!imdos schreef op zondag 19 januari 2014 @ 12:19:
[...]
Misschien verkeerde / geen shell (dus csh, ksh, bash of sh) gedefinieerd?
Of niet uitvoerbaar of rechten?
Ik had helemaal niet stilgestaan bij de andere shell. Die stond op csh ingesteld, terwijl ik zelf van bash gebruik maak.
Het script wordt nu dus wel uitgevoerd, want dat kan ik in mijn log-entry zien. Het rsync commando wordt echter nog niet uitgevoerd en daar heb ik nog geen oorzaak voor gevonden. Het script is uitvoerbaar en de rechten staan ook goed, want vanaf de shell kan ik het gewoon uitvoeren en dan werkt alles naar behoren.
Verwijderd
Een goede ZFS config zou zijn:Flaat schreef op zondag 19 januari 2014 @ 16:59:
Ik heb de volgende drives tot m'n beschikking
2x Samsung spinpoint f3 1tb
1x Seagate 640gb
1x 2.5 inch Toshiba 1tb
1x 2.5 inch WD 750gb
De vraag is dus wat is de simpelste manier om hier een nette storage pool van te maken die het redundant maakt, performance hoeft dus niet hoog te zijn en het lijkt me dat ik 1 drive fail wel redundant genoeg moet zijn. Verder moet 2-3gig wel genoeg zijn dus ik kom denk ik wel op genoeg met wat ik heb.
2x Samsung spinpoint f3 1tb +
1x 2.5 inch Toshiba 1tb
dus drie disks samen in een RAID-Z (raid5) dus enkelvoudige redundantie
En de 750GB/640GB schijven in een mirror voor boot en backup of extra storage.
ZFS is niet lastig of complex. Ook niet noob-onvriendelijk. Een groot voordeel is dat je er geen omkijken meer naar hebt. Geen filesystem checks of andere gekkigheden. Gewoon data opslaan met een 'store and forget' mentaliteit.Ik heb zelf gekeken naar ZFS, normaal raid en Flexraid.
ZFS ziet er erg lastig/complex uit en heeft grote ram requirements wat de bouwprijs van een systeem niet bepaald ten goede komt. Tevens komt het op mij over als iets dat niet echt noob vriendelijk is. Ik heb ook nog geen eenduidig antwoord kunnen vinden of het gaat werken met verschillende drive maten.
Grote RAM requirements klopt ook niet. 64 megabyte is genoeg. Het punt is dat je graag extra RAM geheugen wilt hebben juist omdat ZFS hier zoveel meer intelligent kan omgaan dan een ander filesystem. Overigens kunnen NTFS en Ext4 ook vele gigabytes aan RAM gebruiken als filecache, dus dat is niets nieuws. Sterker nog, in principe wordt al je RAM gebruikt voor filecache wat niet actief door apps/OS gebruikt wordt. In die zin verbruikt ZFS juist minder RAM. Wel is het zo dat ZFS met systemen <= 4GB RAM minder snel is met sequential I/O. Maar het klinkt soms alsof ZFS dan niet zou werken; dat is onzin.
Het is juist andersom: ZFS zorgt voor goedkopere builds. Je hebt namelijk geen dure schijven nodig, geen hardware RAID controller met battery backup om RAID5 enigszins snel en veilig te laten functioneren. ZFS werkt prima met goedkope 'green' disks met een uBER-specificatie van 10^-14, kortom het consumentenspul.
Ga je voor andere oplossingen, weet dan dat deze niet bestand zijn tegen bad sectors en dat dit een groot risico kan vormen voor de integriteit van je data. Traditioneel RAID beschermt in feite niet tegen bad sectors, alleen tegen disk failure. Een bad sector kun je dan tellen als disk failure in het slechtste geval.
Gevolg is dat traditioneel RAID eigenlijk heel noobonvriendelijk is, omdat er vanalles kan gebeuren waarbij de gebruiker ook niet precies weet wat hij moet doen om weer toegang tot de data te krijgen. Dit zorgt voor veel dataverlies in de praktijk. Hetzelfde verhaal voor onboard RAID, behalve dat hier geen snelle én veilige RAID5 mogelijk is; de RAM wordt gebruikt als onveilige write-back en write-combine.
Ik zelf werk mee aan ZFSguru. Dat is het meest gebruiksvriendelijke ZFS platform. Je zou kunnen kijken of het wat voor je is, en eventueel vergelijken met FreeNAS en NAS4Free. Die zijn vollediger en hebben meer features, maar zijn mogelijk wel minder gebruiksvriendelijk.
Kortom, ik zou je zeker willen aansporen om ZFS serieus te overwegen. ZFS is véél betrouwbaarder dan al het andere wat je noemt.
Wauw, ik heb andere verhalen gehoord! Ik had nog net daarvoor een RAID0 config met opzet verwijderd en voor de test deze ook terug gezet en dat werkte zomaar! De harddrive wel aangesloten voor waar ze eerst op stonden aangesloten. Was altijd in de veronderstelling dat wanneer je de RAID config weggooide, je DATA kwijt bent. De MegaRAID Storage Manager geeft namelijk ook een waarschuwing dat al je DATA verloren gaat wanneer je de config weg gooit. Maar kennelijk gaat de IBM M5015 daar slim mee om.
Configuratie:
- IBM M5015 Raid adapter 4x 4TB (voor data only)
- Losse drive waarop ESXI en de VM's geïnstalleerd staat
- ESXI 5.5
- MegaRAID Storage Manager, draait op een VM/Windows, daaruit beheer ik mijn IBM 5015
ZFS kan je prima met 2GB draaien. Ja, niet zo snel als je zou willen maar alsnog snel genoeg voor de meeste situaties. RAM tegenaan gooien is leuk voor snelheid maar wie heeft dat in de praktijk nodig? Meeste thuisgebruikers niet.
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Verwijderd
[ Voor 34% gewijzigd door Verwijderd op 20-01-2014 20:47 ]
Verwijderd
Even niets...
Verwijderd
"Nodig" is een groot woord.FireDrunk schreef op maandag 20 januari 2014 @ 11:08:
[...]
Als je echt zoveel lanes nodig hebt moet je naar een Socket 2011 bord gaan. Die zijn daar op gemaakt.
Dan krijg je dit soort CPU's
http://ark.intel.com/prod...Cache-up-to-3_80-GHz?q=39
http://ark.intel.com/prod...5M-Cache-2_20-GHz?q=e5-26
Beide 40 PCIe lanes.
Maar dat zijn de aantallen zoals ik ze nu heb....
x8 voor de Mellanox-kaart
2 keer x8 voor de twee M1015's
x4 voor de dual head NIC
Met die optelsom kom ik op 28 uit.
En om nu nog een (paar?) keer onderuit te gaan op die PLX-chips, die ik op veel borden zie zitten, zie ik ff niet zitten.
Of iemand moet een bevestiging kunnen geven dat hij/zij het op een 1155 socket met 4 PCIe sloten zoals ik ze gebruik, dat het wel werkt... Dat waag ik het wel.
Ik ben de beroerdste niet om een nieuw bord en desnoods CPU en (ECC?) memory te kopen, maar er moet dan wel een redelijk vooruitzicht zijn op een goed werkende configuratie.
pricewatch: Intel Xeon E5-1620 v2 Tray
Dus
[ Voor 44% gewijzigd door FireDrunk op 20-01-2014 23:18 ]
Even niets...
[ Voor 7% gewijzigd door ItsValium op 20-01-2014 23:23 ]
Maar wel errug leuk speelgoed
[ Voor 24% gewijzigd door FireDrunk op 20-01-2014 23:28 ]
Even niets...
Verwijderd
Lol... Dat is wel een mega kickass board!ItsValium schreef op maandag 20 januari 2014 @ 23:22:
[...] X9DRH-7F [...]
Dat ziet er uit als met een Bugatti Veyron je boodschappen bij de ALDI halen...
Ik ben mij nu even aan het oriënteren op de 2011 plankjes met het liefst onboard VGA. (scheelt mij weer een slot - wat mij betreft mag het zelfs via serial console zijn)
Verwijderd
Zie ook:
Alleen ehm, tja, ik vind deze discussie meer iets voor het DIY RAID NAS topic. Goed als ik hem verplaats?(Both CPUs need to be installed for full access to PCI-E slots and onboard controllers. See manual block diagram for details.)
Maar goed, het past inderdaad ook in het DY RAID NAS Topic.
Even niets...
Verwijderd
Ik kwam hier op uit : http://www.servethehome.com/ibm-serveraid-m1015-part-4/ ? maar is dit ook een handige/recente versie ?
Wat mij betreft is een stabiele en complete RAID5/6 (RAIDZ1/2 alternatief) implementatie een must. Zolang dat nog niet af is ga ik er niet eens mee experimenteren, laat staan dat ik het als main storage gebruik.Phuncz schreef op maandag 20 januari 2014 @ 21:36:
Dat is wel een leuk artikel, met misschien iets teveel lof over Btrfs. Is dit ondertussen op een niveau dat het ZFS kan vervangen of is het nog steeds niet geschikt voor "productie" ?
Er zit sinds april 2013 experimenteel RAID5/6 support in Btrfs. Sowieso is heel Btrfs nog zwaar experimenteel. Het zou wel eens stabiel genoeg kunnen zijn inmiddels maar wil je dat risico lopen?Gralgrathor schreef op dinsdag 21 januari 2014 @ 14:19:
[...]
Wat mij betreft is een stabiele en complete RAID5/6 (RAIDZ1/2 alternatief) implementatie een must. Zolang dat nog niet af is ga ik er niet eens mee experimenteren, laat staan dat ik het als main storage gebruik.
Ik vind persoonlijk het werk ook maar traag gaan. Weet niet hoe oud ZFS inmiddels is, maar Btrfs heeft nogal een inhaalslag te doen als ze willen concureren met ZFS. En op dit tempo zie ik ze ZFS nog niet inhalen.
Klopt, maar wat ik daar over lees boezemt nu niet echt vertrouwen in. Ik ben nog niemand tegengekomen die het als storage solution gebruikt. Terwijl de RAID0/1/10 implementaties volgens de ontwikkelaars en user reviews stabiel is, en niet onaardig presteert.Sleepkever schreef op dinsdag 21 januari 2014 @ 14:35:
Er zit sinds april 2013 experimenteel RAID5/6 support in Btrfs
Soit, ik wacht dus nog even voordat ik er mee ga spelen. Mijn volgende generatie NAS gaat sowieso nog ZFS draaien. Als ik ooit de schijven bij elkaar krijg gescharreld.
Dus niet zo zeuren
ZFS heeft ook echt wel de nodige bugs gehad (Pre 28 kon het gebruik van een ZIL bijvoorbeeld je hele pool slopen enzo...)
[ Voor 34% gewijzigd door FireDrunk op 21-01-2014 14:54 ]
Even niets...
Misschien denken de ontwikkelaars aan BTRFS dat ook?FireDrunk schreef op dinsdag 21 januari 2014 @ 14:54:
het komt vanzelf...
Ik begrijp dat Flexraid een laag bovenop het FS is, en dat pariteit (per file, niet per block!) naar een aparte disk wordt geschreven. Heeft zo zijn voordelen, vooral voor de huis-tuin-en-keuken-gebruiker, die wellicht een bij elkaar geraapt zootje schijven heeft waar al data op staat maar niet voldoende ruimte om het zootje naar een nieuwe stack te kopieren. Maar ik vraag me af hoe het omgaat met bad blocks. ZFS kan stilletjes een hoop problemen bij rotte oude disks corrigeren; maar in het geval van Flexraid ben je alsnog aangewezen op het onderliggende FS, en kan corrupte data alsnog naar de parity worden geschreven.
Dus als je serieus bent in je verlangen je storage betrouwbaarder te maken zou ik er toch voor kiezen te investeren in ZFS. Hoeft, zoals reeds is gezegd, niet veel te zijn. Drie keer 1TB in raidz is toch weer 2TB data, en met 2G RAM in je doos zal het geen snelheidsprijzen winnen, maar desondanks prima draaien. En wat betreft het opzetten van de array: toen ik daar als absolute n00b even voor ging zitten was ik er in een kwartiertje mee klaar. ZoL-native geinstalleerd (1 commando achter de prompt), array aangemaakt (nog eens 1 commando), data kopieren (1 commando, op naar de kroeg). Enige dat je nodig hebt is genoeg schijfruimte om je data op te bewaren terwijl je de overige schijven gebruikt voor het aanmaken van een ZFS array, want ZFS 'formatteert' je schijven als je de array aanmaakt.
Dat gezegd hebbende: wat zou het toch leuk zijn als je RAIDZ vdevs kon uitbreiden...
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Wie is in ontwikkeling?Tsurany schreef op dinsdag 21 januari 2014 @ 16:03:
Dat is toch in ontwikkeling?
Verwijderd
En als de feature er eenmaal is, zul je alsnog eerst een backup moeten maken voordat je expansion uitvoert. Dus hoe nuttig is deze feature nou echt?
True. Ik zat al een heel relaas te bedenken over hoe het ZFS toegankelijker zou maken voor Jan met de pet, die een willekeurig allegaartje van disks heeft en in willekeurige volgorde vrijmaakt voor zijn opslagsysteem... Maar eigenlijk moeten mensen die geen zin hebben om een beetje na te denken over de vereisten van hun opslag gewoon JBOD draaien. Betrouwbaarheid is voor mensen die serieus bezig zijnVerwijderd schreef op dinsdag 21 januari 2014 @ 16:37:
Dus hoe nuttig is deze feature nou echt?
Bedenk ook dat je bijvoorbeeld door een block pointer rewrite van recordsize zou kunnen wisselen, of zou kunnen shrinken. Waar je misschien vroeger 8*2TB hebt, kan je eerst 4 schijven voor 4TB's vervangen, en daarna je filesystem shrinken zonder dat je backups hoeft te maken.
Genoeg usecases, maar zeker niet zonder risico. Gewoon voor ieder wat wils...
Even niets...
Verwijderd
Dus de reden om het 'niet te doen' zou zijn omdat het toch nooit echt stabiel wordt, binnen een periode van enkele jaren. Dan kan het interessanter zijn om de 'beste ZFS devs' voor andere zaken in te zetten. Er valt genoeg aan ZFS te verbeteren nog.
Bovendien, als BPR relatief eenvoudig was om toe doen, waren er allang serieuze pogingen gedaan. De extra's die je noemt zoals shrinking, recordsize en defragmentatie zijn natuurlijk ook heel belangrijk. Maar we moeten ons ook beseffen dat er geen Sun meer is die de ontwikkeling van ZFS ondersteunt. Het hangt nu af van een handjevol vrijwilligers. Dus is er wel genoeg mankracht om zo'n grote feature daadwerkelijk te kunnen afleveren binnen 5 jaar tijd? En als het antwoord ja is, in hoeverre gaat dit ten koste van andere features?
Dat gezegd, ik zou zeker blij zijn als de functionaliteit er is. Maar misschien nog blijer als in plaats daarvan een waslijst aan andere verbeteringen zijn doorgevoerd. Op de een of andere manier denk ik dat dat veel meer oplevert in de praktijk dan BPR.
Even niets...
Kom op mensen, het is 2014, geen 1984... Het FS weer waar alle blokjes staan, hoe lastig is het dan om blokje A van positie 1 naar positie 2 te verplaatsen en de pointer bij te werken?
Kijk, ik ben zelf ook programmeur (geweest) en ik weet hoe lastig het is om iets gedaan te krijgen van een architectuur die daar niet voor ontworpen is, maar mijns inziens zijn dit redelijk cruciale bewerkingen op een filesystem dat bedoeld is om over meerdere disken te werken!
Mijns inziens is dat ook een van de redenen waarom veel hobbyisten nu een fileserver hebben met een utilization onder de 50% of zo. Je kunt een RAIDZ niet uitbreiden dus maak er maar meteen een van 5 disks ook al heb je maar data voor 2...
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Verwijderd
Consumenten hebben vaak geen backup. Als de dat wel hadden, hebben ze BPR ook helemaal niet nodig. Dan is het sneller, veiliger en makkelijker om de pool opnieuw aan te maken. Juist de consumenten zonder 1:1 backup willen deze feature, en dat is nu juist de groep die veel nadeel zou kunnen ondervinden van deze feature, omdat ze dan massaal onveilige expansion gaan gebruiken. Dit zal in de praktijk zorgen voor dataverlies bij sommigen en dat betekent weer dat ZFS voor hen niet het eindstation is qua betrouwbaarheid.
Kortom, ik zie ook nadelen bij BPR in de praktijk. Want wie gaan die feature gebruiken? Juist diegenen die extra risico lopen. Zoals hier.
[ Voor 3% gewijzigd door Verwijderd op 21-01-2014 18:57 ]
Verwijderd
Hier kon ik wel aardig mee uit de voeten.
/me heeft net zijn X9SRL-F met (voorlopig) 32 GB-ECC en E5-2620v2 besteld...
Even niets...
Zal je geen spijt van krijgen. Ik gebruik al jaren supermicro voor allerhande setups. Beste prijs kwaliteitsverhouding voor echt serverspul!Verwijderd schreef op dinsdag 21 januari 2014 @ 20:32:
Tnx voor alle tips.
Hier kon ik wel aardig mee uit de voeten.
/me heeft net zijn X9SRL-F met (voorlopig) 32 GB-ECC en E5-2620v2 besteld...
Verwijderd
Lol...
Dan had ik wel de X9DRH-7F gehaald met twee E5-2650v2's en 128 GB gehaald.
Ik heb wat dat betreft wel een paar voordelen.
Ik schaf het zakelijk aan. BTW wordt aan het einde van Q1 gelijk verrekend, en de rest is afschrijving die de boeken in gaat voor een paar jaar.
Het is voor mij ook altijd een stukje R&D om het op die manier later ook bij klanten te kunnen implementeren.
Dat wil en moet ik wel weten of het stabiel is en wat ik voor ondersteuning kan bieden.
Verwijderd
Als ik eerlijk moet zijn had ik ook gedacht dat het duurder zou zijn!ItsValium schreef op dinsdag 21 januari 2014 @ 21:26:
[...]
Zal je geen spijt van krijgen. Ik gebruik al jaren supermicro voor allerhande setups. Beste prijs kwaliteitsverhouding voor echt serverspul!
Kwalitatief staat Supermicro al langere tijd goed aangeschreven, maar de prijs hield mij eigenlijk, zoals nu blijkt onterecht, weg.
Maar ik weet nu wel wat ik als basis voor mijn nieuwe projecten ga gebruiken...
http://blog.backblaze.com...-hard-drive-should-i-buy/
Dat klinkt als hopeloos verouderde informatie (net als dat deze reactie ook behoorlijk laat isVerwijderd schreef op vrijdag 17 januari 2014 @ 20:59:
Wat heeft jails te maken met de hardware direct aanspreken? Jails is gewoon een veredelde 'chroot' waarbij ook de kernel API is beveiligd.
Het grote probleem bij gewone virtualisatie is het kunnen aanspreken van hardware. Door de manier waarop jails werken is dat daar een stuk eenvoudiger dan met gewone virtualisatie. Zoals je zelf al opmerkt heb je daar VT-d nodig, bij jails niet. Immers, het onderliggende OS biedt de hardware al aan. Probleem is alleen dat niet alles in een jail werkt (Windows draaien kan daarin niet). Dan wil je volledige virtualisatie en zit je nu nog aan Virtualbox vast. Bhyve is namelijk nog niet volwassen genoeg, daar wordt aan gewerkt. Als je echter een oude FreeBSD versie of iets van Linux wil kunnen draaien dan is dat nu al mogelijk met de jails. Doordat je daar de hardware directer kunt aanspreken is het verlies van VT-d ineens niet zo erg meer.
Om een voorbeeld te geven: met ESXi zou je aparte vm's maken voor een fileserver, een webserver, domain controller, enz. Met FreeBSD kun je dit alles met jails af doen waardoor je resources bespaart (heeft zfs weer wat meer geheugen tot z'n beschikking) terwijl de fileserver jail toch gewoon bij de zfs pool kan en dus gewoon als NAS/SAN kan functioneren. Zonder verlies van betrouwbaarheid. Dat ligt bij ESXi toch wel even anders. De enige optie die je zonder VT-d hebt is het gebruik van RDM en dat is niet bepaald betrouwbaar.
Btw, VT-d en ESXi is ook lang niet altijd een gelukkig huwelijk. Goed vooronderzoek wat wel en wat niet werkt qua hardware is hier wel van belang.
Ja dat bedoelde ik. Wat we met die virtualisatie mogelijkheden straks kunnen doen is de hardware nog efficiënter gebruiken dan we nu doen. Iets als ESXi heeft namelijk behoorlijk wat overhead. Als je alles toch op 1 OS houdt is dat doodzonde. Juist daar zijn jails/containers zeer nuttig. Met dingen als Xen, Bhyve en Virtualbox kun je dan weer dingen doen die niet met jails/containers mogelijk zijn. Voor zuinigheid kon dit nog wel eens erg belangrijk gaan worden (je kunt het namelijk ook omdraaien: je kunt slome zuinige hardware dusdanig inzetten dat het ineens net zoveel kan als de krachtigere energieslurpende hardware).Verwijderd schreef op zaterdag 18 januari 2014 @ 13:53:
Als Xen of BHyVe een vervanging van ESXi kan worden, gaan we inderdaad een leuk tijdperk in. Dan heb je BSD 100% native die aan de hardware zit (dat bedoel jij ppl?) terwijl je heel efficiënt andere VMs kunt draaien met Xen en BHyVe.
Het grote probleem met ZFS is het verschil in implementatie. Het wordt door diverse systemen gebruikt die ieder weer hun eigen implementatie hebben. Daar hebben ze inmiddels OpenZFS voor opgericht. De ontwikkeling wordt daarmee gecentraliseerd waardoor de implementaties op 1 lijn komen te zitten. Tel daarbij op dat de FreeBSD kernel iets heel anders is als die van Illumos en het feit dat de publieke ZFS ontwikkeling dankzij Oracle op z'n gat ligt en zie daar de reden waarom bepaalde features er (nog) niet in zitten. Ik hoop dat ze met OpenZFS dat wel van de grond krijgen.Paul schreef op dinsdag 21 januari 2014 @ 18:37:
Kom op mensen, het is 2014, geen 1984... Het FS weer waar alle blokjes staan, hoe lastig is het dan om blokje A van positie 1 naar positie 2 te verplaatsen en de pointer bij te werken?
ZFS is relatief eenvoudig om mee te werken en werkt met consumer hardware. Je hebt dus geen diepgaande storage kennis nodig en ook geen servergrade componenten. Ideaal om thuis helemaal los te gaan. En ja, een hobbyist zou een hobbyist niet zijn als ie geen overkill aan hardware zou hebbenMijns inziens is dat ook een van de redenen waarom veel hobbyisten nu een fileserver hebben met een utilization onder de 50% of zo. Je kunt een RAIDZ niet uitbreiden dus maak er maar meteen een van 5 disks ook al heb je maar data voor 2...
Btw, ik ben eigenlijk benieuwd in hoeverre Dragonfly met HAMMER op dit moment als NAS in te zetten is. Iemand hier die dit al heeft geprobeerd?
Had je niet beter een E5-1620 v2 kunnen nemen? True, 2 cores minder, maar ze lopen wel bijna 2x zo hard. Ik weet niet wat je belasting wordt, ik zie zakelijk gebruik, mogelijk dat je voldoende clients hebt om de 6 cores bezig te houden met Samba (of iets anders)Verwijderd schreef op dinsdag 21 januari 2014 @ 20:32:
/me heeft net zijn X9SRL-F met (voorlopig) 32 GB-ECC en E5-2620v2 besteld...
Nou ja, gruwelen... Bij een EMC Isilon (ok, die werken meer op node-niveau dan disk, maar het principe blijft redelijk gelijk) kun je data van een node wegmigreren met behoud van redundancy (en daar hebben ze specifiek performance- en archiving nodes, en wat smaken er tussenin, dus data naar een andere tier brengen komt redelijk vaak voor), op een IBM SVC kun je volumes van de ene 'tier' naar de andere kopiëren (true, kopiëren) maar ook volumes / schijven toevoegen aan een mdiskpool en vervolgens rebalancen of mdisks verwijderen uit een mdiskpool etc etc. Ja, daar werk je vaak met 1:1-kopieën met daarnaast backups, maar al die apparaten kunnen wel fatsoenlijk uitgebreid wordenVerwijderd schreef op dinsdag 21 januari 2014 @ 18:52:
Voor een consumentenfilesystem kun je misschien onvolwassen noemen; enterprise gruwelt natuurlijk van RAID5 expansion / rewrite.
Online... Alles weggooien en opnieuw beginnen, mijn werkgever ziet me aankomen over 3 maanden als de library van de backup vol zit, of even het hele bedrijf platgooien omdat er schijfruimte bij moet op de disk arrays.
Nu zijn dat wat grotere apparaten waardoor er waarschijnlijk wat meer schijven tegelijk bij komen dan bij de meeste ZFS-implementaties, maar allemaal kunnen ze disks of nodes vrijspelen en rebalancen als er speelgoed bij komt... Ik kan, mits ik voldoende ruimte heb, vrijwel alles vrijspelen, toevoegen, verwijderen etc. ZFS kan niks van dat alles... Dat hoeft geen probleem te zijn, maar je moet er wel rekening mee houden, en het heeft me serieus een tijdje tegengehouden het te gebruiken.
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Leeft dat nog? Ik herinner me dat het ten tijde van FreeBSD 4 uitgebracht werd, maar heb er daarna nooit meer iets van gehoord.. HAMMER klinkt op papier ook interessant, maar een compleet OS met eigen filesystem dat door zo'n klein team wordt onderhouden, vind ik toch griezelig.ppl schreef op woensdag 22 januari 2014 @ 00:10:
Btw, ik ben eigenlijk benieuwd in hoeverre Dragonfly met HAMMER op dit moment als NAS in te zetten is. Iemand hier die dit al heeft geprobeerd?
Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done
Verwijderd
Het is voor mijn ZFSguru-box, waarop ik o.a. ook dedup zal gaan draaien.
Verder zaken als MySQL, NFS, Samba, iSCSI enz.
De koppeling met ESX hangt met IPoIB met iSCSI.
Buiten dat heeft de 1620v2 een TDP van 135W en de 2620v2 een TDP van 95W. (dit woog voor mij ook wel mee in de beslissing om een 2620 te nemen)
[ Voor 18% gewijzigd door Verwijderd op 22-01-2014 15:19 ]
interessant om zo'n uitgebreide ervaring te lezen, qua Seagates komt mijn ervaring overeen waarbij bij mij de 4TB tot toe geen uitval hebben terwijl de 3TB in dezelfde periode al wel weer een schijf is uitgevallen.Q schreef op dinsdag 21 januari 2014 @ 23:08:
Which drive should I buy?
Verwijderd
Ik had blijkbaar toevallig 1 pech-disk (WD Red - 4 TB) die na 56 dagen errors begon te geven.
Gelukkig was ZFSguru er om het te repairen.
Zeker wel dat DragonFly nog leeft.
En het gaat de goede kant op qua performance. Dragonfly liep altijd wat achter, maar ze zijn een behoorlijke inhaalslag aan het maken.
http://www.dragonflybsd.org/performance/
Matthew Dillon is natuurlijk niet de eerste de beste. Wat die man in korte tijd neerzet is toch bewonderings waardig.
gr
Even niets...
DragonflyBSD is een fork van FreeBSD 4. Beide projecten zijn qua omvang van hoeveelheid mensen niet groot. Dat is Linux echter ook niet. De grootte is dus niet anders als menig ander open source project en waarschijnlijk ook niet van die van menig closed source project. Kortom, als je dat griezelig vindt blijft er eigenlijk geen enkel OS meer overDemoniac schreef op woensdag 22 januari 2014 @ 07:55:
[...]
Leeft dat nog? Ik herinner me dat het ten tijde van FreeBSD 4 uitgebracht werd, maar heb er daarna nooit meer iets van gehoord.. HAMMER klinkt op papier ook interessant, maar een compleet OS met eigen filesystem dat door zo'n klein team wordt onderhouden, vind ik toch griezelig.
Zie de lijst van (vaste) bijdragers: http://www.dragonflybsd.org/team/
HAMMER klinkt op papier inderdaad erg interessant, vandaar dat ik ook de vraag stelde
Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done
Heeft iemand misschien ervaring met het uitzetten van de TLER op de WD red schijven? Het gaat om een ZFS build net zoals ilovebrewski.ilovebrewski schreef op dinsdag 29 oktober 2013 @ 13:07:
Ik heb begin dit jaar gekozen voor een setup van ZFSguru met 5 stuks 3 TB WD RED in RAIDZ1. Hiervoor gekozen vanwege de garantie van 3 jaar en het lage vermogen.
Echter wil ik nog steeds TLER uitschakelen omdat ik een ZFS configuratie heb. Zijn er mensen die hier ervaring mee hebben? WDTLER.exe schijnt niet meer te werken met deze harde schijven.
Wil je bij ZFS de TLER niet juist aan hebben? Om enorme timeouts te voorkomen en het oplossen van een hardwarematige leesfout aan ZFS over te laten? Als TLER uit moet, had je net zo goed WD Green's kunnen kopen...indian schreef op vrijdag 24 januari 2014 @ 09:58:
[...]
Heeft iemand misschien ervaring met het uitzetten van de TLER op de WD red schijven? Het gaat om een ZFS build net zoals ilovebrewski.
Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done
In dit topic staat het advies om TLER uit te zetten voor ZFS omdat er geen sprake is van hardware raid (waar tler geschikt voor is). De green schijven hebben 1 jaar kortere garantie, schijnen niet zo goed tegen vibraties te kunnen (backblaze artikel) en zijn ouder qua techologie.Demoniac schreef op vrijdag 24 januari 2014 @ 10:27:
[...]
Wil je bij ZFS de TLER niet juist aan hebben? Om enorme timeouts te voorkomen en het oplossen van een hardwarematige leesfout aan ZFS over te laten? Als TLER uit moet, had je net zo goed WD Green's kunnen kopen...
Verwijderd
Enig verschil is de firmware. Je kunt volgens mij inderdaad WDTLER.exe gebruiken. Je kunt ook de soft timeouts van het operating system gebruiken. Timeout-waarde heb je eigenlijk niets mee te maken behalve in gevallen van bad sectors. Er was echter discussie een tijd terug over de voordelen van TLER op een ZFS configuratie. Wil je maximale beschikbaarheid voor applicaties dan kan het zeker nut hebben. Geef je alleen om databescherming, dan heb je TLER niet nodig en kan het zelfs risicovol zijn in gevallen waar je geen redundancy meer hebt, zoals een degraded RAID-Z.
Eindelijk het diy NAS / XBMC board waar ik al jaren op wacht
Verwijderd
Ik heb zelf ook wel interesse in dit bordje. Enig puntje is dat er maximaal 4GiB So-DIMMs ingaan, ik had liever 8GiB DIMM modules gehad.
En non-ECC. Zeker geen onbelangrijk puntje, als je het voor een nextgen FS zou willen gebruiken.Verwijderd schreef op vrijdag 24 januari 2014 @ 11:44:
Enig puntje is dat er maximaal 4GiB So-DIMMs ingaan, ik had liever 8GiB DIMM modules gehad.
Verwijderd
Lol... had er even geen rekening mee gehouden dat bij Xeon CPU's geen cooler zit.
Die moet ik dus morgen nog even halen.
Toevallig net mijn FC rig aan de praat... FreeBSD icm een QLogic fibre channel kaartje naar een ESXi machine met een Emulex kaartje.
Ging allemaal prima, en ik haalde redelijke snelheden (20000 iops 4K Random Read, 5500 4k iops Random Write).
Tot ik een tweede verbinding maakte...
Toen krakte FreeBSD met een dikke kernel panic...
Even kijken waar dat op slaat
[ Voor 82% gewijzigd door FireDrunk op 24-01-2014 16:34 ]
Even niets...
Verwijderd
Tnx voor de tip. Dat was al bijna mijn volgende vraag.
Ik had ze al zien staan. Wat mij opvalt is dat ze redelijk stil zijn met toch een goede airflow.
Dat had je nu niet moeten zeggen. Die panic had ik ook al eens gehad.[...]
Toen krakte FreeBSD met een dikke kernel panic...
Was eigenlijk van plan om mijn FC-kaartje er toch weer bij te prikken in dit bord.
Ik denk dat ik eerst maar eens een 2e ZFSguru ga bouwen (heb straks toch een compleet board over
| # | Product | Prijs | Subtotaal |
| 1 | Supermicro SNK-P0050AP4 | € 33,99 | € 33,99 |
| 1 | be quiet! Shadow Wings PWM, 92mm | € 11,- | € 11,- |
[ Voor 6% gewijzigd door Paul op 24-01-2014 17:01 ]
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
KOOP EEN NARROW SOCKET KOELER!!!!.Verwijderd schreef op vrijdag 24 januari 2014 @ 16:27:
Vandaag X9SRL-F met CPU binnen, morgen komt memory.
Lol... had er even geen rekening mee gehouden dat bij Xeon CPU's geen cooler zit.
Die moet ik dus morgen nog even halen.
Normale passen niet op een X9SRL.
[ Voor 50% gewijzigd door jadjong op 24-01-2014 17:02 ]
Verwijderd
NEE!!! Ik ga GEEN NARROW cooler halen!jadjong schreef op vrijdag 24 januari 2014 @ 17:02:
[...]
KOOP EEN NARROW SOCKET KOELER!!!!.
Normale passen niet op een X9SRL.
Het klopt dat de X9SRL een narrow socket heeft...
Ik heb echter de X9SRL-F en die heeft een REGULAR SOCKET!
Dat was het eerste wat ik net gecontroleerd heb toen ik de doos open maakte.
Ik wist al van de narrow/regular op basis van het user manual wat ik al eerder had gedownload.
Ik heb hier ook een -F en daar past zelfs met hamer geen regular in. Welke revisie heb je?Verwijderd schreef op vrijdag 24 januari 2014 @ 17:40:
[...]
NEE!!! Ik ga GEEN NARROW cooler halen!
Het klopt dat de X9SRL een narrow socket heeft...
Ik heb echter de X9SRL-F en die heeft een REGULAR SOCKET!![]()
Dat was het eerste wat ik net gecontroleerd heb toen ik de doos open maakte.
Ik wist al van de narrow/regular op basis van het user manual wat ik al eerder had gedownload.
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Verwijderd
rev. 1.01
Ik was zo gefixeerd wat ik in het manual had gelezen dat ik het board niet goed bekeken had.
Omdat die 2011 socket groter is dan ik normaal in mijn handen heb, dacht ik dat dit de regular was.
Maar op zich als je even goed kijkt, de narrow heeft de holes in het verlengde van de socket zitten en de regular erbuiten.
Deze zitten duidelijk in het verlengde van de socket.
Tnx voor de waarschuwingen!
/me gaat zich in een hoekje zitten schamen...
Hier zie ik toch ook een hoop niet-NAS doeleinden in, dus als ik off-topic mag gaan...et36s schreef op vrijdag 24 januari 2014 @ 11:07:
http://www.supermicro.nl/...rd/celeron/X10/X10SBA.cfm
Eindelijk het diy NAS / XBMC board waar ik al jaren op wacht7 year productlife, mSATA (ssd), Mini PCI-e (wifi-AC+bluetooth module), dual GB network, 6xSATA, J1900 quadcore processor passief gekoeld (evensnel als een core i5-1410 volgens cbu-boss) HDMI, USB3.0 en wordt betaalbaar zo rond de 185,-
Maak een mooie case waar dit moederbord inpast en een 230V => 12V adapter. Zorg wel voor een flinke adapter zodat je het moederbord ervan kan draaien en... Een iPad Retina display
De buitenafmetingen kunnen dan grofweg overeenkomen met die van de iPad Retina, dus 19x25x5cm ofzo. Daar past dat mITX bordje makkelijk in (je houd 1cm tegenover de kant van het IO panel over en 8cm aan de zijkant) waardoor de adapter er ook makkelijk in moet passen. Het scherm heeft alleen wel een fatsoenlijke driver nodig voor de backlight, dus dat zou dan wel nog gebouwd moeten worden. Maargoed
Meer on-topic: Het ziet er wel uit als een heel interessante basis voor een HTPC/NAS inderdaad. Als de CPU inderdaad zo krachtig is als hierboven gezegd dan zorgt het voor een lekker stil systeem waarbij je waarschijnlijk enkel de schijven hoort. Enige minpuntje dat ik zo kan zien is het feit dat het PCIe slot slechts voor x2 bedraad is. Dat betekent volgens mij al heel snel dat er geen (fatsoenlijke) SAS controllers in passen
Verwijderd
Ik denk dat dat vies tegen gaat vallen...
(Het zal voor de meeste taken snel zat zijn, maar net zo snel als een i5? I highly doubt that...)
Even niets...
Verwijderd
Enige 'benchmark' die ik heb gevonden: http://cpuboss.com/cpu/Intel-Celeron-J1900
Ik ben er wel enthousiast over eigenlijk. Ik zou graag meer Mini-ITX bordjes zien met onboard CPU en passief gekoeld. Deze heeft 6x AHCI SATA poorten en is betaalbaar. En omdat het Intel is mag je het uiteindelijk ook kopen, in tegenstelling tot AMD Kabini wat bijna nergens te bekennen valt. Gaat ook binnenkort opgevolgd worden door Beema, maar of we dat dan ook daadwerkelijk kunnen kopen een kwart jaar na introductie blijft nog maar de vraag. Ik ben niet meer zo optimistisch. Wat ik wil lijkt een nichemarkt te zijn.
[ Voor 5% gewijzigd door Verwijderd op 24-01-2014 22:40 ]
Verwijderd
Ik wil wellicht naar een kleinere kast overstappen en met mijn huidige 4x3TB moet dat ook prima kunnen. Echter wil ik de optie open houden om via een dergelijk systeem toch vier extra harde schijven via e-sata aan te sluiten. Vraag me alleen af welke snelheden ik mag verwachten? Vier schijven aanspreken via RAIDZ1 dus 300MB/s delen door vier schijven. Maar hoe efficiënt zijn die controllers?
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Verwijderd
(of een andere goede...)
[ Voor 19% gewijzigd door Verwijderd op 25-01-2014 09:53 ]
[ Voor 1% gewijzigd door Joni op 25-01-2014 11:00 . Reden: Blaasrichting klopte niet ]
<WDC WD30XXXXXXXXXX 80.00A80> ATA-9 SATA 3.x device
300.000MB/s transfers (SATA 2.x, UDMA6, PIO 8192bytes)
Dit is een WD RED 3TB schijf die dus officieel 6Gbps ondersteund (en dus ook als SATA 3.x) wordt herkend maar slechts op 300MB/s communiceert. Waarschijnlijk maakt dit behoorlijk weinig uit omdat een normale HDD toch geen doorvoer haalt boven de 300 maar klopt dit wel? Ik heb twee RED schijven in RAID1 + een enkele WD RE 500GB enterprise schijf die standaard in mijn HP ML310e server zat, die laatste communiceert echter wel daadwerkelijk op 600MBps.
Verder las ik dat WD RED geen APM ondersteund, moet ik enkel de standby time instellen of heeft de APM setting nog wel degelijk nut?
Ook vroeg ik mij af of er eigenlijk nog iets te doen is met die enkele 500GB schijf? Die zou een behoorlijk stukje sneller moeten zijn dan de RED's maar ik heb geen RAID set... Die schijven zijn los duurder dan een 3TB RED en als ik een matchende HP versie (qua firmware) wil hebben kan ik helemaal diep in de buidel tasten. Of kan ik die bijvoorbeeld het best gebruiken als download scratch folder?
Even niets...
Voor zover ik weet 6Gbps. De RE krijgt wel 600 als transfer snelheid, de RED's niet.
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.