Dat is voor mij een reden om TLER uit te willen zetten. Wat bedoel je trouwens met "Als je gewoon keurig je diskjes vervangt en je aan de regeltjes houdt verder is er niets aan de hand" ?FireDrunk schreef op dinsdag 29 oktober 2013 @ 19:30:
TLER is niet dodelijk voor ZFS, het is hooguit een functie die tegenwerkt als het er echt op aan komt (recovery zonder redundantie).
Als je gewoon keurig je diskjes vervangt en je aan de regeltjes houdt verder is er niets aan de hand.
Als je ZFS netjes laat resilveren en het gebruik van je array minimalizeert tijdens de resilver is de kans dat er door TLER iets mis gaat erg klein. Ga je Terabytes aan data lezen terwijl er geresilvered wordt, is de kans op een URER groter, en is de kans dat je TLER nodig hebt om die laatste sector te lezen groter.
Als TLER te vroeg ingrijpt, verlies je met ZFS hooguit een file, nooit een heel filessytem. Dus TLER is lastig omdat je een file *kan* verliezen, maar het is niet verplicht om uit te zetten omdat je een heel filesystem corrupt zou maken.
Als TLER te vroeg ingrijpt, verlies je met ZFS hooguit een file, nooit een heel filessytem. Dus TLER is lastig omdat je een file *kan* verliezen, maar het is niet verplicht om uit te zetten omdat je een heel filesystem corrupt zou maken.
Even niets...
Ik ben heel lang op zoek geweest naar een oplossing voor een NAS en een zuinige thuisserver waarin ik verschillende machines kan virtualiseren. Nu dacht ik na heel veel kant en klare oplossingen gekeken te hebben; nog veel handiger is om het te combineren. En als mijn denken mij niet in de steek laat, nog goedkoper ook. Dit zijn de componenten die ik bedacht had:
http://tweakers.net/product/327322/intel-core-i5-4570t/
pricewatch: Fractal Design Array R2 Mini ITX NAS Case
pricewatch: Asus H87I-PLUS
pricewatch: Kingston ValueRAM KVR13R9D4K2/32I
pricewatch: Crucial m4 CT064M4SSD2 64GB
pricewatch: IBM ServeRAID M1015 SAS/SATA Controller for System x
Het idee:
- ESXi op de USB stick installeren
- 1 schijf aansluiten op de controller van het moederbord
- Een FreeNAS machine aanmaken met 16GB RAM, de controller IBM controller en 1 Gigabit Ethernet port via VT-d toewijzen aan deze machine. De overige schijven op de IBM controller aansluiten. Zo gaat er geen performance verloren op de meest cruciale machine. De 16 GB RAM en 64GB SSD cache drive zouden voor goede performance van ZFS moeten zorgen.
- De overige virtual machines zijn puur voor testdoeleinden en machines die weinig performance hoeven te leveren, dus die kunnen samen op 1 schijf van ESXi draaien en 1 gigabit ethernet port delen.
Dit alles zorgt er voor dat ik voor een kleine 1000 euro (huidige pricewatch tarieven ong 940 euro) een machine heb die waarschijnlijk op alle fronten de vloer aanveegt met alle kant en klaar alternatieven en ook nog een bult meer functionaliteit bied.
Gaat dit daadwerkelijk zo lukken als ik het uitgedacht heb of maak ik ergens een denkfout?
http://tweakers.net/product/327322/intel-core-i5-4570t/
pricewatch: Fractal Design Array R2 Mini ITX NAS Case
pricewatch: Asus H87I-PLUS
pricewatch: Kingston ValueRAM KVR13R9D4K2/32I
pricewatch: Crucial m4 CT064M4SSD2 64GB
pricewatch: IBM ServeRAID M1015 SAS/SATA Controller for System x
Het idee:
- ESXi op de USB stick installeren
- 1 schijf aansluiten op de controller van het moederbord
- Een FreeNAS machine aanmaken met 16GB RAM, de controller IBM controller en 1 Gigabit Ethernet port via VT-d toewijzen aan deze machine. De overige schijven op de IBM controller aansluiten. Zo gaat er geen performance verloren op de meest cruciale machine. De 16 GB RAM en 64GB SSD cache drive zouden voor goede performance van ZFS moeten zorgen.
- De overige virtual machines zijn puur voor testdoeleinden en machines die weinig performance hoeven te leveren, dus die kunnen samen op 1 schijf van ESXi draaien en 1 gigabit ethernet port delen.
Dit alles zorgt er voor dat ik voor een kleine 1000 euro (huidige pricewatch tarieven ong 940 euro) een machine heb die waarschijnlijk op alle fronten de vloer aanveegt met alle kant en klaar alternatieven en ook nog een bult meer functionaliteit bied.
Gaat dit daadwerkelijk zo lukken als ik het uitgedacht heb of maak ik ergens een denkfout?
Dat bord heeft maar 1 Ethernet poort? Het is OF via VT-d doorgeven, of in ESXi gebruiken, niet allebei...
De -T versie is overbodig, neem een gewone, scheelt een hoop geld, en het ding verbruikt evenveel.
Ik lees nergens wat voor schijven je wil gebruiken...
En het geheugen wat je hebt uitgezocht gaat nooit werken in die setup, je moet non-ECC non-Registered geheugen hebben.
De -T versie is overbodig, neem een gewone, scheelt een hoop geld, en het ding verbruikt evenveel.
Ik lees nergens wat voor schijven je wil gebruiken...
En het geheugen wat je hebt uitgezocht gaat nooit werken in die setup, je moet non-ECC non-Registered geheugen hebben.
Even niets...
Let ook op dat alleen de Q87 officieel VT-d ondersteunt en de H87 dus niet. Al staat de optie soms wel in de bios bij moederborden met een niet-Q chipset. In dat geval zou het goed kunnen werken.

@FireDrunk, thnx duidelijk verhaal
@FireDrunk & Erik1; scherp. Ik had voor de post trouwens al een ander moederbord uitgezocht. Namelijk één van Gigabyte, waarvan ik heb kunnen terugvinden dat VT-d wel een optie in de BIOS is. Maar misschien voor alle zekerheid toch nog meer even doorzoeken / afwachten of ik een Q87 mITX moederbord kan vinden met onboard dual LAN.
pricewatch: Crucial CT2K16G3ERVLD4160B
pricewatch: Gigabyte GA-H87N-WIFI
Maar gegeven dat ik deze puntjes oplos, zou het dus moeten kunnen werken?
Edit:
Deze bordjes gevonden op het internet, maar ondersteunen maar 16GB RAM.
http://www.jetway.com.tw/...tid=1035&proname=NF9J-Q87
http://emea.kontron.com/p...therboards/ktq87mitx.html
pricewatch: Crucial CT2K16G3ERVLD4160B
pricewatch: Gigabyte GA-H87N-WIFI
Maar gegeven dat ik deze puntjes oplos, zou het dus moeten kunnen werken?
Edit:
Deze bordjes gevonden op het internet, maar ondersteunen maar 16GB RAM.
http://www.jetway.com.tw/...tid=1035&proname=NF9J-Q87
http://emea.kontron.com/p...therboards/ktq87mitx.html
[ Voor 16% gewijzigd door Afwezig op 29-10-2013 22:07 ]
Als je niet persé 1600Mhz geheugen wil, zou ik lekker voor 1333Mhz geheugen gaan.
pricewatch: Corsair XMS3 CMX32GX3M4A1333C9
Veel goedkoper. (er is ook wel goedkoper 1600Mhz geheugen: pricewatch: Corsair XMS3 CMX32GX3M4A1600C11)
Volgens mij doen bijna alle *87 borden wel VT-d, je moet alleen even goed op internet zoeken of het daadwerkelijk werkt. Er zijn al best wat mensen hier die het dacht ik werkend hebben op *87 borden.
Check anders ook even in het Zuinige ESXi topic, genoeg mensen daar die het misschien ook wel weten.
Voor een Q87 bord gaan alleen om zekerheid te hebben op VT-d is een beetje zonde geld.
pricewatch: Corsair XMS3 CMX32GX3M4A1333C9
Veel goedkoper. (er is ook wel goedkoper 1600Mhz geheugen: pricewatch: Corsair XMS3 CMX32GX3M4A1600C11)
Volgens mij doen bijna alle *87 borden wel VT-d, je moet alleen even goed op internet zoeken of het daadwerkelijk werkt. Er zijn al best wat mensen hier die het dacht ik werkend hebben op *87 borden.
Check anders ook even in het Zuinige ESXi topic, genoeg mensen daar die het misschien ook wel weten.
Voor een Q87 bord gaan alleen om zekerheid te hebben op VT-d is een beetje zonde geld.
Even niets...
De snelheid van het geheugen maakt me niets uit; ik wil vooral zo veel mogelijk hebben. Het enige nadeel is dat nu ik aan het zoeken ben er nog een probleem is: een mITX bord heeft natuurlijk maar 2 RAM slots, en er is bijna niets wat 16GB DIMMs ondersteund .. Dus waarschijnlijk toch gewoon beperkt tot 16GB RAM totaal. Maar bedankt voor de tip, ik ga even in dat topic kijken!
Je zou kunnen googlen of 16 gb reepjes op je moederbord werken. Ook al wordt het niet ondersteund, het zou toch kunnen werken (net als VT-d dus)
Volgens mij bestaan deze repen alleen in ECC registered uitvoering.
Hoeveel TB wil je overigens aansluiten? Ik heb hier een server met 8TB staan, waarvan de data door veel gebruikers tegelijk gebruikt wordt. De machine is nooit boven de 11GB RAM gebruik geweest. Nu heb ik het geheugen teruggeschroefd naar 8GB, en ik merk niets negatiefs in de performance
Hoeveel TB wil je overigens aansluiten? Ik heb hier een server met 8TB staan, waarvan de data door veel gebruikers tegelijk gebruikt wordt. De machine is nooit boven de 11GB RAM gebruik geweest. Nu heb ik het geheugen teruggeschroefd naar 8GB, en ik merk niets negatiefs in de performance
Lenovo W520 - i7 2720QM - 8GB DDR3 1333Mhz - 1080p - Nvidia 1000M - 9 cell accu
Het is ook meer een toekomstidee. Ik gooi er nu 12TB in, dus met de stelregel 1GB per TB kom ik voorlopig wel weg; 4GB over voor virtual machines die ik bijna niet gebruik is ruim zat. Maar verdubbel ik de capaciteit, heb ik een probleem. Keuzes keuzes keuzes. Als ik een hele kleine uATX kast kan vinden met 6+ HDD slots koop ik die en ga ik voor meer geheugen. Anders wordt het toch maar dit met 16GB.
Welke versie van FreeNAS draai je?maniak schreef op dinsdag 22 oktober 2013 @ 15:21:
Ik heb nu een tijdje FreeNAS draaien en wil er nu meer mee, voornamelijk een soort "persoonlijke cloud" creëren. Nu is er een plugin "ownCloud" die dit blijkbaar mogelijk maakt. Het installeren van de plugin ging goed maar het starten niet. Nu blijkt dat ik Apache en PHP moet installeren op de NAS maar daar zijn geen plugins voor.
Na wat zoeken kom ik het volgende tegen: http://forums.freenas.org...1-into-plugin-jail.11519/
Maar wat ik niet begrijp, wat is "Jails"? Is het een soort virtual deel waar geïnstalleerde software in kan draaien als een vorm van beveiliging? Tevens zie ik de commando's "portsnap fetch extract" en "cd /usr/ports/lang/php5 && make config" voorbij komen. Hij kent geen portsnap en ik kan ook geen directory /urs/ports vinden..
Iemand die me wat tips kan geven om Apache en PHP geïnstalleerd te krijgen voor ownCloud? Of kan ik dit beter niet doen en zijn er betere personal cloud oplossingen voor FreeNAS 9?
in 9.1.1 is de plugin structuur aanzienlijk vereterd. Plugins kan je nu direct vanaf een repo installeren binnen freenas.
Owncloud werkt out of the box, na het installeren is deze direct beschikbaar op je jail IP. Ook SSL werkt. (Self signed by default). Je moet alleen nog even de storage mappen naar de owncloud jail.
Verwijderd
Moet je bij FreeNAS nog steeds plugins in een jail installeren, of is dat inmiddels optioneel?
Voor zover ik weet moet dat nog steeds, met het nieuwe systeem maakt hij echter voor iedere plugin zelf een jail aan.
Op zich is dat natuurlijk niet erg, mits de jail configuratie helemaal voor je gedaan word. Plugins in een jail draaien lijkt mij juist bevorderlijk voor security.
Even niets...
Verwijderd
Dat is ook zeker zo, alleen heb je dan het probleem dat je niet bij de gewone data kan. Dan is virtualisatie voor de gebruiker nog makkelijker dan jails mogelijk, straks met BHyVe kan het best leuk worden om met weinig overhead toch meerdere BSD VMs te draaien.
Maar persé alles in een jail, vind ik ook maar lastig. Security is ook niet altijd een groot punt als het in een afgeschermde LAN-omgeving gebeurt.
Maar persé alles in een jail, vind ik ook maar lastig. Security is ook niet altijd een groot punt als het in een afgeschermde LAN-omgeving gebeurt.
Je moet je storage doormappen naar de jail.
Op zich vind ik het wel secure dat een plugin nooit bij je data zal kunnen zonder dat je eerst een mapping maakt.
Ik ben zelf (misschien een beetje omslachtig, maargoed
) bezig om een 2e FreeNAS VM op te zetten, welke in mijn DMZ komt te draaien, dat wil zeggen, voor mijn 2e router / firewall (pfsense) zodat een publiek toegangelijke app, zoals owncloud, en subsonic niet bij machines in mijn trusted zone kunnen.
Ik ga hier gewoon een vmdk voor gebruiken, en zal via replication de datastores van mijn NAS naar de DMZ-NAS pushen.
Omdat het kan
Op zich vind ik het wel secure dat een plugin nooit bij je data zal kunnen zonder dat je eerst een mapping maakt.
Ik ben zelf (misschien een beetje omslachtig, maargoed
Ik ga hier gewoon een vmdk voor gebruiken, en zal via replication de datastores van mijn NAS naar de DMZ-NAS pushen.
Omdat het kan
Ben van plan 6 WD RED's aan te schaffen voor een RAIDZ2 opstelling (ZFS). Wat is het slimste? 2x3 HDD's orderen bij 2 verschillende winkels, of gewoon 6 bij 1 winkel? Lees hier en daar dat het "mixen" van hard drives beter is. Stel ik heb een slechte batch, dan heb ik 3 "slechte" drives ipv 6.
is everything cool?
Als het echt zo erg is, heb je zelfs met 'maar' 3 slechte disks een probleem...
Even niets...
Verwijderd
Als iemand nog interesse heeft in een Rebel 12 + fanmax is hier een leuke aanbieding
https://ri-vier.eu/sharko...model-p-353.html?cPath=60
https://ri-vier.eu/sharko...model-p-353.html?cPath=60
Ik ben ondertussen zwaar onder de indruk van mijn kleine fileserver refresh (moederbord, processor, geheugen en controller).
Oude configuratie:
Echter ben ik zwaar onder de indruk van deze simpele hardware upgrade. Ik had geen gigantische performance nodig maar ik ben gegaan van:
Naar:
Dit is een increase van 400% in ruwe throughput.
Tijdens mijn kerstvakantie plan ik een migratie naar ZFS onder FreeBSD met 5 x 4TB in RAID-Z1. Nadien zullen er waarschijnlijk 5 van mijn huidige 2TB schijven ook herbruikt worden in een tweede RAID-Z1.
Ik ben best tevreden op dit moment.
Oude configuratie:
- Lian Li A71F
- ASUS P5Q Deluxe
- Intel Celeron E3300 @ 2.5GHz
- 1 GB 1066 Mhz DDR2
- 1 x Exsys EX-3508 - PCIe SATA II Controller
- 1 x 500GB WDC WD5000AADS (boot disk)
- 10 x WD2000EARS (data)
- Lian Li A71F
- Asrock B75 Pro3-M
- Core i3-3240 CPU @ 3.40GHz
- 2 x 4 GB 1600 Mhz DDR3
- 1 x IBM 1115 (crossflashed naar IT mode)
- 1 x 500GB WDC WD5000AADS (boot disk)
- 10 x WD2000EARS (WD Caviar Green)
Echter ben ik zwaar onder de indruk van deze simpele hardware upgrade. Ik had geen gigantische performance nodig maar ik ben gegaan van:
data@darkstar2:~$ dd if=/dev/zero of=/data/test.bin bs=1M count=10000 10000+0 records in 10000+0 records out 10485760000 bytes (10 GB) copied, 72.7644 s, 144 MB/s data@darkstar2:~$ dd if=/data/test.bin of=/dev/null bs=1M count=10000 10000+0 records in 10000+0 records out 10485760000 bytes (10 GB) copied, 59.5733 s, 176 MB/s
Naar:
data@Darkstar3:~$ dd if=/dev/zero of=/data/test.bin bs=1M count=10000 10000+0 records in 10000+0 records out 10485760000 bytes (10 GB) copied, 17.4227 s, 602 MB/s data@Darkstar3:~$ dd if=/data/test.bin of=/dev/null bs=1M count=10000 10000+0 records in 10000+0 records out 10485760000 bytes (10 GB) copied, 15.0599 s, 696 MB/s
Dit is een increase van 400% in ruwe throughput.
Tijdens mijn kerstvakantie plan ik een migratie naar ZFS onder FreeBSD met 5 x 4TB in RAID-Z1. Nadien zullen er waarschijnlijk 5 van mijn huidige 2TB schijven ook herbruikt worden in een tweede RAID-Z1.
Ik ben best tevreden op dit moment.
Ik heb eens een batch van 4 slechte disks (geen REDs overigens) gehad, en 2 ervan faalden binnen hetzelfde uur. Al mijn data weg.FREAKJAM schreef op vrijdag 01 november 2013 @ 10:40:
Ben van plan 6 WD RED's aan te schaffen voor een RAIDZ2 opstelling (ZFS). Wat is het slimste? 2x3 HDD's orderen bij 2 verschillende winkels, of gewoon 6 bij 1 winkel? Lees hier en daar dat het "mixen" van hard drives beter is. Stel ik heb een slechte batch, dan heb ik 3 "slechte" drives ipv 6.
Vraag of ze breed uiteenlopense serienummers willen leveren of bestel ze bij verschillende zaken.
Wat je krijgt kan je nooit precies weten want de importeur krijgt ook batches binnen.
Ik draaien nu sinds een tijdje FreeNAS 9.1 en krijg ineens vreemde dingen en de volgende foutmelding bij het aanmelden bij de GUI (zie onderstaande melding). Nu draai ik de NAS vanaf een USB key van 16GB.
Blijkbaar is een een tmp dir die alleen groeit en niet opgeschoond wordt, vandaar ook de error not enough space. Iemand tips om dit te verhelpen? Bijvoorbeeld een job om de tmp dir op te schonen?
Blijkbaar is een een tmp dir die alleen groeit en niet opgeschoond wordt, vandaar ook de error not enough space. Iemand tips om dit te verhelpen? Bijvoorbeeld een job om de tmp dir op te schonen?
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
| Environment: Software Version: FreeNAS-9.1.1-RELEASE-x64 (a752d35) Request Method: POST Request URL: https://192.168.2.200/account/login/ Traceback: File "/usr/local/lib/python2.7/site-packages/django/core/handlers/base.py" in get_response 115. response = callback(request, *callback_args, **callback_kwargs) File "/usr/local/www/freenasUI/../freenasUI/account/views.py" in login_wrapper 214. current_app=current_app, extra_context=extra_context) File "/usr/local/lib/python2.7/site-packages/django/views/decorators/debug.py" in sensitive_post_parameters_wrapper 69. return view(request, *args, **kwargs) File "/usr/local/lib/python2.7/site-packages/django/utils/decorators.py" in _wrapped_view 91. response = view_func(request, *args, **kwargs) File "/usr/local/lib/python2.7/site-packages/django/views/decorators/cache.py" in _wrapped_view_func 89. response = view_func(request, *args, **kwargs) File "/usr/local/lib/python2.7/site-packages/django/contrib/auth/views.py" in login 46. auth_login(request, form.get_user()) File "/usr/local/lib/python2.7/site-packages/django/contrib/auth/__init__.py" in login 90. request.session.cycle_key() File "/usr/local/lib/python2.7/site-packages/django/contrib/sessions/backends/base.py" in cycle_key 272. self.create() File "/usr/local/lib/python2.7/site-packages/django/contrib/sessions/backends/file.py" in create 96. self.save(must_create=True) File "/usr/local/lib/python2.7/site-packages/django/contrib/sessions/backends/file.py" in save 116. fd = os.open(session_file_name, flags) Exception Type: OSError at /account/login/ Exception Value: Errno 28 No space left on device: '/tmp/sessionidlu4913t3od4nghljneaf3ugx4a49rfy4' |
en probeer altijd een setup eerst een week of zo te laten proefdraaien. Kinderziektes, slechte disks, slechte aansluitingen en andere onvoorziene tegenslagen haal je er daarmee voor groot deel uit.Durandal schreef op zaterdag 02 november 2013 @ 19:05:
[...]
Ik heb eens een batch van 4 slechte disks (geen REDs overigens) gehad, en 2 ervan faalden binnen hetzelfde uur. Al mijn data weg.
Vraag of ze breed uiteenlopense serienummers willen leveren of bestel ze bij verschillende zaken.
Wat je krijgt kan je nooit precies weten want de importeur krijgt ook batches binnen.
Dit hele gedoe frustreert me enorm.. Blijkbaar loopt er iets vol en ik kan niet achterhalen wat.. Er is zoo weinig concreets te vinden en wat je vindt werkt niet. Zo kan ik bijvoorbeeld niet gpart gebruiken om de 13GB vrije ruimte te partitioneren (blijkt een bug te zijn dat de offset niet goed is en veel te veel vrije ruimte aangeeft). Blijkt de /var dir maar iets van 20MB te zijn en de logfiles worden niet opgeschoond (alleen bij een reboot). Waarom? Ik probeer na een "SU" "rm -rf" te doen in de /var/tmp dir wordt er niets verwijderd.. en ik maar denken dat je met root alles kon..
Waarom loop ik hier tegen aan en vele anderen niet? Ik heb een kale FreeNAS installatie gedaan en heb er verder niets aan gedaan, zelfs geen plugins.
Sorry van de post, maar het irriteert me mateloos..
edit: Als ik een gok moet doen is dit mijn probleem: http://forums.freenas.org...-up-samba-to-blame.12907/ Ik vermoed dat BitDefender (die ik nu een week thuis heb draaien) ook remote drives scant en daardoor de /var vol loopt. Nu kan ik de /var vergroten, maar worden die tdb files ook opgeschoond door FreeNAS?
[ Voor 15% gewijzigd door maniak op 03-11-2013 12:47 ]
Holy shit... Als het zfs was kon ik het nog begrijpen omdat je 8x meer RAM hebt, maar dit is RAID. Ligt het niet aan een of andere factor op je oude mobi? Chipset oid? Kan je testen met een M1115 op je oude bord ofzo?Ashe schreef op zaterdag 02 november 2013 @ 18:32:
Ik ben ondertussen zwaar onder de indruk van mijn kleine fileserver refresh (moederbord, processor, geheugen en controller).
Oude configuratie:Nieuwe configuratie:
- Lian Li A71F
- ASUS P5Q Deluxe
- Intel Celeron E3300 @ 2.5GHz
- 1 GB 1066 Mhz DDR2
- 1 x Exsys EX-3508 - PCIe SATA II Controller
- 1 x 500GB WDC WD5000AADS (boot disk)
- 10 x WD2000EARS (data)
Aangezien ik enkel de hardware heb vervangen en een kernel recompile (upgrade naar Linux kernel 3.11.4) heb gedaan, is het OS (Slackware 13.1) en de RAID config (software raid 6) hetzelfde gebleven.
- Lian Li A71F
- Asrock B75 Pro3-M
- Core i3-3240 CPU @ 3.40GHz
- 2 x 4 GB 1600 Mhz DDR3
- 1 x IBM 1115 (crossflashed naar IT mode)
- 1 x 500GB WDC WD5000AADS (boot disk)
- 10 x WD2000EARS (WD Caviar Green)
Echter ben ik zwaar onder de indruk van deze simpele hardware upgrade. Ik had geen gigantische performance nodig maar ik ben gegaan van:
data@darkstar2:~$ dd if=/dev/zero of=/data/test.bin bs=1M count=10000 10000+0 records in 10000+0 records out 10485760000 bytes (10 GB) copied, 72.7644 s, 144 MB/s data@darkstar2:~$ dd if=/data/test.bin of=/dev/null bs=1M count=10000 10000+0 records in 10000+0 records out 10485760000 bytes (10 GB) copied, 59.5733 s, 176 MB/s
Naar:
data@Darkstar3:~$ dd if=/dev/zero of=/data/test.bin bs=1M count=10000 10000+0 records in 10000+0 records out 10485760000 bytes (10 GB) copied, 17.4227 s, 602 MB/s data@Darkstar3:~$ dd if=/data/test.bin of=/dev/null bs=1M count=10000 10000+0 records in 10000+0 records out 10485760000 bytes (10 GB) copied, 15.0599 s, 696 MB/s
Dit is een increase van 400% in ruwe throughput.
Tijdens mijn kerstvakantie plan ik een migratie naar ZFS onder FreeBSD met 5 x 4TB in RAID-Z1. Nadien zullen er waarschijnlijk 5 van mijn huidige 2TB schijven ook herbruikt worden in een tweede RAID-Z1.
Ik ben best tevreden op dit moment.
De fails waren pas na een jaar of twee, maar wel binnen hetzelfde uur. Twee disks wilden niet meer mounten/herkend worden en de twee andere bleken problemen te geven bij SMART tests.BartNL schreef op zaterdag 02 november 2013 @ 19:51:
[...]
en probeer altijd een setup eerst een week of zo te laten proefdraaien. Kinderziektes, slechte disks, slechte aansluitingen en andere onvoorziene tegenslagen haal je er daarmee voor groot deel uit.
botte pech kan altijd gebeuren en daar helpt niets tegen of je zou een backup van je data moeten hebben. Raid blijft in welke vorm en met welke voorzorg dan ook altijd een risico.Durandal schreef op zondag 03 november 2013 @ 22:01:
[...]De fails waren pas na een jaar of twee, maar wel binnen hetzelfde uur.
HyperBart schreef op zondag 03 november 2013 @ 21:42:
[...]
Holy shit... Als het zfs was kon ik het nog begrijpen omdat je 8x meer RAM hebt, maar dit is RAID. Ligt het niet aan een of andere factor op je oude mobi? Chipset oid? Kan je testen met een M1115 op je oude bord ofzo?
Ik ben er zeker van. De oude controller werkte met PCIEx1 en was gebaseerd op een Sil3132 chipset, grotendeels verantwoordelijk voor beperkte performance. 8 schijven werden daaraan gekoppeld en de twee overige schijven rechtstreeks op het moederbord. Ik vermoed ook dat deze kaart veel meer beroep deed op de processor en het geheugen dan mijn huidige M1115.HyperBart schreef op zondag 03 november 2013 @ 21:43:
Dat MOET volgens mij aan die sata controller liggen, kan niet anders...
De rebuild times van mijn 2TB schijven zijn ook verhoogd van 26 uur naar ongeveer 6 a 7 uur.
Spijtig genoeg heb ik mijn oude configuratie reeds geïnstalleerd in de fileserver van een collega van mij dus onmogelijk om nog te testen. Het zal een combinatie zijn van de totale hardware refresh vermoed ik.
Ik ben lange tijd geleden begonnen met een 4 x 160 GB Linux software raid 5 file server. Vervolgens geupgrade naar 4 x 1 TB Linux software raid 5 en nadien 10 x 2TB Linux software raid 5. In al die jaren heb ik nog nooit problemen gehad met de raid array, behalve als er fouten optraden binnen de controllers die de harde schijven uiteindelijk corrupte partities bezorgden. Echter is elke rebuild altijd probleemloos gegaan, weliswaar met een serieuze nervositeit van mijn kant.
Een migratie naar FreeBSD + ZFS zal sowieso gepaard gaan met nieuwere 4TB schijven en extra geheugen (upgrade naar 16GB). Kan ik daarin met dezelfde hardware ook zo'n performance verwachten? Op zich zoek ik niet echt naar high performance maar vooral naar een robuuster systeem. Linux software raid heeft tot nu toe perfect dienst gedaan (en ik ken het ondertussen van binnen en van buiten ;-)), maar het begint stilaan tijd te worden om de stap te zetten naar een next gen filesystem dat robuuster omgaat met silent corruption en hardware failures.
[ Voor 10% gewijzigd door Ashe op 03-11-2013 23:35 ]
Goh, ik zou nog even wachten met al direct te upgraden naar 16GB, ik ben nog niemand tegen gekomen die met ZFS winst haalde thuis met relatief beperkte arrays (<30TB) die niet toekomen met 8GB...
Verwijderd
Mijn zielig Brazos servertje draait al 16GiB. Ik zou zeker niets minder nemen. 32GiB voor een echte server, en 64GiB vind ik nog stoerder, zoals de Intel Avoton; nieuwe Atom die 64GiB UDIMM ondersteunt in 4 geheugenbanken. Hoe meer RAM hoe beter. Alleen wel jammer dat RAM nu duurder is dan een tijd terug. Ik heb gelukkig nog 2 setjes van 4x8=32 samen dus 64GiB op de kop getikt toen het lekker goedkoop was. 
Ook met 'simpel' RAID wordt vrijwel al je RAM gebruikt. Niet door de RAID engine maar door het filesystem (of eigenlijk VFS subsystem) in de vorm van filecache. Maar ZFS heeft zijn eigen cachesysteem (ARC) en dat werkt veel intelligenter. ZFS kan daardoor slimmer omgaan met je RAM-geheugen, en niet domweg gewoon alle laatste data cachen. Lees je een groot bestand dan blaast dat veel caches weg, en dat is niet hoe het bij ZFS ARC werkt.
Cachen is heel leuk als je VM images of andere IOps-gevoelige dingen doet op je server, denk aan een gamecollectie b.v.
Ook met 'simpel' RAID wordt vrijwel al je RAM gebruikt. Niet door de RAID engine maar door het filesystem (of eigenlijk VFS subsystem) in de vorm van filecache. Maar ZFS heeft zijn eigen cachesysteem (ARC) en dat werkt veel intelligenter. ZFS kan daardoor slimmer omgaan met je RAM-geheugen, en niet domweg gewoon alle laatste data cachen. Lees je een groot bestand dan blaast dat veel caches weg, en dat is niet hoe het bij ZFS ARC werkt.
Cachen is heel leuk als je VM images of andere IOps-gevoelige dingen doet op je server, denk aan een gamecollectie b.v.
Leuk om te lezen dat de Ri-Vier cases bevallen!brndst schreef op woensdag 02 oktober 2013 @ 14:19:
[...]
Bedankt voor je informatie! En ook vooral over de voeding die je hebt gebruikt.
We doen ons uiterste best om de meeste dan wel niet alle ' flaws ' van de Norco-cases te verbeteren en dat in onze eigen cases te laten fabriceren.
Onze grootste doel was om de backplanes te verbeteren en dat is zeker gelukt. We hebben van de oude type 4220/4224 norco-cases pas geleden nog een doos kapotte backplanes weggegooid.
Er zijn nog meer servercases in ontwerp voor ons eigen merk en zullen dan ook wel op de markt verschijnen.
Heeft iemand toevallig nog foto's van een draaiende ri-vier case? Ben toch wel benieuwd hoe dat eruit moet zien
Groet,
Rick
In de praktijk merk je daar echt maar weinig van hoor. Ik heb hier een 4*4TB RAIDZ array met 32GB RAM gedraaid en later 8GB RAM gedraaid en heb echt nog NOOIT verschil gemerkt. 32GB ARC is leuk, maar de write once read once (mayby twice) metaliteit van een mediaopslagapparaat is absoluut niet waarin ARC helpt.Verwijderd schreef op maandag 04 november 2013 @ 13:54:
Mijn zielig Brazos servertje draait al 16GiB. Ik zou zeker niets minder nemen. 32GiB voor een echte server, en 64GiB vind ik nog stoerder, zoals de Intel Avoton; nieuwe Atom die 64GiB UDIMM ondersteunt in 4 geheugenbanken. Hoe meer RAM hoe beter. Alleen wel jammer dat RAM nu duurder is dan een tijd terug. Ik heb gelukkig nog 2 setjes van 4x8=32 samen dus 64GiB op de kop getikt toen het lekker goedkoop was.
Ook met 'simpel' RAID wordt vrijwel al je RAM gebruikt. Niet door de RAID engine maar door het filesystem (of eigenlijk VFS subsystem) in de vorm van filecache. Maar ZFS heeft zijn eigen cachesysteem (ARC) en dat werkt veel intelligenter. ZFS kan daardoor slimmer omgaan met je RAM-geheugen, en niet domweg gewoon alle laatste data cachen. Lees je een groot bestand dan blaast dat veel caches weg, en dat is niet hoe het bij ZFS ARC werkt.
Cachen is heel leuk als je VM images of andere IOps-gevoelige dingen doet op je server, denk aan een gamecollectie b.v.
VM images hebben trouwens meer profijt van een ZIL dan RAM. Je kan nog zoveel RAM hebben, maar synced writes blijven je systeem tegenhouden... Maar dat weet jij ook wel
Even niets...
Verwijderd
Als je echt alleen maar grote bestanden wegschrijft heb je bar weinig aan de cache. Maar normaliter is caching is echt wel heel effectief, vreemd als je daar weinig van meekrijgt. Eventueel kun je dan primarycache=metadata instellen, zodat je geen data cached alleen metadata voor de filesystems waar je enkel grote bestanden opslaat en 'toch niets merkt' van de cache. Hooguit metadata dat wil je altijd wel cachen.
SLOG is alleen leuk als je VM images veel schrijven (sync writes) en je het filesystem van de VMs wilt beschermen. Bij mij ligt dat anders; mijn VMs doen veel random reads. Het cachen van de VM images in RAM - in elk geval die delen die veel worden opgevraagd - is daarom een grote plus. Die caches zouden waarschijnlijk worden weggeblazen bij een normaal filesystem met simpele VFS cache; als je daarmee een groot bestand wegschrijft ben je je mooi opgebouwde caches zo kwijt. Bij ZFS ligt dat heel anders.
Ik merk in elk geval een heel groot verschil wanneer ik de server opnieuw gestart heb. Dan duurt het weer een tijd voordat de caches zijn opgebouwd en tot die tijd is het werken met de VM images niet zo'n pretje. Persistent L2ARC lijkt mij daarom wel een hele stoere feature; dan heb je ook na een reboot weer een hot cache.
Kortom, ik ben dus wel voorstander van veel RAM en intelligente caching. Bij ZFSguru is er zelfs een optie om alle metadata te scannen vlak na het booten, zodat metadata van directory nodes alvast in je RAM staan.
SLOG is alleen leuk als je VM images veel schrijven (sync writes) en je het filesystem van de VMs wilt beschermen. Bij mij ligt dat anders; mijn VMs doen veel random reads. Het cachen van de VM images in RAM - in elk geval die delen die veel worden opgevraagd - is daarom een grote plus. Die caches zouden waarschijnlijk worden weggeblazen bij een normaal filesystem met simpele VFS cache; als je daarmee een groot bestand wegschrijft ben je je mooi opgebouwde caches zo kwijt. Bij ZFS ligt dat heel anders.
Ik merk in elk geval een heel groot verschil wanneer ik de server opnieuw gestart heb. Dan duurt het weer een tijd voordat de caches zijn opgebouwd en tot die tijd is het werken met de VM images niet zo'n pretje. Persistent L2ARC lijkt mij daarom wel een hele stoere feature; dan heb je ook na een reboot weer een hot cache.
Kortom, ik ben dus wel voorstander van veel RAM en intelligente caching. Bij ZFSguru is er zelfs een optie om alle metadata te scannen vlak na het booten, zodat metadata van directory nodes alvast in je RAM staan.
Leuke van reads is dat ze oneindig mogen queuen, waardoor meerdere VM's tegelijkertijd kleine leesacties kunnen sturen naar je filessystem. ZFS is natuurlijk zo slim om al die reads te aggregeren tot 1 (of meerdere) transactie groepen waardoor ze bijna allemaal tegelijk geserveerd worden.
Tuurlijk heb je gelijk voor wat betreft al die caches, maar dat is (meestal) niet waarom VM's traag aanvoelen.
Als al je VM's tegelijk een klein stukje in hun Event log willen schrijven (wat windows machines nogal vaak doen) moeten *alle* VM's wachten tot die ene synced write klaar is. Dit veroorzaakt dus een veel grotere vertraging voor Virtual Machines dan het wat later krijgen van een read.
Dat is wat ik bedoelde met: Je hebt meer aan een ZIL dan veel RAM. Omdat synced writes nooit in RAM gecached worden. (tenzij je een ZIL hebt)
Tuurlijk heb je gelijk voor wat betreft al die caches, maar dat is (meestal) niet waarom VM's traag aanvoelen.
Als al je VM's tegelijk een klein stukje in hun Event log willen schrijven (wat windows machines nogal vaak doen) moeten *alle* VM's wachten tot die ene synced write klaar is. Dit veroorzaakt dus een veel grotere vertraging voor Virtual Machines dan het wat later krijgen van een read.
Dat is wat ik bedoelde met: Je hebt meer aan een ZIL dan veel RAM. Omdat synced writes nooit in RAM gecached worden. (tenzij je een ZIL hebt)
Even niets...
Verwijderd
Ik gebruik gewoon sync=disabled op de VM filesystem en gebruik snapshots. Als ik de data sinds de laatste snapshot kwijt ben is dat niet zo erg. Maar met ESXi enzo zijn alle writes sync writes geloof ik? Dan ga je daar natuurlijk veel meer mee te maken krijgen en wordt SLOG erg interessant.
Ik dacht dat aggregeren voor writes was en niet voor reads? Ga ik nog eens opzoeken.
SLOG interessanter dan RAM; ik denk dat dat erg aan de use case ligt. Bij ESXi zou ik inderdaad zeggen van wel.
Ik dacht dat aggregeren voor writes was en niet voor reads? Ga ik nog eens opzoeken.
SLOG interessanter dan RAM; ik denk dat dat erg aan de use case ligt. Bij ESXi zou ik inderdaad zeggen van wel.
sync=disabled helpt ook voor ESXi wel
Dan negeert ZFS gewoon de synced vlag van NFS 
sync=disabled vind ik persoonlijk niet goed, en dat gebruik ik echt alleen op mijn media filesystem, voor de rest staat het minimaal op standard. (op mijn /projects filesystem zelfs op always
)
Agregeren van reads = (native) command queing voor zover ik weet, en dat doet ZFS volgens mij maar al te graag.
sync=disabled vind ik persoonlijk niet goed, en dat gebruik ik echt alleen op mijn media filesystem, voor de rest staat het minimaal op standard. (op mijn /projects filesystem zelfs op always
Agregeren van reads = (native) command queing voor zover ik weet, en dat doet ZFS volgens mij maar al te graag.
Even niets...
Beste mensen,
Vanuit het ZFS topic werd ik hierheen verwezen om mijn zfs build te bespreken. Sinds alle topics en verhalen van CiPHER over ZFS ben ik zo benieuwd geraakt dat ik zelf ook een servertje wil bouwen. Ik heb iemand zo gek gekregen (lees: dat ga ik binnenkort nog doen) die wel zo'n servertje wilt dat ik ermee kan experimenteren. Ik hoop dus dat ik in het goede topic ben.
Hier wat ik zelf heb gedaan:
In het ZFS topic staat een basis-build met een onboard AMD proc. Deze was niet meer leverbaar en dus heb ik deze gezocht in de pricewatch. Deze is zelfs nog een dualcore. Ik neem aan dat dit voor een simpele ZFS zonder toeters en bellen voldoende is? De server zal gebruikt worden voor alleen opslag van vakantiekiekjes. Wel is het de bedoeling dat als ik binnenkort ook een servertje heb, we bij elkaar data gaan backupen. Maar ik neem aan dat je daarvoor ook geen powerbak nodig hebt.
Het geheugen heb ik 1 reepje van 8GB gekozen. Geheugen is weer zo duur geworden
Ik weet dat ZFS hongerig is naar geheugen, maar geldt dat ook voor een build met 3 schijven?
Bij de harde schijven heb ik gezocht naar de goedkoopste schijf (euro/GB). Bij een Raid-Z krijg je zo effectief 6TB als ik het goed heb, en dat is meer dan genoeg.
Verder moet ik nog een kast, en hier ben ik niet helemaal over uit. Kunnen jullie hier iets zinnigs over zeggen wat een eventuele goede optie is? Een kast met voeding ingebouwd, of losse onderdelen?
Kan het verder nog ergens goedkoper of beter? Prijs is toch wel een belangrijk streven bij dit project. Het liefst zo goedkoop mogelijk, want het hoeft niet razendsnel te zijn. Ik had zelf in mijn hoofd om 150 euro uit te geven exc HDD, maar dat is geloof ik niet goed haalbaar als ik zelf zoek.
Alvast bedankt!
Vanuit het ZFS topic werd ik hierheen verwezen om mijn zfs build te bespreken. Sinds alle topics en verhalen van CiPHER over ZFS ben ik zo benieuwd geraakt dat ik zelf ook een servertje wil bouwen. Ik heb iemand zo gek gekregen (lees: dat ga ik binnenkort nog doen) die wel zo'n servertje wilt dat ik ermee kan experimenteren. Ik hoop dus dat ik in het goede topic ben.
Hier wat ik zelf heb gedaan:
# | Product | Prijs | Subtotaal |
1 | ASRock E350M1 | € 55,45 | € 55,45 |
3 | Toshiba PA429xE-1HN0, 3TB | € 90,88 | € 272,64 |
1 | Kingston KVR1333D3N9/8G | € 59,- | € 59,- |
Bekijk collectie Importeer producten | Totaal | € 387,09 |
In het ZFS topic staat een basis-build met een onboard AMD proc. Deze was niet meer leverbaar en dus heb ik deze gezocht in de pricewatch. Deze is zelfs nog een dualcore. Ik neem aan dat dit voor een simpele ZFS zonder toeters en bellen voldoende is? De server zal gebruikt worden voor alleen opslag van vakantiekiekjes. Wel is het de bedoeling dat als ik binnenkort ook een servertje heb, we bij elkaar data gaan backupen. Maar ik neem aan dat je daarvoor ook geen powerbak nodig hebt.
Het geheugen heb ik 1 reepje van 8GB gekozen. Geheugen is weer zo duur geworden
Bij de harde schijven heb ik gezocht naar de goedkoopste schijf (euro/GB). Bij een Raid-Z krijg je zo effectief 6TB als ik het goed heb, en dat is meer dan genoeg.
Verder moet ik nog een kast, en hier ben ik niet helemaal over uit. Kunnen jullie hier iets zinnigs over zeggen wat een eventuele goede optie is? Een kast met voeding ingebouwd, of losse onderdelen?
Kan het verder nog ergens goedkoper of beter? Prijs is toch wel een belangrijk streven bij dit project. Het liefst zo goedkoop mogelijk, want het hoeft niet razendsnel te zijn. Ik had zelf in mijn hoofd om 150 euro uit te geven exc HDD, maar dat is geloof ik niet goed haalbaar als ik zelf zoek.
Alvast bedankt!
De cpu is goed genoeg, zelfs voor een paar toeters en bellen. Ik heb een oudere en draai backups met lichte compressie, file server, tvheadend, transmission, webservertje en nog wat ander spul. Kijk alleen uit met zaken als deduplicatie en compressie.
Die 8GB moet genoeg zijn. Offsite backup ook geen probleem, als je de bandbreedte er voor hebt naar het internet toe.
Die 6GB netto daar gaat nog wat overhead vanaf. Rond de 5% als ik het goed heb.
Ik ben en fan van zelf je kast maken. Met aluminium kom je als hobbyist een heel eind. Kost wel even wat tijd maar dan heb je volledig grip op zaken als uitbreidbaarheid, grootte, koeling en geluidsproductie.
Zo te zien ga jij dat niet doen, dus koop de kast die je leuk vindt maar let wel op dat je een kwaliteitsvoeding neemt, bij voorkeur een met hoog rendement. Cipher zal je een PicoPSU aan gaan bevelen denk ik.
Het hangt er ook een beetje van af wat je in de toekomst wil aan uitbreidingen.
Op welke prijs je gaat komen weet ik niet, maar denk er ook aan dat je misschien nog een fan moet kopen afhankelijk van je kast. D'r komen ook nog sata kabeltjes bij wellicht.
Die 8GB moet genoeg zijn. Offsite backup ook geen probleem, als je de bandbreedte er voor hebt naar het internet toe.
Die 6GB netto daar gaat nog wat overhead vanaf. Rond de 5% als ik het goed heb.
Ik ben en fan van zelf je kast maken. Met aluminium kom je als hobbyist een heel eind. Kost wel even wat tijd maar dan heb je volledig grip op zaken als uitbreidbaarheid, grootte, koeling en geluidsproductie.
Zo te zien ga jij dat niet doen, dus koop de kast die je leuk vindt maar let wel op dat je een kwaliteitsvoeding neemt, bij voorkeur een met hoog rendement. Cipher zal je een PicoPSU aan gaan bevelen denk ik.
Het hangt er ook een beetje van af wat je in de toekomst wil aan uitbreidingen.
Op welke prijs je gaat komen weet ik niet, maar denk er ook aan dat je misschien nog een fan moet kopen afhankelijk van je kast. D'r komen ook nog sata kabeltjes bij wellicht.
Dankjewel voor de info! Een kast zelf maken is voor mij inderdaad geen optie. Voor voedingen heb ik gekeken in de PW, maar ik kom er toch niet helemaal uit omdat de voedingen bij een watt of 300 beginnen. Dan zit je in idle continu in het onzuinige spectrum van de voeding. PicoPSU heb ik wel over gelezen, maar het is voor mij toch nog zeer onbekende materie. Wel las ik dat bij een PicoPSU 3 HDD's toch wel de absolute max is, dus in hoeverre is dat nog handig dan?Durandal schreef op woensdag 06 november 2013 @ 02:43:
De cpu is goed genoeg, zelfs voor een paar toeters en bellen. Ik heb een oudere en draai backups met lichte compressie, file server, tvheadend, transmission, webservertje en nog wat ander spul. Kijk alleen uit met zaken als deduplicatie en compressie.
Die 8GB moet genoeg zijn. Offsite backup ook geen probleem, als je de bandbreedte er voor hebt naar het internet toe.
Die 6GB netto daar gaat nog wat overhead vanaf. Rond de 5% als ik het goed heb.
Ik ben en fan van zelf je kast maken. Met aluminium kom je als hobbyist een heel eind. Kost wel even wat tijd maar dan heb je volledig grip op zaken als uitbreidbaarheid, grootte, koeling en geluidsproductie.
Zo te zien ga jij dat niet doen, dus koop de kast die je leuk vindt maar let wel op dat je een kwaliteitsvoeding neemt, bij voorkeur een met hoog rendement. Cipher zal je een PicoPSU aan gaan bevelen denk ik.
Het hangt er ook een beetje van af wat je in de toekomst wil aan uitbreidingen.
Op welke prijs je gaat komen weet ik niet, maar denk er ook aan dat je misschien nog een fan moet kopen afhankelijk van je kast. D'r komen ook nog sata kabeltjes bij wellicht.
Ik heb me al eens afgevraagd waarom de "standaard" go to oplossing die we vandaag de dag blijven voorstellen voor nieuwelingen nog niet in de startpost staat.Pietjebelll schreef op woensdag 06 november 2013 @ 01:53:
Beste mensen,
Vanuit het ZFS topic werd ik hierheen verwezen om mijn zfs build te bespreken. Sinds alle topics en verhalen van CiPHER over ZFS ben ik zo benieuwd geraakt dat ik zelf ook een servertje wil bouwen. Ik heb iemand zo gek gekregen (lees: dat ga ik binnenkort nog doen) die wel zo'n servertje wilt dat ik ermee kan experimenteren. Ik hoop dus dat ik in het goede topic ben.
Hier wat ik zelf heb gedaan:
# Product Prijs Subtotaal 1 ASRock E350M1 € 55,45 € 55,45 3 Toshiba PA429xE-1HN0, 3TB € 90,88 € 272,64 1 Kingston KVR1333D3N9/8G € 59,- € 59,- Bekijk collectie
Importeer productenTotaal € 387,09
In het ZFS topic staat een basis-build met een onboard AMD proc. Deze was niet meer leverbaar en dus heb ik deze gezocht in de pricewatch. Deze is zelfs nog een dualcore. Ik neem aan dat dit voor een simpele ZFS zonder toeters en bellen voldoende is? De server zal gebruikt worden voor alleen opslag van vakantiekiekjes. Wel is het de bedoeling dat als ik binnenkort ook een servertje heb, we bij elkaar data gaan backupen. Maar ik neem aan dat je daarvoor ook geen powerbak nodig hebt.
Het geheugen heb ik 1 reepje van 8GB gekozen. Geheugen is weer zo duur gewordenIk weet dat ZFS hongerig is naar geheugen, maar geldt dat ook voor een build met 3 schijven?
Bij de harde schijven heb ik gezocht naar de goedkoopste schijf (euro/GB). Bij een Raid-Z krijg je zo effectief 6TB als ik het goed heb, en dat is meer dan genoeg.
Verder moet ik nog een kast, en hier ben ik niet helemaal over uit. Kunnen jullie hier iets zinnigs over zeggen wat een eventuele goede optie is? Een kast met voeding ingebouwd, of losse onderdelen?
Kan het verder nog ergens goedkoper of beter? Prijs is toch wel een belangrijk streven bij dit project. Het liefst zo goedkoop mogelijk, want het hoeft niet razendsnel te zijn. Ik had zelf in mijn hoofd om 150 euro uit te geven exc HDD, maar dat is geloof ik niet goed haalbaar als ik zelf zoek.
Alvast bedankt!
Doorgaans is dit het "basis" setje wat we bijna altijd voorstellen, omdat het een goedkoop, makkelijk uitbreidbaar, voldoende SATA poorten, superzuinig is en de beste performance per Watt en Euro geeft:
Asrock B75Pro3m
Intel Celeron G1610
Geheugen mag je kiezen.
Ik heb dat setje inderdaad langs zien komen. Ik heb daar toen bewust niet voor gekozen omdat:
Het toch 2 tientjes duurder is
Het geen micro itx moederbord is
Dus het is inderdaad zuinig, maar je moet wel iets dieper in de buidel tasten en je krijgt een grotere kast.
(disclaimer: ik typ vanaf mijn telefoon, en ik heb dus niet even mijn statements gecontroleerd. Dit is wat ik me ervan herinner)
Het toch 2 tientjes duurder is
Het geen micro itx moederbord is
Dus het is inderdaad zuinig, maar je moet wel iets dieper in de buidel tasten en je krijgt een grotere kast.
(disclaimer: ik typ vanaf mijn telefoon, en ik heb dus niet even mijn statements gecontroleerd. Dit is wat ik me ervan herinner)
Verwijderd
Ik gebruik daarom dus geen swap en boot van ide ssd voor de veiligheid.
*knip - deze spam mag je voortaan weglaten!
*knip - deze spam mag je voortaan weglaten!
[ Voor 64% gewijzigd door Verwijderd op 07-11-2013 13:24 ]
Als je echt voor kleine bordjes wilt gaan kan je eens kijken naar AvotonPietjebelll schreef op donderdag 07 november 2013 @ 12:49:
Ik heb dat setje inderdaad langs zien komen. Ik heb daar toen bewust niet voor gekozen omdat:
Het toch 2 tientjes duurder is
Het geen micro itx moederbord is
Dus het is inderdaad zuinig, maar je moet wel iets dieper in de buidel tasten en je krijgt een grotere kast.
(disclaimer: ik typ vanaf mijn telefoon, en ik heb dus niet even mijn statements gecontroleerd. Dit is wat ik me ervan herinner)
Zo klein hoeft het natuurlijk ook niet, ik dacht dat mini-itx wel de sweet spot zou zijn. Je moet namelijk ook nog 3 (of meer) harde schijven in de behuizing kwijt kunnen.HyperBart schreef op donderdag 07 november 2013 @ 13:50:
[...]
Als je echt voor kleine bordjes wilt gaan kan je eens kijken naar Avoton. Dat zijn pas coole bordjes
.
Mijn nas met een brazos bordje en 6 harde schijven draait gewoon op een pico psu van 120W met een 80W adapterPietjebelll schreef op woensdag 06 november 2013 @ 16:30:
[...]
Dankjewel voor de info! Een kast zelf maken is voor mij inderdaad geen optie. Voor voedingen heb ik gekeken in de PW, maar ik kom er toch niet helemaal uit omdat de voedingen bij een watt of 300 beginnen. Dan zit je in idle continu in het onzuinige spectrum van de voeding. PicoPSU heb ik wel over gelezen, maar het is voor mij toch nog zeer onbekende materie. Wel las ik dat bij een PicoPSU 3 HDD's toch wel de absolute max is, dus in hoeverre is dat nog handig dan?
Tijdens maximale belasting trekt het systeem ongeveer 60W.
Interessant. Ik ben er zelf over aan het nadenken of ik mijn storage en VM host uit elkaar zal trekken (nu ZFS NAS in een VM). Ik overweeg om 1 SSD pool te maken voor de 'OS disks', en 1 HDD pool voor de VM data disks.FireDrunk schreef op dinsdag 05 november 2013 @ 14:47:
Leuke van reads is dat ze oneindig mogen queuen, waardoor meerdere VM's tegelijkertijd kleine leesacties kunnen sturen naar je filessystem. ZFS is natuurlijk zo slim om al die reads te aggregeren tot 1 (of meerdere) transactie groepen waardoor ze bijna allemaal tegelijk geserveerd worden.
Tuurlijk heb je gelijk voor wat betreft al die caches, maar dat is (meestal) niet waarom VM's traag aanvoelen.
Als al je VM's tegelijk een klein stukje in hun Event log willen schrijven (wat windows machines nogal vaak doen) moeten *alle* VM's wachten tot die ene synced write klaar is. Dit veroorzaakt dus een veel grotere vertraging voor Virtual Machines dan het wat later krijgen van een read.
Dat is wat ik bedoelde met: Je hebt meer aan een ZIL dan veel RAM. Omdat synced writes nooit in RAM gecached worden. (tenzij je een ZIL hebt)
De reden dat een ZIL verbetering in performance oplevert, is geloof ik omdat ZIL anders door de pool zelf gedaan wordt? En HDD's zijn hier niet goed in. Mag ik dan ook veilig aannemen dat een ZIL onzin is als je pool toch al uit SSD's bestaat?
Een ZIL zou dan alleen extra veiligheid bieden? Dit lijkt me overkill voor een SSD pool van 4 disks in RaidZ2?
Een ZIL disk voor de HDD pool zou wel nuttig zijn, ik ga zeker overwegen om daar een ZIL voor te maken.
Voor connectiviteit tussen de NAS en VMware host heb ik een 10Gbase CX4 kaart aangeschaft. Deze is ondersteund door FreeBSD, ik kan nergens goed vinden of de door mij bestelde versie in VMware aan de praat te krijgen is, maar als dit zo is, komt er een 2e voor in de VMware host.
Ik heb al een switch met 4 CX4 poorten en GBICs.
Je praat dan niet over dat een ZIL onzin is, maar dat een SLOG (Seperate Logging device) onzin is. Een ZIL (ZFS Intent Log) heb je altijd, tenzij je deze expliciet uit zet. (vfs.zfs.zil_enable).Extera schreef op vrijdag 08 november 2013 @ 16:17:
[...]
Interessant. Ik ben er zelf over aan het nadenken of ik mijn storage en VM host uit elkaar zal trekken (nu ZFS NAS in een VM). Ik overweeg om 1 SSD pool te maken voor de 'OS disks', en 1 HDD pool voor de VM data disks.
De reden dat een ZIL verbetering in performance oplevert, is geloof ik omdat ZIL anders door de pool zelf gedaan wordt? En HDD's zijn hier niet goed in. Mag ik dan ook veilig aannemen dat een ZIL onzin is als je pool toch al uit SSD's bestaat?
Maar inderdaad, een SLOG is onzinnig, tenzij deze *nog* sneller is dan je reguliere SSD's.
Een SLOG bied niet meer veiligheid dan een ZIL op je pool.Een ZIL zou dan alleen extra veiligheid bieden? Dit lijkt me overkill voor een SSD pool van 4 disks in RaidZ2?
Infiniband is een nogal obscuur protocol wat niet zo makkelijk te configureren is geloof ik (je zit met subnet managers enzo). Maar als het werkt, is het bloedsnel. ESXi ondersteund het wel geloof ik, maar driversupport is maar matig.Een ZIL disk voor de HDD pool zou wel nuttig zijn, ik ga zeker overwegen om daar een ZIL voor te maken.
Voor connectiviteit tussen de NAS en VMware host heb ik een 10Gbase CX4 kaart aangeschaft. Deze is ondersteund door FreeBSD, ik kan nergens goed vinden of de door mij bestelde versie in VMware aan de praat te krijgen is, maar als dit zo is, komt er een 2e voor in de VMware host.
Ik heb al een switch met 4 CX4 poorten en GBICs.
Even niets...
Ik denk dat de vraag meer is, als je een pool bestaande uit SSD's aanbiedt voor het draaien van VM's, is het dan nog zinvol een aparte SSD voor SLOG te hanteren (aangezien de synced writes dan toch al gelijk op SSD's gedaan worden en niet op "trage" hdd's).FireDrunk schreef op vrijdag 08 november 2013 @ 16:28:
[...]
Je praat dan niet over dat een ZIL onzin is, maar dat een SLOG (Seperate Logging device) onzin is. Een ZIL (ZFS Intent Log) heb je altijd, tenzij je deze expliciet uit zet. (vfs.zfs.zil_enable).
Maar inderdaad, een SLOG is onzinnig, tenzij deze *nog* sneller is dan je reguliere SSD's.
[...]
Een SLOG bied niet meer veiligheid dan een ZIL op je pool.
https://pthree.org/2012/1...t-iii-the-zfs-intent-log/
Ik meen in een presentatie rondom ZFS in SmartOS te hebben gezien dat het natte droom scenario (qua performance) is "alles op SSD" (dus je volledige pool bestaat uit SSD's, idealiter ook nog in mirror-groups meen ik).When you read online about people referring to "adding an SSD ZIL to the pool", they are meaning adding an SSD SLOG, of where the ZIL will reside. The ZIL is a subset of the SLOG in this case. The SLOG is the device, the ZIL is data on the device. Further, not all applications take advantage of the ZIL. Applications such as databases (MySQL, PostgreSQL, Oracle), NFS and iSCSI targets do use the ZIL. Typical copying of data around the filesystem will not use it. Lastly, the ZIL is generally never read, except at boot to see if there is a missing transaction. The ZIL is basically "write-only", and is very write-intensive.
http://www.youtube.com/watch?v=A4yrSfaskwI (@5:42mins)
Klopt, dat bedoelde ik. Maar het ging er om dat hij zei "ZIL is onzin" die stelling klopt nooit. ZIL heb je altijd nodig, zelfs met SSD's, je hoeft de ZIL alleen niet op een los device te zetten (SLOG).
Met SSD's alleen heb je inderdaad een leuke array..
Ik heb het eens geprobeerd met 4*Intel X25-M 80GB SSD's en dat ging wel aardig. Het is niet super snel hoor, het is langzamer dan bijvoorbeeld iets als MDADM van Linux. Maar voor ZFS maatstaven is het inderdaad snel.
Ik heb ooit nog eens de droom om 8 stuks Samsung EVO in een pool te stoppen en daar VM's op te draaien. Dat zou inderdaad een leuke speeltuin zijn
Met SSD's alleen heb je inderdaad een leuke array..
Ik heb ooit nog eens de droom om 8 stuks Samsung EVO in een pool te stoppen en daar VM's op te draaien. Dat zou inderdaad een leuke speeltuin zijn
Even niets...
Ook met de all SSD zpool heb je als je ESXi datastore via NFS of iSCSI WCD wilt aanbieden eigenlijk losse SLOG(s) nodig. Waarom? Heel simpel, bij sync writes komt het er op neer om zo SNEL mogelijk deze op NV storage te krijgen. SNEL betekent hier de tijd die het kost om het block data op te slaan in de ZIL en te bevestigen dat het op NV storage staat. SNEL is niet IOPS of THROUGHPUT (MB/sec). SNEL is latency, de tijd die het kost. Pas als ESXi succes heeft terug gekregen van de write wordt de volgende uitgevoerd. De uitdaging is om zo snel "gelukt het staat veilig" terug te roepen naar ESXi.
Waarom dan toch de SLOG erbij, de zpool SSD's zijn toch zo snel? Als je de ZIL op de zpool laat staan krijgen de SSD's en de writes van de ZIL en daarna de data writes over zich heen en eventuele reads. Door de ZIL af te splitsen op een losse SLOG krijg je twee data paden naast elkaar waardoor het meer IOPS kan afhandelen.
Bij het kiezen van een SLOG zijn er maar twee dingen waar je op moet letten en dat is de write latency en of er een supercap oid inzit om gegevens verlies tegen te gaan. Niet kijken naar throughput etc. De allerkleinste SSD is al goed.
Professionals gebruiken maar twee modellen SSD als SLOG, de DDRdrive X1 (4GB) of de sTec zeusram (8GB). De capaciteit is mininiem maar ruim voldoende voor dit doel. Allebei zijn gebaseerd op een low latency ram ontwerp met flash als backup bij stroom uitval.
Is dit alles? Nee, zoals altijd is de werkelijkheid veel ingewikkelder. Streaming sync writes worden weer niet naar de ZIL gestuurd maar worden direct als data weggeschreven naar je zpool. De SLOG wordt dan niet gebruikt. Ik dat veel langskomen, mensen die zich afvragen of waarom hun SLOG onderbenut wordt. Grote streaming writes. Maar als je een installatie doet in een VM dan wordt de SLOG optimaal benut. Als je een grote vShpere farm hebt of veel VDI dan heb je ook een SLOG nodig. Voor iemand die een enkele desktop in een vm heeft staan en daar in zn bluray's gaat zitten kopieren is het voordeel minder groot. Maar het helpt altijd.
Waarom dan toch de SLOG erbij, de zpool SSD's zijn toch zo snel? Als je de ZIL op de zpool laat staan krijgen de SSD's en de writes van de ZIL en daarna de data writes over zich heen en eventuele reads. Door de ZIL af te splitsen op een losse SLOG krijg je twee data paden naast elkaar waardoor het meer IOPS kan afhandelen.
Bij het kiezen van een SLOG zijn er maar twee dingen waar je op moet letten en dat is de write latency en of er een supercap oid inzit om gegevens verlies tegen te gaan. Niet kijken naar throughput etc. De allerkleinste SSD is al goed.
Professionals gebruiken maar twee modellen SSD als SLOG, de DDRdrive X1 (4GB) of de sTec zeusram (8GB). De capaciteit is mininiem maar ruim voldoende voor dit doel. Allebei zijn gebaseerd op een low latency ram ontwerp met flash als backup bij stroom uitval.
Is dit alles? Nee, zoals altijd is de werkelijkheid veel ingewikkelder. Streaming sync writes worden weer niet naar de ZIL gestuurd maar worden direct als data weggeschreven naar je zpool. De SLOG wordt dan niet gebruikt. Ik dat veel langskomen, mensen die zich afvragen of waarom hun SLOG onderbenut wordt. Grote streaming writes. Maar als je een installatie doet in een VM dan wordt de SLOG optimaal benut. Als je een grote vShpere farm hebt of veel VDI dan heb je ook een SLOG nodig. Voor iemand die een enkele desktop in een vm heeft staan en daar in zn bluray's gaat zitten kopieren is het voordeel minder groot. Maar het helpt altijd.
Wat je zegt is allemaal wel waar, maar het verschil is nihil blijkt in de praktijk. Ik heb een 840 Pro als ZIL gehad naast mijn 4*80GB SSD array, en dat scheelde echt niets in iops. De 840 Pro heeft een echt veel lagere write latency dan de 80GB Intel SSD's en toch was het niet sneller.
Zeggen dat professionals DDRdrive's gebruiken is leuk, maar dan snappen ze dus echt niet hoe ZFS werkt. ZFS gaat om betrouwbaarheid, niet om snelheid. Als je een DDRdrive als ZIL gebruikt, kan je in mijn ogen net zo goed ZIL uitzetten...
Die STEC's zijn wel weer geil
Zeggen dat professionals DDRdrive's gebruiken is leuk, maar dan snappen ze dus echt niet hoe ZFS werkt. ZFS gaat om betrouwbaarheid, niet om snelheid. Als je een DDRdrive als ZIL gebruikt, kan je in mijn ogen net zo goed ZIL uitzetten...
Die STEC's zijn wel weer geil
[ Voor 3% gewijzigd door FireDrunk op 09-11-2013 12:44 ]
Even niets...
Hmmmz.
Als het zo ver is zal ik eerst zonder SLOG gaan testen
(met ZIL
)
@ Firedunk, de bestelde kaart is een 10Gbase kaart, met CX4 aansluiting.
Er wordt gebruik gemaakt van een zelfde type bekabeling,als infiniband, maar gelukkig voldoen ze gewoon aan de ethernet standaard.
Als het zo ver is zal ik eerst zonder SLOG gaan testen
@ Firedunk, de bestelde kaart is een 10Gbase kaart, met CX4 aansluiting.
Er wordt gebruik gemaakt van een zelfde type bekabeling,als infiniband, maar gelukkig voldoen ze gewoon aan de ethernet standaard.
Je kan over Infiniband Ethernet sturen ja, maar dezelfde standaard? Dat betwijfel ik...
Even niets...
Zover ik weet kan je die CX4 (SFF external sas zoveel) gebruiken voor netwerk of sas. Tyvves+wiki weten het waarschijnlijk met zekerheid.
[ Voor 200% gewijzigd door analog_ op 09-11-2013 17:37 ]
Het kan zijn dat jij een ander apparaat bedoelt dan ik. Maar ik heb het over deze http://www.ddrdrive.com/ Dat is echt een serieus stukje hardware. Het is ook destijds door SUN getest https://blogs.oracle.com/ahl/entry/ddrdrive LEES, de conclusie vooral even goed. Hier is het alvast:
Dan nog even dit:
Met een X1 kan je 10GE of IPoIB NFS esxi verkeer probleemloos afhandelen.The X1 is a far more targeted solution, and is a compelling option. And if write performance has been a limiting factor in deploying ZFS, the X1 is a good reason to give ZFS another look.
Dan nog even dit:
Ik zeg dat niet alleen, zelfs een vooraanstaand ex sun programmeur schrijft dat dit een goed apparaat. Er zijn overigens veel meer goede reviews. Lees toch eens keer goed voordat je mij of iemand anders voor idoot uitmaakt. Dat je mij niet vertrouwt prima maar ik heb meer vertrouwen in de mening van een SUN DTrace engineer, wiens werk zfs en performance was, dan jouw mening met betrekking tot deze zaken. Als jij net zo'n deftig cv hebt als deze man dan neem ik alles terug. Ik hoop dat het op een misverstand berust maar ik ben er een beetje klaar mee om op regelmatige basis dit soort reacties te krijgen.Zeggen dat professionals DDRdrive's gebruiken is leuk, maar dan snappen ze dus echt niet hoe ZFS werkt. ZFS gaat om betrouwbaarheid, niet om snelheid. Als je een DDRdrive als ZIL gebruikt, kan je in mijn ogen net zo goed ZIL uitzetten...
Hallo allen,
Ik zit vanavond een beetje om me heen te kijken en ik heb het volgende liggen:
2x 2TB harddisks (verschillende merken)
2x 3TB harddisks (exact dezelfde)
Intel DH57JG socket 1156 m-itx moederbord
G6950 2.8Ghz dualcore cpu
2 keer 2GB corsair 1333Mhz ddr3
Wat ik wil bereiken hiermee:
Een server welke veilig mijn data opslaat (mirrored?)
applicaties draaien (website, owncloud, file sharing over het internet, downloading station, media sharing)
de files benaderen vanaf android en PC
freeNAS is denk ik the way to go voor mij
vragen:
Is dit een leuk systeem om mee aan de slag te gaan of kan ik hier beter bijv een media pc van maken, en een andere mobo/CPU combi kopen met meer RAM voor ZFS?
Kunnen 2 verschillende harddisks samen?
Wat is een goeie setup om deze 4 disks veilig samen te laten werken, mocht er iets uitvallen of bestanden beschadigen?
Ben nieuw in de NAS wereld, maar loop al een tijdje met het idee. Alvast bedankt voor input =)
Ik zit vanavond een beetje om me heen te kijken en ik heb het volgende liggen:
2x 2TB harddisks (verschillende merken)
2x 3TB harddisks (exact dezelfde)
Intel DH57JG socket 1156 m-itx moederbord
G6950 2.8Ghz dualcore cpu
2 keer 2GB corsair 1333Mhz ddr3
Wat ik wil bereiken hiermee:
Een server welke veilig mijn data opslaat (mirrored?)
applicaties draaien (website, owncloud, file sharing over het internet, downloading station, media sharing)
de files benaderen vanaf android en PC
freeNAS is denk ik the way to go voor mij
vragen:
Is dit een leuk systeem om mee aan de slag te gaan of kan ik hier beter bijv een media pc van maken, en een andere mobo/CPU combi kopen met meer RAM voor ZFS?
Kunnen 2 verschillende harddisks samen?
Wat is een goeie setup om deze 4 disks veilig samen te laten werken, mocht er iets uitvallen of bestanden beschadigen?
Ben nieuw in de NAS wereld, maar loop al een tijdje met het idee. Alvast bedankt voor input =)
sommige 10GE nics gebruiken dezelfde kabel als bepaalde IB nics net als externe sas poorten, namelijke CX4 kabel met SFF-8470 connectoren. Het is een beetje zeldzaam maar wel een standaard interconnect voor 10GE.analog_ schreef op zaterdag 09 november 2013 @ 17:35:
Zover ik weet kan je die CX4 (SFF external sas zoveel) gebruiken voor netwerk of sas. Tyvves+wiki weten het waarschijnlijk met zekerheid.
Zie ook:
[url="wikipedia 10GE en CX4"]en.wikipedia.org/wiki/10GBASE-CX4[/url]
Ik snap je reactie wel, maar in mijn reactie lezen dat ik iedereen een idioot vind is weer een beetje overtrokkentvwes schreef op zaterdag 09 november 2013 @ 21:54:
Het kan zijn dat jij een ander apparaat bedoelt dan ik. Maar ik heb het over deze http://www.ddrdrive.com/ Dat is echt een serieus stukje hardware. Het is ook destijds door SUN getest https://blogs.oracle.com/ahl/entry/ddrdrive LEES, de conclusie vooral even goed. Hier is het alvast:
[...]
Met een X1 kan je 10GE of IPoIB NFS esxi verkeer probleemloos afhandelen.
Dan nog even dit:
[...]
Ik zeg dat niet alleen, zelfs een vooraanstaand ex sun programmeur schrijft dat dit een goed apparaat. Er zijn overigens veel meer goede reviews. Lees toch eens keer goed voordat je mij of iemand anders voor idoot uitmaakt. Dat je mij niet vertrouwt prima maar ik heb meer vertrouwen in de mening van een SUN DTrace engineer, wiens werk zfs en performance was, dan jouw mening met betrekking tot deze zaken. Als jij net zo'n deftig cv hebt als deze man dan neem ik alles terug. Ik hoop dat het op een misverstand berust maar ik ben er een beetje klaar mee om op regelmatige basis dit soort reacties te krijgen.
Ik had het over deze: http://en.wikipedia.org/wiki/I-RAM
Dat ding van jou is Flash backed, wat het weer geniaal maakt
Ik zou er zelf ook wel een willen, maar $2000 is me toch iets te duur
Even niets...
Even een n00b vraag in dit topic. Ik heb een Sitecom MD-254 NAS te pakken gekregen. Nu heb ik hier 1 WD10EARX schijf (pricewatch: WD Green SATA 6 Gb/s, 1TB) liggen. Hier moet nog een 1TB schijf tegenaan voor RAID 1 (mijn doel, simpel op twee schijven opslaan van gegevens en dit via internet te benaderen. Geen moeilijke dingen als torrents downloaden of FTP servers draaien.)
Nu kwam ik ook de WD10EZRX (pricewatch: WD Green SATA 6 Gb/s, 1TB) tegen. De specificaties zijn identiek volgens tweakers. Kan ik deze twee schijven als RAID zetten of moeten het echt identieke schijven zijn?
Nu kwam ik ook de WD10EZRX (pricewatch: WD Green SATA 6 Gb/s, 1TB) tegen. De specificaties zijn identiek volgens tweakers. Kan ik deze twee schijven als RAID zetten of moeten het echt identieke schijven zijn?
Nikon Z6II + glas, licht en pootjes | MacBook Pro 14" | www.foto-sjoerd.nl
Ik heb een vraagje over geheugen.
Ik heb een DIY NAS met ZFSGuru erop.
Dit is een NAS met 6 schijven (2x WD Green 2TB, 2x WD Green 1TB, 2x WDC 80GB boot).
Deze schijven staan in per grootte in RAID 1. Dus ik heb 3 pools van RAID 1.
Mijn vraag is nu, aangezien ik heb gelezen dat je voor elke schijf een gigabyte geheugen nodig hebt, of dat voor mijn NAS ook moet.
De NAS wordt gebruikt in een huishouden met 2 mensen (mezelf en mijn moeder), wordt gebruikt om muziek, films en ander spul van af te spelen en vaak ook gebruikt om ISO's en VM's op te slaan (let op, ik draai hier geen VM's van af. Niets runt vanaf de NAS).
Ik haal met het kopieëren van een bestandje vaak zo'n 80MB/s maar soms ook nog wel eens 120MB/s.
Alle schijven zitten op de onboard controller en zijn in ZFSGuru in software RAID gezet.
Geldt die regel 'een gigabyte werkgeheugen voor elke schijf' dus bij mij ook?
Verder specs van mijn NAS:
AMD Sempron 140 Single Core @ 2,7Ghz (gemiddeld wordt deze zo'n 28 graden met standaard koeling)
2GB DDR3 Kingston (1x 2GB)
Intel Pro1000/MT netwerkkkaart (onboard is 100mbit)
2x WD Green 2TB
2x WD Green 1TB
2x WDC 80GB PATA
BioStar MCP6P3
HP DX2000 kast
HP DX2000 voeding (ATX 350watt)
Ik heb een DIY NAS met ZFSGuru erop.
Dit is een NAS met 6 schijven (2x WD Green 2TB, 2x WD Green 1TB, 2x WDC 80GB boot).
Deze schijven staan in per grootte in RAID 1. Dus ik heb 3 pools van RAID 1.
Mijn vraag is nu, aangezien ik heb gelezen dat je voor elke schijf een gigabyte geheugen nodig hebt, of dat voor mijn NAS ook moet.
De NAS wordt gebruikt in een huishouden met 2 mensen (mezelf en mijn moeder), wordt gebruikt om muziek, films en ander spul van af te spelen en vaak ook gebruikt om ISO's en VM's op te slaan (let op, ik draai hier geen VM's van af. Niets runt vanaf de NAS).
Ik haal met het kopieëren van een bestandje vaak zo'n 80MB/s maar soms ook nog wel eens 120MB/s.
Alle schijven zitten op de onboard controller en zijn in ZFSGuru in software RAID gezet.
Geldt die regel 'een gigabyte werkgeheugen voor elke schijf' dus bij mij ook?
Verder specs van mijn NAS:
AMD Sempron 140 Single Core @ 2,7Ghz (gemiddeld wordt deze zo'n 28 graden met standaard koeling)
2GB DDR3 Kingston (1x 2GB)
Intel Pro1000/MT netwerkkkaart (onboard is 100mbit)
2x WD Green 2TB
2x WD Green 1TB
2x WDC 80GB PATA
BioStar MCP6P3
HP DX2000 kast
HP DX2000 voeding (ATX 350watt)
Plezant. Krokant. Galant.
Volgens mij geldt het voor enterprise omgevingen: voor elke TB aan opslag 1GB ramgeheugen.
Voor thuisgebruik is het echt dikke overkill in mijn ogen. Je trekt in sommige situaties al een Gbit lan vol, meer ram heeft hierbij geen toegevoegde waarde.
Voor thuisgebruik is het echt dikke overkill in mijn ogen. Je trekt in sommige situaties al een Gbit lan vol, meer ram heeft hierbij geen toegevoegde waarde.
Als ze op de supported disk lijst staan van Sitecom zal het geen probleem zijn denk ik.Sjoerdfoto schreef op zaterdag 09 november 2013 @ 23:53:
Even een n00b vraag in dit topic. Ik heb een Sitecom MD-254 NAS te pakken gekregen. Nu heb ik hier 1 WD10EARX schijf (pricewatch: WD Green SATA 6 Gb/s, 1TB) liggen. Hier moet nog een 1TB schijf tegenaan voor RAID 1 (mijn doel, simpel op twee schijven opslaan van gegevens en dit via internet te benaderen. Geen moeilijke dingen als torrents downloaden of FTP servers draaien.)
Nu kwam ik ook de WD10EZRX (pricewatch: WD Green SATA 6 Gb/s, 1TB) tegen. De specificaties zijn identiek volgens tweakers. Kan ik deze twee schijven als RAID zetten of moeten het echt identieke schijven zijn?
Waar lees jij voor elke schijf 1GB geheugen? Dat is helemaal niet waar. De *enterprise* regel is 1GB RAM per 1TB storage, maar dat geld helemaal niet voor thuisgebruik. Een redelijk normale array (3*4, 4*4, 6*4, 10*2) werkt allemaal prima met 8GB geheugen. 4GB of minder wil je liever niet want dan staat perfetching default uit (en aanzetten kan je geheugen flink belasten).Tompecht schreef op zondag 10 november 2013 @ 12:18:
Ik heb een vraagje over geheugen.
Ik heb een DIY NAS met ZFSGuru erop.
Dit is een NAS met 6 schijven (2x WD Green 2TB, 2x WD Green 1TB, 2x WDC 80GB boot).
Deze schijven staan in per grootte in RAID 1. Dus ik heb 3 pools van RAID 1.
Mijn vraag is nu, aangezien ik heb gelezen dat je voor elke schijf een gigabyte geheugen nodig hebt, of dat voor mijn NAS ook moet.
De NAS wordt gebruikt in een huishouden met 2 mensen (mezelf en mijn moeder), wordt gebruikt om muziek, films en ander spul van af te spelen en vaak ook gebruikt om ISO's en VM's op te slaan (let op, ik draai hier geen VM's van af. Niets runt vanaf de NAS).
Ik haal met het kopieëren van een bestandje vaak zo'n 80MB/s maar soms ook nog wel eens 120MB/s.
Alle schijven zitten op de onboard controller en zijn in ZFSGuru in software RAID gezet.
Geldt die regel 'een gigabyte werkgeheugen voor elke schijf' dus bij mij ook?
Verder specs van mijn NAS:
AMD Sempron 140 Single Core @ 2,7Ghz (gemiddeld wordt deze zo'n 28 graden met standaard koeling)
2GB DDR3 Kingston (1x 2GB)
Intel Pro1000/MT netwerkkkaart (onboard is 100mbit)
2x WD Green 2TB
2x WD Green 1TB
2x WDC 80GB PATA
BioStar MCP6P3
HP DX2000 kast
HP DX2000 voeding (ATX 350watt)
Meer geheugen is altijd beter, want de caches zullen groter zijn, en met meer geheugen hou je ook nog wat ruimte over voor applicaties op je server zelf. ZFS is geheugen hongerig, maar voor thuisgebruik zal je het verschil tussen 16 en 32GB geheugen niet echt meer gaan merken.
[ Voor 4% gewijzigd door FireDrunk op 10-11-2013 12:26 ]
Even niets...
Dan heb ik dit verkeerd gelezen, maar ik vroeg het me alleen af.Waar lees jij voor elke schijf 1GB geheugen? Dat is helemaal niet waar. De *enterprise* regel is 1GB RAM per 1TB storage, maar dat geld helemaal niet voor thuisgebruik. Een redelijk normale array (3*4, 4*4, 6*4, 10*2) werkt allemaal prima met 8GB geheugen. 4GB of minder wil je liever niet want dan staat perfetching default uit (en aanzetten kan je geheugen flink belasten).
Meer geheugen is altijd beter, want de caches zullen groter zijn, en met meer geheugen hou je ook nog wat ruimte over voor applicaties op je server zelf. ZFS is geheugen hongerig, maar voor thuisgebruik zal je het verschil tussen 16 en 32GB geheugen niet echt meer gaan merken.
Bedankt voor jullie reacties!
Plezant. Krokant. Galant.
De vuistregel is 1GB RAM per 1TB schijfruimte als je deduplication ingeschakeld hebt.
toch?
toch?
"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!
De twee types mixen zou gewoon moeten werken.Sjoerdfoto schreef op zaterdag 09 november 2013 @ 23:53:
Even een n00b vraag in dit topic. Ik heb een Sitecom MD-254 NAS te pakken gekregen. Nu heb ik hier 1 WD10EARX schijf (pricewatch: WD Green SATA 6 Gb/s, 1TB) liggen. Hier moet nog een 1TB schijf tegenaan voor RAID 1 (mijn doel, simpel op twee schijven opslaan van gegevens en dit via internet te benaderen. Geen moeilijke dingen als torrents downloaden of FTP servers draaien.)
Nu kwam ik ook de WD10EZRX (pricewatch: WD Green SATA 6 Gb/s, 1TB) tegen. De specificaties zijn identiek volgens tweakers. Kan ik deze twee schijven als RAID zetten of moeten het echt identieke schijven zijn?
Ga je ze echt aan internet hangen of bedoel je je thuis netwerk?
Zelf heb ik twee WD20EARS-schijven en vier WD20EZRX-schijven in één ZFS pool in RAID-Z2, geen issues. Zolang de specificaties in de buurt van elkaar zijn (dus geen 7200rpm vs 5400rpm bv.) zal je er nagenoeg niets van merken.
Handig is wel om te zien of ze allemaal dezelfde head parking delay hebben (via WDIDLE3 tool; staat op UBCD), zelf heb ik ze allemaal op de max 300 seconden gezet.
Handig is wel om te zien of ze allemaal dezelfde head parking delay hebben (via WDIDLE3 tool; staat op UBCD), zelf heb ik ze allemaal op de max 300 seconden gezet.
Hallo,
Wij krijgen binnenkort een glasvezel aansluiting op ons kantoor. Nu wil ik een harde schijf/harde schijven beschikbaar gaan maken voor ons bedrijfsnetwerk en voor buitenaf. Ik moet dus toegang kunnen krijgen op kantoor en vanuit thuis etc.
Hoe kan ik dit het beste doen? Een server opzetten? Harde schijf aan mijn router koppelen?
Wij krijgen binnenkort een glasvezel aansluiting op ons kantoor. Nu wil ik een harde schijf/harde schijven beschikbaar gaan maken voor ons bedrijfsnetwerk en voor buitenaf. Ik moet dus toegang kunnen krijgen op kantoor en vanuit thuis etc.
Hoe kan ik dit het beste doen? Een server opzetten? Harde schijf aan mijn router koppelen?
Je moet vooral héél goed nadenken wat er op die schijf/schijven komt te staan, en of de wereld dat mag zien. Ik vermoed dat je al een Windows server of iets dergelijks hebt staan? Zoja, dan ben ik erg geneigd om te adviseren om de schijven daarin te (laten) plaatsen, en die server alles te laten regelen. Toegang van buitenaf zou ik persoonlijk via een VPN doen, zodat je zeker weet dat er alleen mensen erbij kunnen die dit ook echt mogen.
Ik denk echter dat dit al heel gauw een eigen topic verdient
Ik denk echter dat dit al heel gauw een eigen topic verdient
Dat topic zal ook heel snel dichtgemept worden door gebrek aan inzet. Heb je geen IT infrastructuur op kantoor al staan? Zo niet is het mogelijk het moment om eens te evalueren of een server opstelling voor meer dan alleen opslag de moeite waard is. Anders bouw je gewoon het standaard receptje, pentium processortje met intel b85 moederbord, 8gb ram, seasonic g360 en wat disks.
Dus als ik voor de zekerheid een picoPSU van 150 watt neem, zou dat genoeg moeten zijn? Hoe werk je dat dan netjes weg als je er geen grote voeding in stopt?webbier schreef op donderdag 07 november 2013 @ 20:45:
[...]
Mijn nas met een brazos bordje en 6 harde schijven draait gewoon op een pico psu van 120W met een 80W adapterAlleen tijdens opstarten trekt hij een beetje hoog vermogen, maar daarna is er niets aan de hand.
Tijdens maximale belasting trekt het systeem ongeveer 60W.
Ik zit al een paar dagen met een irritant probleem...
Setup: via ESXI en passthrough een M1015 in IT mode aan een ZFSguru machine toebedeeld. Aan de M1015 hangen 5 samsung HD's van verschillende grootte, wel zelfde serie.
Als ik een pool share via NFS en probeer grote bestanden te schrijven vanuit een Ubuntu VM op die nfs share loopt de kopieer actie na verloop van tijd vast. ZFSguru interface loopt dan helemaal vast. Beide machines werken pas weer na reboot van de VM's.
Zelfde situatie doet zich trouwens ook voor met FreeNas.
Ik heb de disks getest met een SMART longtest; twee schijven hebben bad sectors maar komen er wel door heen. Ook getest met één goede schijf in een pool; zelfde resultaat.
Next: m1015 in een andere pcie slot; zelfde problemen.
Kan de controller kapot zijn?
Setup: via ESXI en passthrough een M1015 in IT mode aan een ZFSguru machine toebedeeld. Aan de M1015 hangen 5 samsung HD's van verschillende grootte, wel zelfde serie.
Als ik een pool share via NFS en probeer grote bestanden te schrijven vanuit een Ubuntu VM op die nfs share loopt de kopieer actie na verloop van tijd vast. ZFSguru interface loopt dan helemaal vast. Beide machines werken pas weer na reboot van de VM's.
Zelfde situatie doet zich trouwens ook voor met FreeNas.
Ik heb de disks getest met een SMART longtest; twee schijven hebben bad sectors maar komen er wel door heen. Ook getest met één goede schijf in een pool; zelfde resultaat.
Next: m1015 in een andere pcie slot; zelfde problemen.
Kan de controller kapot zijn?
Hoeveel RAM heeft de VM?
Even niets...
nu 8GBFireDrunk schreef op dinsdag 12 november 2013 @ 11:06:
Hoeveel RAM heeft de VM?
Overige setup is trouwens:
X10slm+-f
xeon e1230v3
32GB ECC
Samsung SSD esxi datastore
m1015
5* samsung HDD
Wat zegt /var/log/messages?
Even niets...
freenas heeft niks bijzonders in de log staanFireDrunk schreef op dinsdag 12 november 2013 @ 11:16:
Wat zegt /var/log/messages?
grep -r -i error /var/log
Levert dat iets op?
Even niets...
Nope,FireDrunk schreef op dinsdag 12 november 2013 @ 12:36:
grep -r -i error /var/log
Levert dat iets op?
Ik heb nu een smb share aangemaakt in freenas en die gemount in ubuntu, die doet het wel zonder vastlopers. Dus ik kan nu de defecte m1015 wel wegstrepen... hopelijk
Nou, zo snel gaat het allemaal niet. Als een VM vast loopt zonder enige foutmelding zou ik even goed gaan kijken in ESXi of er daar misschien fouten voorkomen. (Ook onder ESXi kan je kijken in /var/log)
Even niets...
@gassiepaart,
Heb je een energie/watt meter?
Zo ja zou je wat gegevens omtrend verbruik willen posten?
Welke voeding zit er in?
Extra fans?
Welke soort geheugen?
Welke harddisken?
Wil je het verbruik graag meten met alles nics aangesloten en de disk niet in een powersafe mode.
Ik benieuwd naar de volgende waarden:
-in bios
-in esxi
-indien mogelijk zonder de m1015 en 5 disken
Bijvoorbaat dank
Heb je een energie/watt meter?
Zo ja zou je wat gegevens omtrend verbruik willen posten?
Welke voeding zit er in?
Extra fans?
Welke soort geheugen?
Welke harddisken?
Wil je het verbruik graag meten met alles nics aangesloten en de disk niet in een powersafe mode.
Ik benieuwd naar de volgende waarden:
-in bios
-in esxi
-indien mogelijk zonder de m1015 en 5 disken
Bijvoorbaat dank
Ik zal vanavond eens nieuwe waarden posten in het zuinige esxi topic, waar je al wat eerdere waarden kan vindentvwes schreef op dinsdag 12 november 2013 @ 13:36:
@gassiepaart,
Heb je een energie/watt meter?
Zo ja zou je wat gegevens omtrend verbruik willen posten?
Welke voeding zit er in?
Extra fans?
Welke soort geheugen?
Welke harddisken?
Wil je het verbruik graag meten met alles nics aangesloten en de disk niet in een powersafe mode.
Ik benieuwd naar de volgende waarden:
-in bios
-in esxi
-indien mogelijk zonder de m1015 en 5 disken
Bijvoorbaat dank
[ Voor 5% gewijzigd door gassiepaart op 12-11-2013 13:48 . Reden: link ]
Ik heb bij DAA advies gevraagd voor een zelfbouw NAS.
Misschien was het beter om dit hier te vragen?
Misschien was het beter om dit hier te vragen?
Reuze bedank.
gassiepaart in "Zuinige ESXi Server"
die 35watt in je post hierboven is dat in de bios? En met hoeveel nics aangesloten?
gassiepaart in "Zuinige ESXi Server"
die 35watt in je post hierboven is dat in de bios? En met hoeveel nics aangesloten?
Dat was op de voltmeter, met 1 nic en een IPMI nic aangesloten, zonder harddisk, maar wel met SSDtvwes schreef op dinsdag 12 november 2013 @ 14:07:
Reuze bedank.
gassiepaart in "Zuinige ESXi Server"
die 35watt in je post hierboven is dat in de bios? En met hoeveel nics aangesloten?
Que? Ik vroeg of je de meting had genomen terwijl het blauwe bios scherm open stond. En jij anwoordt met "op de voltmeter"??
Die 35watt is niet super maar ook niet onredelijk. Vooral de 5 watt van de ipmi is best duur, maar gemak dient de mens. En ipmi is heel veel gemak.
Nog een specifieke reden waarom je voor die voeding hebt gekozen?
Die 35watt is niet super maar ook niet onredelijk. Vooral de 5 watt van de ipmi is best duur, maar gemak dient de mens. En ipmi is heel veel gemak.
Nog een specifieke reden waarom je voor die voeding hebt gekozen?
Ohtvwes schreef op dinsdag 12 november 2013 @ 14:39:
Que? Ik vroeg of je de meting had genomen terwijl het blauwe bios scherm open stond. En jij anwoordt met "op de voltmeter"??
Die 35watt is niet super maar ook niet onredelijk. Vooral de 5 watt van de ipmi is best duur, maar gemak dient de mens. En ipmi is heel veel gemak.
Nog een specifieke reden waarom je voor die voeding hebt gekozen?


Die voeding had ik initieel gekocht voor een andere setup, die vooral stil moest zijn.
Oh ook nog belangrijk welke energiemeter heb je?
van de Lidl, ik zal hem eens ijken met een gloeilamptvwes schreef op dinsdag 12 november 2013 @ 15:03:
Oh ook nog belangrijk welke energiemeter heb je?
Dat werkt niet, een meter is goed, of hij is het niet, hij heeft geen vaste afwijking... En er is nog zoiets als Power Factor en TrueRMS meten enzo.. Maar goed, daar kan Mux je nog wel wat over vertellen
Even niets...
Hier had ik het laatst op een ander forum ook een discussie over gezien. Het lijkt dat de meeste energiemeters niet accuraat zijn, maar in welke zin ? Dat het niet 100% accuraat is kan ik begrijpen maar als het 5% afwijkt, daar kunnen we wel mee leven denk ik.
Ik vraag me dan af waarom een energiemeter zoveel moeite kan hebben met het meten van het opgenomen vermogen.
Ik vraag me dan af waarom een energiemeter zoveel moeite kan hebben met het meten van het opgenomen vermogen.
het is een "silvercrest"gassiepaart schreef op dinsdag 12 november 2013 @ 15:12:
[...]
van de Lidl, ik zal hem eens ijken met een gloeilamp
Nog even het verbruik gemeten met alleen de cpu-fan, geheugen en ssd:
- in het bios: 40 watt
- idle geboot in esxi: 21 watt
Top, bedankt! Nu nog een WD10EARX of WD10EZRX zien te regelen. De verkoper hier op tweakers reageert nietPhuncz schreef op zondag 10 november 2013 @ 19:00:
Zelf heb ik twee WD20EARS-schijven en vier WD20EZRX-schijven in één ZFS pool in RAID-Z2, geen issues. Zolang de specificaties in de buurt van elkaar zijn (dus geen 7200rpm vs 5400rpm bv.) zal je er nagenoeg niets van merken.
Handig is wel om te zien of ze allemaal dezelfde head parking delay hebben (via WDIDLE3 tool; staat op UBCD), zelf heb ik ze allemaal op de max 300 seconden gezet.

Nikon Z6II + glas, licht en pootjes | MacBook Pro 14" | www.foto-sjoerd.nl
Ah dat is deftig, 21 watt. Welke versie van ESXi? Ik weet niet of je meter wat onnauwkeuriger is bij die lage vermogens.gassiepaart schreef op dinsdag 12 november 2013 @ 20:48:
[...]
het is een "silvercrest"
Nog even het verbruik gemeten met alleen de cpu-fan, geheugen en ssd:
- in het bios: 40 watt
- idle geboot in esxi: 21 watt
Ik ben benieuwd naar de andere waarden. (met disken etc)
Vergeet niet tzt een keer een totaal overzichtje te maken van alle metingen en de configuratie met versie nummers voorzover van toepassing.
Nogmaals erg bedankt
Erg bedankt
Ik snap niet helemaal wat je bedoelt, maar ik ga toch een poging doenPietjebelll schreef op zondag 10 november 2013 @ 22:52:
[...]
Dus als ik voor de zekerheid een picoPSU van 150 watt neem, zou dat genoeg moeten zijn? Hoe werk je dat dan netjes weg als je er geen grote voeding in stopt?
Bij de pico psu zit een bracket die je in een pci slot aan de achterkant van je kast kunt doen, daar gaat de stekker van de adapter in. Het gat wat nu in mijn kast zit (waar de atx voeding zou moeten komen) heb ik dichtgemaakt met een plaatje kunststof. Voor de 4-pin stekker van het moederbord heb ik een verloopje van molex naar 4-pin gebruikt. De 6 schijven worden gevoed vanaf de enige sata power connector van de pico psu in combinatie met een verloopkabeltje van 1 naar 6 sata voeding van rivier (https://ri-vier.eu/drive-...le-p-208.html?cPath=18_65).
De 6 disks zijn allemaal data disks die downspinnen wanneer ze idle zijn. OS wordt gedraaid vanaf een USB stick.
Weer wat vraagjes...
Ik heb nu 2x 1TB WD10EARX schijven in RAID 1 staan. In principe werkt het intern, d.w.z. Ik kan mappen maken en hierop bestanden plaatsen en lezen.
Ik zit echter met de volgende dingen/vragen:
- Als ik de NAS een poosje niet gebruik, blijft hij dan altijd draaien (de schijven) of gaan ze vanzelf op een soort stand by modus?
- De lees/schrijf snelheid is ontzettend traag. 200gb schrijven duurt geschat "2 dagen". Dat gaan we mooi niet doen dus. Ook als ik wat foto's wil bekijken op mijn pc vanaf de NAS dan duurt het überhaupt al lang voordat ik door alle folders heengeworsteld ben, en voorvertoning van de foto duurt ook nog een eeuwigheid.
Mijn netwerk/systeemspecs:
MacBook Pro Intel core 2 Duo - mid 2010
8 GB RAM - 256GB SSD + 320GB HDD
NAS: Sitecom MD-254
Router 1 (Aansluiting internet): Sitecom N300 X4
Router 2 (Accespoint): Sitecom N600 X5 (hierop is de NAS direct aangesloten en heeft IP adres 192.168.0.106 (statisch).
Netwerk: UPC alles in 1, 120mb/s.
vraag 3:
- Hoe kan ik de bestanden nu van buitenaf benaderen? Is dat simpelweg door mijn laptop te gebruiken op een netwerk ergens (op school, op werk etc..), en dan een verbind met server te doen? Welk adres? Wat moet ik instellen op mijn router? Port forwarding? En wat op de NAS? Ik snap er niks van, heb vanalles geprobeerd.
Alvast bedankt voor de moeite!
Ik heb nu 2x 1TB WD10EARX schijven in RAID 1 staan. In principe werkt het intern, d.w.z. Ik kan mappen maken en hierop bestanden plaatsen en lezen.
Ik zit echter met de volgende dingen/vragen:
- Als ik de NAS een poosje niet gebruik, blijft hij dan altijd draaien (de schijven) of gaan ze vanzelf op een soort stand by modus?
- De lees/schrijf snelheid is ontzettend traag. 200gb schrijven duurt geschat "2 dagen". Dat gaan we mooi niet doen dus. Ook als ik wat foto's wil bekijken op mijn pc vanaf de NAS dan duurt het überhaupt al lang voordat ik door alle folders heengeworsteld ben, en voorvertoning van de foto duurt ook nog een eeuwigheid.
Mijn netwerk/systeemspecs:
MacBook Pro Intel core 2 Duo - mid 2010
8 GB RAM - 256GB SSD + 320GB HDD
NAS: Sitecom MD-254
Router 1 (Aansluiting internet): Sitecom N300 X4
Router 2 (Accespoint): Sitecom N600 X5 (hierop is de NAS direct aangesloten en heeft IP adres 192.168.0.106 (statisch).
Netwerk: UPC alles in 1, 120mb/s.
vraag 3:
- Hoe kan ik de bestanden nu van buitenaf benaderen? Is dat simpelweg door mijn laptop te gebruiken op een netwerk ergens (op school, op werk etc..), en dan een verbind met server te doen? Welk adres? Wat moet ik instellen op mijn router? Port forwarding? En wat op de NAS? Ik snap er niks van, heb vanalles geprobeerd.
Alvast bedankt voor de moeite!
Nikon Z6II + glas, licht en pootjes | MacBook Pro 14" | www.foto-sjoerd.nl
Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.