Verwijderd

Sleepie schreef op woensdag 15 juni 2011 @ 15:06:
[...]

Dat is precies de reden waarom ik nog zit te twijfelen om Ubuntu op een USB stick te installeren.
In principe is een 16GB USB stick natuurlijk meer dan genoeg voor een Ubuntu Server installatie, op de X8SIL-F kun je het stickje ook nog eens direct op het moederbord prikken, da's allemaal prima.
Maar hoe lang gaat zo'n stickje het volhouden met alle logging schrijfacties van een OS (en dingen als sabnzbd, couchpotato en sickbeard loggen ook nog wel wat denk ik).

Heeft iemand hier uberhaupt ervaringen hiermee (OS op USB of CF dus)?
En net als borroz wacht ook ik nog steeds op onderdelen door mijn foutieve geheugen-bestelling
zag net deze 16 GB 'snelle stick : ADATA Superior S102 16GB

zou die geschikt zijn als boot'disk :?

  • YaaD
  • Registratie: April 2005
  • Laatst online: 16:06
Verwijderd schreef op woensdag 15 juni 2011 @ 15:08:
[...]


zag net deze 16 GB 'snelle stick : ADATA Superior S102 16GB

zou die geschikt zijn als boot'disk :?
Levenslange garantie, 16GB en USB. Als je niet iedere dag gaat rebooten moet dat toch prima kunnen. Het is een enkele keer het OS schrijven. Misschien wat logging en daar blijft het bij :)

bl44t


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:45
YaaD schreef op woensdag 15 juni 2011 @ 15:16:
[...]


Levenslange garantie, 16GB en USB. Als je niet iedere dag gaat rebooten moet dat toch prima kunnen. Het is een enkele keer het OS schrijven. Misschien wat logging en daar blijft het bij :)
De vraag is dus eigenlijk hoeveel precies "wat logging" nu is en hoe lang zo'n USB stick dat volhoudt ;)

Ik had inderdaad ook gelet op snelheid en daarom deze besteld, juist vanwege de snelheid inderdaad (30 MB/s lezen / 20 MB/s schrijven)
http://azerty.nl/producte...usb-2-0-zwart-oranje.html

[ Voor 43% gewijzigd door Sleepie op 15-06-2011 15:17 ]


  • zzattack
  • Registratie: Juli 2008
  • Laatst online: 25-12 11:11
Booten van USB blijft drama. Ben je eenmaal geboot, duurt het nog een minuut voordat firefox start. Absoluut een afrader om vanaf een USB stick te booten en vervolgens een soepele UI te verwachten.

  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 19-12 16:48

iMars

Full time prutser

zzattack schreef op woensdag 15 juni 2011 @ 15:17:
Booten van USB blijft drama. Ben je eenmaal geboot, duurt het nog een minuut voordat firefox start. Absoluut een afrader om vanaf een USB stick te booten en vervolgens een soepele UI te verwachten.
Booten is idd een drama, vandaar dat ik een SSD heb genomen (boot nu in enkele seconde).
Aan de andere kant, als het om een server installatie gaat zonder gui, zal het wel los lopen.
Je boot ook niet elke dag neem ik aan ;)

Koop hier mijn P1 reader :)


  • brid
  • Registratie: Januari 2001
  • Laatst online: 19-11 18:24

brid

Onze excuses voor het ongemak

USB is te doen, met een erg kale install, zodra als er te veel schrijf/lees akties zijn is het onwerkbaar.

1 keer een op een cheap-ass 16Gb stick debian server geinstalleerd, ging prima totdat ik onder webadmin een logging plugin installeerde die alles in een db bijhield, dat was crash boem :D en opstarten is inderdaad erg traag.

DIY NAS, Hoofd PC
Unchain your pc/laptop, buy a SSD!!!!!


Verwijderd

gr8-jen schreef op woensdag 15 juni 2011 @ 15:06:
[...]
ik heb al is een boot USB gemaakt en dat werkte best.
met freenas en dergelijke kan het allemaal vanaf een USB gestart worden.
Dat is iets heel anders, omdat FreeNAS niet continu kleine writes doet op je USB stick maar één grote file leest en een memory filesystem gebruikt voor de kleine writes. Je OS disk is dan dus een RAM disk en je USB stick wordt read-only gebruikt behalve voor een config file.

Als je een snelle USB stick voor OS disk wilt gebruiken kun je de Sandforce USB3 stick proberen van Super Talent:
nieuws: Super Talent rust usb 3.0-stick uit met SandForce SF-1222-controller

Ook al kan die met 35MB/s schrijven de random I/O prestaties zullen véle malen beter zijn dan unmanaged flash. Normaal flash kan alleen grote bestanden snel lezen en schrijven; maar is extreem traag voor kleine writes. 4 kilobyte schrijven kan langer dan een seconde duren. Dat is logisch als je de beperkingen van NAND kent en het gebrek van een intelligente controller die aan write remapping doet. Deze USB stick heeft wel zo'n controller en is daarom een echte SSD met USB3 interface.
Verwijderd schreef op woensdag 15 juni 2011 @ 15:08:
zag net deze 16 GB 'snelle stick : ADATA Superior S102 16GB
zou die geschikt zijn als boot'disk :?
Nee, zie boven.
YaaD schreef op woensdag 15 juni 2011 @ 15:16:
[...]
Levenslange garantie, 16GB en USB. Als je niet iedere dag gaat rebooten moet dat toch prima kunnen. Het is een enkele keer het OS schrijven. Misschien wat logging en daar blijft het bij :)
Rebooten heeft er niets mee te maken; gaat om de random writes tijdens gebruik. Normaal unmanaged flash is hier bijzonder ongeschikt voor.

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12 11:37

DJ-Visto

Aye aye, sir!

USB in een ESXi doos is bijna de standaard trouwens :)

  • Nextron
  • Registratie: Maart 2005
  • Laatst online: 18:47

Nextron

Ik weet dat ik niets weet

In bedrijfsomgevingen waar na het booten wordt overgegaan op iSCSI storage zal dat ook weinig schijfacties opleveren. Bij thuisgebruik heb je al snel kans dat de ESXi de iSCSI zelf is/draait, dan is een SSD misschien handiger.

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12 11:37

DJ-Visto

Aye aye, sir!

Nextron schreef op woensdag 15 juni 2011 @ 19:40:
In bedrijfsomgevingen waar na het booten wordt overgegaan op iSCSI storage zal dat ook weinig schijfacties opleveren. Bij thuisgebruik heb je al snel kans dat de ESXi de iSCSI zelf is/draait, dan is een SSD misschien handiger.
ESXi is is slim, ESXi boot er alleen vanaf, de rest douwt hij in het ram geheugen :)

  • YaaD
  • Registratie: April 2005
  • Laatst online: 16:06
[...]

Rebooten heeft er niets mee te maken; gaat om de random writes tijdens gebruik. Normaal unmanaged flash is hier bijzonder ongeschikt voor.
Het ging hierbij meer om het langzame starten van USB :) niet zozeer de random writes :)

bl44t


Verwijderd

Waarom zou je in plaats van USB niet gewoon een 10tje duurdere 8GB SSD aanschaffen? pricewatch: Kingston SSDNow S100 SS100S2/8G 8GB (90MB/s read, 30MB/s write) En als je meer ruimte en/of leessnelheid wilt deze pricewatch: Kingston SSDNow S100 SS100S2/16G 16GB (230MB/s read, 75MB/s write).

[ Voor 6% gewijzigd door Verwijderd op 17-06-2011 02:11 ]


Verwijderd

Nouja misschien omdat je je mooie SATA poorten vrij wilt houden voor data schijven. En liever voor 5 euro een USB stickje voor een budget server. Maar verder wel aardig alternatief. :)

[ Voor 37% gewijzigd door Verwijderd op 17-06-2011 02:03 ]


  • gr8-jen
  • Registratie: Juni 2011
  • Laatst online: 17:42
zie bovenstaand ;)

Voor € 15 heb je blijkbaar ook al een 2 ports SATA 300 controller (PCI-e 1X)
vanavond even kijken of het een beetje werkt en of ik die HDD even kan overprikken als deze even weigerd.
En dan wordt het wel SSD

WP: ME SUZ-SWM80VA + ERST20D-VM2D || PV: 4500Wp ZWW || BENG, Rc6 rondom, tripple glas, WTW, 165m2 verwarmd || Gasloos sinds sep 2023


  • tbusquet
  • Registratie: Februari 2000
  • Laatst online: 23-12 16:17
iMars schreef op woensdag 15 juni 2011 @ 09:25:
[...]

Zodra ik de schijven heb, ga ik het allicht ff testen en kijken hoe het werkt. Maar ik las snelheden van 50MB/sm terwijl ik liever rond de 100MB/s zit ;)
Ik draai RaidZ1 met 8 2TB schijven van WD EARS (beruchte 4k schijven). En RaidZ1 met 4x 1.5TB en 1x 2TB. Beide arrays trekken mijn dual gigabit met LACP volledig vol ;) Dus performance is best goed als je een beetje tweaked ;) Als ik de schijven laat scrubben in de server (chkdsk voor ZFS). Dan zie je in de I/O stats dat de arrays op zo'n 280MB/S draaien.

"What are you doing ?" "Filming this dead bird." "Why ?" "Because it's beautiful." Gratis mij quoten is verleden tijd, iedere quote van mij kost vanaf nu €1,79 excl. 19% btw ©


  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 19-12 16:48

iMars

Full time prutser

tbusquet schreef op vrijdag 17 juni 2011 @ 14:03:
[...]


Ik draai RaidZ1 met 8 2TB schijven van WD EARS (beruchte 4k schijven). En RaidZ1 met 4x 1.5TB en 1x 2TB. Beide arrays trekken mijn dual gigabit met LACP volledig vol ;) Dus performance is best goed als je een beetje tweaked ;) Als ik de schijven laat scrubben in de server (chkdsk voor ZFS). Dan zie je in de I/O stats dat de arrays op zo'n 280MB/S draaien.
Een Atom D525 (dual core 1.8 met 2x 2GB ram) is dat voldoende voor 4x 2TB in RaidZ1 (6TB effectief als ik het goed heb). Er is toch een vuistregel: 1GB voor elk TB aan data?

Op wat voor OS draai jij ZFS?

Koop hier mijn P1 reader :)

1GB RAM voor 1TB aan data is de enterprise vuistregel, voor thuis zou het niet (zoveel) uit moeten maken.

Even niets...


Verwijderd

FreeBSD met 4GiB RAM zul je moeten tweaken of je snelheid is duidelijk lager dan 8GiB (wat overigens niet kan met Atom platform; 4GiB is de max!). Voor Solaris platforms maakt het veel minder uit; zelfs bij 2 gig geheugen werkt prefetch daar automatisch zonder prefetch. Bij FreeBSD heb je meer dan 6GiB RAM nodig om prefetch standaard ingeschakeld te hebben. Ga je voor FreeBSD/FreeNAS dan zou ik een ander bord overwegen zoals Zacate bordje (nu 6x SATA leverbaar bij Azerty) en 2 reepjes van 4GiB = 8GiB DDR3. Kost je iets meer dan 5 tientjes tegenwoordig.

De vuistregel 1GB per schijf is maar heel ruw, het gaat in feite om dat de hoeveelheid RAM en de totale snelheid van je pool/vdev in verhouding staat. Een pool die 2GB/s kan doen zal ernstig beperkt worden door 4GB RAM (minder dan 0.5 sec buffer); een pool die bij 400MB/s ophoudt kan 4GB RAM al een heel redelijke hoeveelheid zijn waarbij 8GB maar 10 of 20% extra performance geeft.

Wel duidelijk is dat ZFS performance erg afhankelijk is van de hoeveelheid geheugen; veel meer dan andere factoren zoals CPU performance of de snelheid van het geheugen.

  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 19-12 16:48

iMars

Full time prutser

Neh, het boardje heb ik al. En daarmee wil ik het doen. Als ZFS er niet op kan (en ik blijf bij Linux) wordt het softraid ;)

Koop hier mijn P1 reader :)


Verwijderd

Op Linux platform zou ik geen ZFS doen, dan zou ik bij md-raid + Ext4 of JFS of XFS blijven. Het kan overigens wel, met een nieuwe kernel module voor ZFS on Linux. Dat kun je echter wel als experimenteel beschouwen. Onduidelijk is hoe de performance is onder Linux dus daar kan ik je niet over adviseren.

  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 19-12 16:48

iMars

Full time prutser

Verwijderd schreef op zaterdag 18 juni 2011 @ 01:50:
Op Linux platform zou ik geen ZFS doen, dan zou ik bij md-raid + Ext4 of JFS of XFS blijven. Het kan overigens wel, met een nieuwe kernel module voor ZFS on Linux. Dat kun je echter wel als experimenteel beschouwen. Onduidelijk is hoe de performance is onder Linux dus daar kan ik je niet over adviseren.
Zit er nog verschil in qua platform om het te benaderen? Ik wil namelijk met mijn Mac, en Windows laptop er ook bij kunnen.

Koop hier mijn P1 reader :)


  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 25-12 10:01

TrailBlazer

Karnemelk FTW

Nee dat maakt niks uit.

Verwijderd

Oudere platforms zoals XP ondersteunen geen Asynchronous I/O bij SMB/CIFS (Windows filesharing); dat kan nog een factor in de performance zijn. Maar je kunt dus inderdaad gewoon met elk platform toegang krijgen tot dezelfde files; alleen de server zal directe toegang hebben tot het filesystem zodat Windows of Mac niet weten hoe de files eigenlijk worden opgeslagen op de server, de CIFS of NFS abstractielaag verhult dat.

  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 19-12 16:48

iMars

Full time prutser

Verwijderd schreef op zaterdag 18 juni 2011 @ 14:15:
Oudere platforms zoals XP ondersteunen geen Asynchronous I/O bij SMB/CIFS (Windows filesharing); dat kan nog een factor in de performance zijn. Maar je kunt dus inderdaad gewoon met elk platform toegang krijgen tot dezelfde files; alleen de server zal directe toegang hebben tot het filesystem zodat Windows of Mac niet weten hoe de files eigenlijk worden opgeslagen op de server, de CIFS of NFS abstractielaag verhult dat.
Thnx voor de uitleg.

Koop hier mijn P1 reader :)


  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Heeft het trouwens zin om bij een NAS die constant aan staat de /tmp directory in het geheugen te laden? Eens ik mijn SB i3 cpu+mobo+mem upgrade heb gaat mijn A64 X2 4000+ samen met 6GB DDR2 ram de basis vormen voor mijn nas. Die 6GB geheugen zou ik obviously graag optimaal benutten :P.

Verwijderd

Linux platforms hebben tmpfs en dat werkt dynamisch. Dus je kunt het op /tmp mounten en als je dan 1 kilobyte in gebruik hebt is je geheugengebruik ook maar 1 kilobyte. Zet je er een 2 gigabyte bestand op dan wordt dat in mindering gebracht op je beschikbare geheugen. Verwijder je het weer komt dat weer vrij. Volledig dynamisch dus en dat is ideaal; een écht memory filesystem dus geen nep ramdisk van vaste grootte met een normaal HDD filesystem.

mount -t tmpfs tmpfs /tmp

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 17:46
Voor een nieuwe NAS build grijpen veel mensen naar een 1155 build met een 2100(t). Ik lees daarintegen maar weinig over de veel goedkopere G620(t). Volgens mij is het grootste verschil dat de pentium geen hyperthreading heeft en een iets mindere Mhz (en natuurlijk de GPU features maar die zijn niet van belang voor een NAS).

Nu is eigenlijk concreet de vraag, wat is de meerwaarde van hyperthreading voor verschillende raid toepassingen zoals MDADM en ZFS en ik het algemeen tussen de G620(t) en de 2100(t) voor deze toepassingen?

Sinds de 2 dagen regel reageer ik hier niet meer


  • gr8-jen
  • Registratie: Juni 2011
  • Laatst online: 17:42
CurlyMo schreef op zondag 19 juni 2011 @ 10:28:
...Nu is eigenlijk concreet de vraag, wat is de meerwaarde van hyperthreading voor verschillende raid toepassingen zoals MDADM en ZFS en ik het algemeen tussen de G620(t) en de 2100(t)?
Voor een leek als ik is hyperthreading uitgelegd als een meerwaarde wanneer verschillende ZWARE processen draaien. Deze kunnen gemakkelijker naast elkaar draaien. In plaats van met één proces werken en na een korte periode omschakelen naar het volgende proces. Dit voordeel merk je alleen indien beide processen niets met elkaar te maken hebben.

Dus als je NAS wordt aangeroepen om enige filecontent op te halen en tegelijkertijd bezig is met het parren van een groot bestand.

En voor zover ik begrepen heb is mdadm vooral handig bij hyperthreading omdat daarbij de CPU de bottleneck is maar best draait met 3GB RAM als je HD content tegelijk download, uitpakt en streamt.
En ZFS is vooral in zijn voordeel indien je 6GB RAM tot je beschikking hebt.

WP: ME SUZ-SWM80VA + ERST20D-VM2D || PV: 4500Wp ZWW || BENG, Rc6 rondom, tripple glas, WTW, 165m2 verwarmd || Gasloos sinds sep 2023


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Het ligt er natuurlijk aan wat voor schijven en CPU je hebt, maar voor mdadm is de CPU echt niet de bottleneck. Die wordt gewoon netjes begrensd door de eigenschappen van de onderliggende array(s).

[ Voor 5% gewijzigd door HarmoniousVibe op 19-06-2011 11:32 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 17:46
Laten we uitgaan van Samsungs 3 HD204UI schijven.

Sinds de 2 dagen regel reageer ik hier niet meer

MDADM RAID6 is anders niet iets om geen rekening mee te houden hoor... Dat kost je best wat CPU, zie een paar pagina's terug mijn CPU belasting (was wel onder ESXi, zal eens een nieuwe maken met direct OS)

Even niets...


Verwijderd

RAID6 zou zelfs een Atom prima moeten kunnen doen, mits je bare metal draait dan wel. Bit-shift is wel moeilijker dan puur XOR, maar nog steeds iets wat zelfs een Atom met een gigabyte per seconde aan moet kunnen. Maar dat is maar een gedeelte van de CPU/geheugen-belasting. In tegenstelling tot wat vaak gedacht wordt met XOR en bit-shift zijn het juist de memory copies door split/combine acties die bij parity RAID tot een grotere overhead leiden. RAID5 en 6 kunnen alleen snel schrijven met een bepaalde magische block size, zodat elke keer blokken van die grootte worden opgespaard (split&combine) om en redelijke snelheid te behalen. Anders zit je altijd aan ongeveer 10MB/s doordat je de hardeschijven laat seeken.

HyperThreading is niet handig voor dit soort taken, omdat de CPU voornamelijk FPU instructies zal doen en op het geheugen wacht. HyperThreading zal de performance waarschijnlijk juist iets verlagen, omdat door de meerdere threads de latency hoger wordt. HyperThreading is er voor gemaakt om als de FPU bezig is de andere delen van de CPU core te laten gebruiken door een andere thread. Dat geldt voor general purpose computing maar waarschijnlijk slechts heel beperkt voor de berekeningen die software RAID doet die vooral FPU-intensief zijn. Als ik Intel kies, kies ik altijd een CPU zonder hyperthreading zodat ik niet voor een nutteloze feature betaal, en als het toch wordt ondersteund schakel ik het uit in de BIOS.

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 17:46
Als ik Intel kies, kies ik altijd een CPU zonder hyperthreading zodat ik niet voor een nutteloze feature betaal, en als het toch wordt ondersteund schakel ik het uit in de BIOS.
Dus is jouw mening dat een G620(t) juist aantrekkelijker is voor een NAS prijs/performance dan een 2100(t).

- Maakt het verder nog uit of de NAS puur samba/NFS filesharing aanbiedt of ook FTP, Torrents, e.d.
- Zit er verschil tussen een MDADM RAID6 en een ZFS RAIDZ2 qua HyperThreading nut en cpu load?

Sinds de 2 dagen regel reageer ik hier niet meer


Verwijderd

Ik ken die CPU niet, maar als het enige verschil is geen hyperthreading dan ja; scheelt vaak toch wat qua prijs omdat HyperThreading een ultieme marketingfeature is; in feite een dualcore CPU als quadcore verkopen aan het grote publiek. En die vinden het prachtig dat je dan vier schermpjes krijgt in task manager en denken ook 4 processors te hebben; de technische details doen er voor 99% niet toe dat zullen ze toch nooit begrijpen.

Daarnaast is HyperThreading ook een klein beveiligingsrisico, omdat het makkelijker wordt om encryptiegegevens te stelen op een systeem waar een attacker een guest account heeft, door ruis op de cache kan de ene thread een andere thread die encryptie uitvoert enigszins afluisteren. Dat is echter geen groot risico voor een NAS waar geen publieke gebruikers op komen.

Ik moet wel toegeven dat ik zelf geen benchmarks heb gedraaid met HyperThreading op ZFS, maar het zou heel goed kunnen dat je juist lagere performance krijgt door de hogere latency die HyperThreading veroorzaakt. En als het al nut heeft, is het nut erg beperkt. Mogelijk is HyperThreading voor andere taken wel een performance boost. Zoek maar wat benchmarks; in sommige gevallen een winst, in andere gevallen een verlies. In feite moet een workload meer baat hebben van HyperThreading dan de lagere performance door hogere latency als nadeel geeft. Het voordeel moet dus het nadeel overtreffen; is dat niet het geval dan verlaagt HyperThreading je performance.
Maakt het verder nog uit
Uitmaken voor wat? FTP kun je op een 100MHz CPU doen; dus waar hebben we het over? Torrents is wel iets CPU-intensiever, maar nog steeds werkt dat prima op de langzaamste CPU die je vandaag de dag kunt kopen. ZFS is wel een stuk intensiever. Voor ZFS geldt hoe meer (echte) cores hoe beter; beter lager geklokte quadcore dan een hoog-geklokte dualcore.

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 17:46
Zoek maar wat benchmarks; in sommige gevallen een winst, in andere gevallen een verlies.
Dat is dus het probleem, deze benchmarks zijn niet te vinden. Mij is het in ieder geval niet gelukt (als het gaat om ZFS of andere software RAID vormen).

[ Voor 5% gewijzigd door CurlyMo op 19-06-2011 15:36 ]

Sinds de 2 dagen regel reageer ik hier niet meer


  • gr8-jen
  • Registratie: Juni 2011
  • Laatst online: 17:42
CurlyMo schreef op zondag 19 juni 2011 @ 15:36:
[...]


Dat is dus het probleem, deze benchmarks zijn niet te vinden. Mij is het in ieder geval niet gelukt (als het gaat om ZFS of andere software RAID vormen).
Heb je enig idee welke toepassingen nodig zijn. Dan is het ook duidelijk of het überhaupt een probleem vorm als je een "zwakkere" CPU gebruikt.

ik zit hier achter een i3-530 die naar mijn mening vergelijkbaar is met een Intel® Pentium® G620 (op gpu na)
ik weet niet wat je voor benchmarks zoekt, maar gewoon losse HDD's geven een gemiddelde lees en schrijfsnelheid van 95MB/s ( Western Digital Caviar GreenPower WD20EARS, 2TB op een sweex controller van € 15 )
met een aantal redelijk zware processen zijn alle 4 threads op 20% en verbruikt het hele systeem 65W.
Raid0 en Raid1 in mdadm is geen probleem ;)

misschien kan ik je een benchmark leveren als je weet wat je zoekt

WP: ME SUZ-SWM80VA + ERST20D-VM2D || PV: 4500Wp ZWW || BENG, Rc6 rondom, tripple glas, WTW, 165m2 verwarmd || Gasloos sinds sep 2023


  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 17:46
Ik draai nu Solaris Express 11 met ZFS RAIDZ op met 3xHD204UI 4k sector op een Atom D510.
Daarnaast Samba, Proftpd, Transmission, Apache en PHP.

De belangrijkste verschillen tussen de twee procs zijn:
Proc:G620T2100T
Threads:24
Speed:2.2 Ghz2.5 Ghz
Quick Sync:Yes
InTru 3D:Yes
Insider:Yes
Clear HD:Yes
Hyper-Threading:Yes


En +/- 45 euro in prijs

http://ark.intel.com/Compare.aspx?ids=53423,53481,

[ Voor 5% gewijzigd door CurlyMo op 19-06-2011 17:07 ]

Sinds de 2 dagen regel reageer ik hier niet meer


  • gr8-jen
  • Registratie: Juni 2011
  • Laatst online: 17:42
CurlyMo schreef op zondag 19 juni 2011 @ 17:03:
Ik draai nu Solaris Express 11 met ZFS RAIDZ op met 3xHD204UI 4k sector op een Atom D510.
Daarnaast Samba, Proftpd, Transmission, Apache en PHP.

De belangrijkste verschillen tussen de twee procs zijn:
Proc:G620T2100T
Threads:24
Speed:2.2 Ghz2.5 Ghz
Quick Sync:Yes
InTru 3D:Yes
Insider:Yes
Clear HD:Yes
Hyper-Threading:Yes


En +/- 45 euro in prijs

http://ark.intel.com/Compare.aspx?ids=53423,53481,
Ik zie niet wat hyperthreading extra kan doen.
misschien merk je 5-10% winst maar echt verschil zul je pas merken met meer cores. van wat ik hoor over apache en hyperthreading
De G620T zal al een stuk beter werken dan je oude. maar als je vandaar weer wil upgraden zou ik meer cores aanraden.

WP: ME SUZ-SWM80VA + ERST20D-VM2D || PV: 4500Wp ZWW || BENG, Rc6 rondom, tripple glas, WTW, 165m2 verwarmd || Gasloos sinds sep 2023


  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 17:46
De G620T zal al een stuk beter werken dan je oude. maar als je vandaar weer wil upgraden zou ik meer cores aanraden.
Meer cores voor hetzelfde verbruik zit er niet in. Alleen dus virtueel via hyperthreading...

Sinds de 2 dagen regel reageer ik hier niet meer

root@ZEUS:~# hdparm -C /dev/sd[abcdefghijklm]
/dev/sda:
 drive state is:  active/idle
/dev/sdb:
 drive state is:  standby
/dev/sdc:
 drive state is:  standby
/dev/sdd:
 drive state is:  standby
/dev/sde:
 drive state is:  standby
/dev/sdf:
 drive state is:  standby
/dev/sdg:
 drive state is:  standby
/dev/sdh:
 drive state is:  standby
/dev/sdi:
 drive state is:  standby
/dev/sdj:
 drive state is:  standby
/dev/sdk:
 drive state is:  standby
/dev/sdl:
 drive state is:  standby
/dev/sdm:
 drive state is:  standby


Ik weet niet hoe, maar het lijkt erop alsof Standby werkt op mijn LSI controller :D
/dev/sda = SSD, rest zijn disks.

Even niets...


Verwijderd

FireDrunk schreef op maandag 20 juni 2011 @ 09:41:
root@ZEUS:~# hdparm -C /dev/sd[abcdefghijklm]
/dev/sda:
 drive state is:  active/idle
/dev/sdb:
 drive state is:  standby
/dev/sdc:
 drive state is:  standby
/dev/sdd:
 drive state is:  standby
/dev/sde:
 drive state is:  standby
/dev/sdf:
 drive state is:  standby
/dev/sdg:
 drive state is:  standby
/dev/sdh:
 drive state is:  standby
/dev/sdi:
 drive state is:  standby
/dev/sdj:
 drive state is:  standby
/dev/sdk:
 drive state is:  standby
/dev/sdl:
 drive state is:  standby
/dev/sdm:
 drive state is:  standby


Ik weet niet hoe, maar het lijkt erop alsof Standby werkt op mijn LSI controller :D
/dev/sda = SSD, rest zijn disks.
ja hoor :D (goed gekeken ? .. tis maandagmorgen)
Ben niet thuis, maar de meter zit er wel tussen, kan zo mijn moeder eens SMSen of ze even kijkt wat het ding aangeeft :+ dan weet ik het zeker...

Even niets...


Verwijderd

LOL
Hmm niet thuis, word vanavond... :)

Even niets...


  • lennartb
  • Registratie: December 2003
  • Laatst online: 24-12 17:16
lennartb schreef op woensdag 15 juni 2011 @ 12:02:
Zojuist ook de upgrade voor mijn nas besteld:

- SuperMicro X9SCL-F
- Kingston ValueRam Dual Channel 4 GB, PC3-10666, 1333 MHz, 9, ECC, Kit
- Intel Core I3 2100T 2.50 GHz, Boxed Intel Core i3 2100 3,1Ghz

In totaal 300 290 euro. Ben benieuwd hoe het zal draaien. Overigens komt er WHS 2011 op, niet echt wat de meeste van jullie draaien.

Ik blijf mijn vertrouwde Antec Titan server case gebruiken, 6 drive bays is voor mij voldoende.
Zo, de spullen zijn binnen en gebouwd. Uiteindelijk 8gb geheugen geworden omdat 4gb niet leverbaar was.

Over de IPMI, werkt super! Heerlijk soepel en OS installeren is kinderspel op afstand. Aan/uit zetten, soft off etc werkt zelfs via de ipad of android phone, de rest (sol, kvmip) is een java applet. Poorten voor KVM etc zijn vrij in te stellen (handig voor de firewall rules). console redirection gaat wireless met ongeveer 15fps. Prima dus voor snel onderhoud.

Qua raid de pch codebase van Intel (RST) en LSI mogelijkheden. Per kanaal instelbaar of deze hot plug moet zijn of niet. Als je AHCI gebruikt kun je ook een spin up delay instellen, voor wat het waard is.

Power consumption nog niet kunnen meten, kan nergens mijn meter niet vinden, even nieuwe bestellen.

  • Birdie_NL
  • Registratie: Maart 2008
  • Laatst online: 03-12 19:23
lennartb schreef op maandag 20 juni 2011 @ 10:15:
[...]


Zo, de spullen zijn binnen en gebouwd. Uiteindelijk 8gb geheugen geworden omdat 4gb niet leverbaar was.

Over de IPMI, werkt super! Heerlijk soepel en OS installeren is kinderspel op afstand. Aan/uit zetten, soft off etc werkt zelfs via de ipad of android phone, de rest (sol, kvmip) is een java applet. Poorten voor KVM etc zijn vrij in te stellen (handig voor de firewall rules). console redirection gaat wireless met ongeveer 15fps. Prima dus voor snel onderhoud.

Qua raid de pch codebase van Intel (RST) en LSI mogelijkheden. Per kanaal instelbaar of deze hot plug moet zijn of niet. Als je AHCI gebruikt kun je ook een spin up delay instellen, voor wat het waard is.

Power consumption nog niet kunnen meten, kan nergens mijn meter niet vinden, even nieuwe bestellen.
Waar heb je het moederbord besteld?
(Ik zie een aantal webshops die hem verkopen met een levertijd van +/- 5 dagen.

  • lennartb
  • Registratie: December 2003
  • Laatst online: 24-12 17:16
bij flevo.eu, woensdag besteld, vrijdagmiddag opgehaald.

  • tsjoender
  • Registratie: April 2005
  • Laatst online: 13:18
lennartb schreef op maandag 20 juni 2011 @ 10:15:
[...]

Power consumption nog niet kunnen meten, kan nergens mijn meter niet vinden, even nieuwe bestellen.
Woon je in de buurt van Leeuwarden (kon ik uit jouw profiel niet opmaken)? Dan kun je de mijne wel lenen. Ben namelijk erg benieuwd wat het aan stroom trekt!

Trouwens, mag ik vragen waarom je de X9SCL-F hebt gekozen? Ik zie ook een X9SCM-F variant. Die laatste heeft een iets uitgebreidere chipset, SATA3 en een extra PCI-e aansluiting. Heb je de beschikbare voorraad laten kiezen?

  • lennartb
  • Registratie: December 2003
  • Laatst online: 24-12 17:16
Nope, kom uit Heerhugowaard.

Tja, over de keuze. Bordje was 15 euro duurder (eigenlijk non argument) en zag dat je de sata 600 poorten (4/5) niet in dezelfde raid array kon betrekken als de sata 300 (sata 0/3). Ander puntje is dat ik nergens precies kon vinden of de 2 sata 600 poorten wel via de intel chip gingen. Logischerwijs wel (zit immers in de chipset) maar heb altijd de angst 1 of andere jmicron aan te treffen. Aangezien ik geen sata 600 disks heb, wilde ik het risico niet nemen en dat die bug ook in de cougar point zat. Het PCI-e slot mis ik niet (heb uberhaupt geen kaarten erin).

  • tsjoender
  • Registratie: April 2005
  • Laatst online: 13:18
Thanks, altijd goed om te weten waarop keuzes gebaseerd worden. Zo was ik niet bekend met die Cougar Point bug. Nog maar eens in verdiepen dus.

  • DJ-Promo
  • Registratie: Juli 2006
  • Nu online
Ik heb me upgrade besteld. Komt een andere kast aan met betere koeling en meer mogelijkheden de Sharkoon Rebel 9 Aluminum. Ook me 5x500GB in raid 5 wordt vervangen door 3x 2TB Samsung's :). Dubbel zo veel ruimte en 2 disken minder. Ben benieuwd hoe die 3 presteren ik denk niet veel slechter of misschien wel beter dan die 5 oude disken. Als de setup gebouwd is post ik nog eens me oude setup met foto's en natuurlijk de upgrade.
DJ-Promo schreef op maandag 20 juni 2011 @ 13:50:
Ik heb me mijn upgrade besteld. Komt een andere kast aan met betere koeling en meer mogelijkheden de Sharkoon Rebel 9 Aluminum. Ook me mijn 5x500GB in raid 5 wordt vervangen door 3x 2TB Samsung's :). Dubbel zo veel ruimte en 2 disken minder. Ben benieuwd hoe die 3 presteren ik denk niet veel slechter of misschien wel beter dan die 5 oude disken. Als de setup gebouwd is post ik nog eens me mijn oude setup met foto's en natuurlijk de upgrade.
offtopic:
Sorry, maar ik kon het niet laten...

Even niets...


  • DJ-Promo
  • Registratie: Juli 2006
  • Nu online
Haha sorry ik doe dat altijd verkeerd. Ik zal het onthouden.
Mijn huidige disken worden nogal warm +40 graden dit moet met mijn nieuwe case flink verbeteren.
Zo, das wel warm inderdaad... Hoe komt dat? Heb je zo'n kleine case?
Misschien eens wat kabel management doen?

Even niets...


  • lennartb
  • Registratie: December 2003
  • Laatst online: 24-12 17:16
Ben ook wel benieuwd, post idd maar eens een foto van je oude setup zoals je zei, 40 is best pittig.

  • DJ-Promo
  • Registratie: Juli 2006
  • Nu online
In 5,25 bays disken plaatsen zonder fan in een kleine behuizing. De disken op hun normale plek met fan ervoor worden gelukkig niet zo warm.
Ah, dat schept weer wat duidelijkheid... kan je niet ergens anders in de kast grote fans plaatsen en zo voor meer luchtverplaatsing in de hele kast zorgen?

Even niets...


  • DJ-Promo
  • Registratie: Juli 2006
  • Nu online
Kan vast wel wat regelen maar de nieuwe kast is onderweg. Heb er wel een heel tijdje mee gewerkt gelukkig kan het wel wat hebben.

Verwijderd

Extra fans heb je wellicht niet nodig als je je 500GB disks vervangt door 2TB green schijven; laatstgenoemde verbruiken slechts de helft van je 500GB schijven; 4W ipv 7-8W idle. Dat merk je flink met de temperatuur van de schijf. Green schijven hebben geen actieve koeling nodig, mits je een beetje marge/ruimte/clearance rond de schijf kunt houden en de schijf met metaal is verbonden aan de kast/frame.

In principe is het ook beter om geen fans te gebruiken die direct op de schijven waaien; omdat je het risico hebt van een onevenwichtige warmteverdeling als de fan bijvoorbeeld bij een of meer schijven alleen één zijde koelt en de andere zjide minder of helemaal niet. Hardeschijven kunnen vooral niet tegen temperatuurfluctuaties en onevenwichtige temperaturen. Als je zonder actieve koeling de schijven laat opwarmen, wordt de warmte evenwichtig verdeeld over de schijf. 5400rpm green schijven zouden nooit de 40 graden moeten kunnen halen in normale omstandigheden (uitgaande van 20 graden ambient); 28 tot 34 graden is een nominale temperatuur.
Zijn het toevallig 7200RPM schijven? Die worden sowieso wat heter...

Even niets...


  • DJ-Promo
  • Registratie: Juli 2006
  • Nu online
Thanks voor je post. Ik zal in mijn nieuwe kast eens draaien zonder fan direct ervoor. Heb genoeg ruimte in die kast dus zal extra ruimte ertussen laten.
De hardware die ik heb zal de kast ook niet echt zwaar verwarmen en aan de achterkant komt gewoon fan om de warme lucht naar buiten te laten.
Als ik het binnen laat ik het weten.

  • Oid
  • Registratie: November 2002
  • Niet online

Oid

kan iemand mij adviseren welk bestuuringsysteem ik het beste kan nemen, heb de laatste tijd al veel gelezen en rond gekeken, maar er zijn alnog veel keuzes.

Wat ik graag wil draaien is het volgende:

ZFS (RAIDZ2 met 6x 2 TB)
Sabnzdb
Torrent webclient
Apache - Mysql - PHP - Postgresql (eventueel)

Graag heb ik een makkelijk beheer baar interface wat betreft schijven e.d. rechten en sharing

Freenas valt zo en zo al af omdat ik daar niks extra's op kan installeren.

Dan blijven mijn keuzes over (correct me if i'm wrong)

ZFSGuru
Op de website heb ik groots het idee dat het product nog niet af is en mij veel kopzorgen gaat kosten

Solaris
Openindiana
Nexenta core
Allemaal met bijv. napp-it, maar wat is hiervan dan de beste keuze?

Freebsd
Moet ik (denk ik) heel veel zelf doen (cli)

Ook zou ik graag het bestuuringsysteem op een USB2 stick van 4-8 GB willen laten draaien.

Ik zelf neig het meeste naar of Openindiana met Napp-it (heb openindiana getest met napp-it in vmware en beviel goed en werkte stabiel) Of FreeBSD (op tweakblogs staat een hele handleiding hoe dit te installeren, FreeBSD: Mijn FreeBSD Server: Deel 3 - ZFS & Mail)

Eventueel is webmin ook nog een optie maar of dat handig is hiervoor vraag ik mij af?

Alvast bedankt.

[ Voor 0% gewijzigd door Oid op 20-06-2011 15:58 . Reden: TYPO ]


Verwijderd

Hangt vooral af hoeveel kennis je nu bezit met non-Windows systems en hoeveel tijd je er bereid bent in te steken. Als je bereid bent een UNIX-achtig systeem te leren dan zijn OpenIndiana en FreeBSD uitstekende keuzes. Zelf ken ik FreeBSD erg goed en vind het een geweldig systeem, maar elk platform heeft voordelen en nadelen.

Zo kan FreeBSD booten direct van je RAID-Z (of Z2/Z3) array; dat is erg handig tenzij je spindown wilt op je schijven dan kun je beter je OS ergens anders installeren. Ook heeft FreeBSD betere hardware-ondersteuning, wordt het actief ontwikkeld en heeft het een brede user community, die overigens wel zeer technisch is minder newbie-vriendelijk zoals bijvoorbeeld Ubuntu Linux dat is.

Solaris platforms hebben voordeel dat ze betere ZFS-performance kunnen neerzetten op systemen met weinig RAM (4GB en lager) en meestal nieuwere versies van ZFS draaien; alhoewel FreeBSD met v28 nu niet meer zoveel achterloopt; v28 is de laatste CDDL vrijgegeven versie en kent de verbeteringen van het IllumOS project. OpenIndiana idem; alleen met het proprietary Solaris Express zit je met v31 met extra features waaronder hybrid allocator en encryption.

Ga dus na wat het allemaal precies moet kunnen, wat je prioriteiten zijn en wat voor hardware je wilt gebruiken. Koop de hardware pas als je je softwareplatform hebt gekozen; want incompatible hardware is niet leuk om je build mee te beginnen.

Als je een CLI te moeilijk vindt dan kun je denken aan GUI's. Bedenk wel dat daar nadelen aan kleven en dat ZFS erg makkelijke CLI-commando's kent wat vrij eenvoudig te leren is; er zijn moeilijkere CLI systemen; ZFS is juist een vrij makkelijke manier om kennis te maken met een echte UNIX CLI.

Mocht je voor FreeBSD platform kiezen dan kan ik je met veel zaken helpen; van Solaris weet ik een stuk minder. Daar zijn weer andere communities voor. Misschien is het handig die nu al te bezoeken zodat je een beter idee krijgt van de wereld waar je in gaat stappen.

Wat je ook kiest; ik wens je veel succes en plezier! Tip: voordat je echte data erop zet, test je setup héél goed en simuleer een disk failure zodat je al weet hoe je daar van kunt recoveren.
JOEPIE! Mijn spindown werkt... Ik kom thuis en mijn gebruik is 73W (ten opzichte van 113W normaal)
Dat gaat een hoop schelen :D

Even niets...


Verwijderd

Spindown op de Intel SASUC8i of normale controller? Op een normale chipset controller is spindown piece of cake, toch?

Verwijderd

FireDrunk schreef op maandag 20 juni 2011 @ 16:55:
JOEPIE! Mijn spindown werkt... Ik kom thuis en mijn gebruik is 73W (ten opzichte van 113W normaal)
Dat gaat een hoop schelen :D
vertel vertel.. :9

ik had zelf het volgende bedacht, als onder OI/napp-it de disks via passthrough sasuc8i geen spindown doen, dan is het wellicht mogelijk die disks via een andere vm te benaderen en dan een (aangepast) script er op los te laten... geen idee of zoiets zou kunnen werken :/

Verwijderd

Nee, want LSI 1068E doet conversie van de commando's; dus spindown gaat niet werken. Maar je kunt wel APM gebruiken om de disks te laten downspinnen; dat al geprobeerd? Daarvoor moet je de disks even op een normale ATA controller aansluiten om APM in te schakelen, daarna kun je hem op de Intel SASUC8i aansluiten en onafhankelijk van de host/controller doen de disks dan zelf spindown. Werkt alleen op disks die APM ondersteunen; wat inhoudt dat de disks zichzelf downspinnen na x minuten inactiviteit. Deze instelling is persistent, dus verdwijnt niet na power cycles.

[ Voor 6% gewijzigd door Verwijderd op 20-06-2011 17:44 ]


  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 17:28
Na 2 weken wachten eindelijk mijn bestelling binnengekregen (gigabit switch, 3 xF4EG, CM 4-3 module en wat molex-sata kabels). Sluit ik vlug even mijn gigabit switch aan (deze dus) en haal ik gewoon exact dezelfde snelheden.. 12 MB/s :s

Ethernetkabels zijn trouwens CAT5E.

[ Voor 7% gewijzigd door SanderH_ op 20-06-2011 17:57 ]


  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12 11:37

DJ-Visto

Aye aye, sir!

En je hebt 100% uitgesloten door iperf ook nog is te draaien?
Ik heb dus een 1068E, en mijn disk zijn toch echt uit :) Ik heb gebruik gemaakt van apt-get install laptop-mode. Dat heeft volgens mij apmd geinstalleerd, die dat hele APM geneuzel zelf regelt. En blijkbaar laat de LSI controller wel APM commando's door.

[ Voor 63% gewijzigd door FireDrunk op 20-06-2011 22:19 ]

Even niets...


Verwijderd

FireDrunk schreef op maandag 20 juni 2011 @ 19:16:
Ik heb dus een 1068E, en mijn disk zijn toch echt uit :) Ik heb gebruik gemaakt van apt-get install laptop-mode. Dat heeft volgens mij apmd geinstalleerd, die dat hele APM geneuzel zelf regelt. En blijkbaar laat de LSI controller wel APM commando's door.
heb jij, zoals CIPHER hierboven aangeeft ' Daarvoor moet je de disks even op een normale ATA controller aansluiten om APM in te schakelen, daarna kun je hem op de Intel SASUC8i aansluiten en onafhankelijk van de host/controller doen de disks dan zelf spindown. ' je disks eerst op een ata controller aangesloten ? of gewoon 'knal' erin met de terminal :)

[ Voor 3% gewijzigd door Verwijderd op 20-06-2011 23:40 ]


  • prozak
  • Registratie: December 2003
  • Laatst online: 24-12 22:34
Verwijderd schreef op maandag 20 juni 2011 @ 17:44:
Nee, want LSI 1068E doet conversie van de commando's; dus spindown gaat niet werken. Maar je kunt wel APM gebruiken om de disks te laten downspinnen; dat al geprobeerd? Daarvoor moet je de disks even op een normale ATA controller aansluiten om APM in te schakelen, daarna kun je hem op de Intel SASUC8i aansluiten en onafhankelijk van de host/controller doen de disks dan zelf spindown. Werkt alleen op disks die APM ondersteunen; wat inhoudt dat de disks zichzelf downspinnen na x minuten inactiviteit. Deze instelling is persistent, dus verdwijnt niet na power cycles.
De 1068E werkt prima met spindown hoor. Heb gemist dat dit een issue zou zijn? Werkte vanaf dag 1 out of the box op Debian Linux. Hoe kom je erbij dat dit op de 1068E niet zou werken?

edit

zie net: FireDrunk in "Het grote ZFS topic"

Apart dat dit een probleem is. Ik kan me niet herinneren hier ooit een issue mee gehad te hebben. Heb ook nog een USAS-L8I liggen. Volgens mij was daar ook niets mee aan de hand. Disks gingen gewoon netjes in spindown zonder APM in te stellen. Zal bij de volgende upgrade zeker even testen hoe dat nou zit...

[ Voor 18% gewijzigd door prozak op 21-06-2011 00:56 ]


Verwijderd

Van wat ik heb begrepen zou de LSI controller commando's vertalen waardoor pure ATA commando's niet werken. Vandaar dat SCSI commando's als spindown niet werken onder BSD. Maar misschien is dit of niet juist, of hebben Linux drivers hier een workaround voor. Via FreeBSD kan ik geen APM inschakelen op mijn schijven; wel als ik ze op de chipset ATA aansluit.

Als iemand zijn ervaringen kan delen met 1068E controllers en spindown zou dat mooi zijn.

@prozak: over wat voor soort spindown hebben we het? APM of host-initiated spindown?

  • prozak
  • Registratie: December 2003
  • Laatst online: 24-12 22:34
Verwijderd schreef op dinsdag 21 juni 2011 @ 00:51:
Van wat ik heb begrepen zou de LSI controller commando's vertalen waardoor pure ATA commando's niet werken. Vandaar dat SCSI commando's als spindown niet werken onder BSD. Maar misschien is dit of niet juist, of hebben Linux drivers hier een workaround voor. Via FreeBSD kan ik geen APM inschakelen op mijn schijven; wel als ik ze op de chipset ATA aansluit.

Als iemand zijn ervaringen kan delen met 1068E controllers en spindown zou dat mooi zijn.

@prozak: over wat voor soort spindown hebben we het? APM of host-initiated spindown?
ja host-initiated hdparm -S dus geen APM. Het staat me wel bij dat ik lang lang geleden met laptop instellingen voor de server heb zitten spelen om een zo zuinig mogelijke set-up te realiseren. Ik heb nooit met een stopwatch gekeken of de disks precies na de door mij opgegeven tijd in standby gingen.

edit: inderdaad ook op hardforum een verhaal dat spindown niet werkt

http://hardforum.com/show...?p=1035135183&postcount=6

ben inmiddels wel stiekem nieuwsgierig hoe dat nou zit.....

[ Voor 9% gewijzigd door prozak op 21-06-2011 01:12 ]


Verwijderd

ik zie dit elders ..

' I have three of the HD204UIs in Linux software RAID 5. As sub.mesa says, the drives support CCTL, and I have mine set to 7 seconds, using smartmontools. Additionally, these drives do spin down - if I leave the array for a while, it'll spin down, and then take a few seconds to come back up again.

I set the spin down value via code: hdparm -S <value>
Additionally, APM values can be set via code: hdparm -B <value> '

ik ga morgen de verschillende scenario's testen 8)

Verwijderd

Dan lijkt dit onder Linux te werken; maar onder FreeBSD niet. Althans niet bij mijn controllers dit in IT-mode werken. Ben wel benieuwd waar het euvel hem precies in zit.
Wat ik gedaan heb:
apt-get install laptop-mode
reboot
/etc/rc.local wijzigen en hierin toevoegen
hdparm -S 120 /dev/sdb
hdparm -S 120 /dev/sdc
hdparm -S 120 /dev/sdd
hdparm -S 120 /dev/sde
hdparm -S 120 /dev/sdf
hdparm -S 120 /dev/sdg
hdparm -S 120 /dev/sdh
hdparm -S 120 /dev/sdi
hdparm -S 120 /dev/sdj
hdparm -S 120 /dev/sdk
hdparm -S 120 /dev/sdl
hdparm -S 120 /dev/sdm

en na 10 minuten in activiteit gaan mijn disks uit :)
Opspinnen duurt wel even (10 seconden ofzo)

[ Voor 6% gewijzigd door FireDrunk op 21-06-2011 10:35 ]

Even niets...


  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 14:41
FireDrunk schreef op dinsdag 21 juni 2011 @ 10:22:
/etc/rc.local wijzigen en hierin toevoegen
hdparm -C 120 /dev/sdb
..
Bedoel je niet hdparm -S 120 /dev/sdx ?
offtopic:
uh, je hebt gelijk :+ ik slaap nog...


Toch vreemd dat het onder FreeBSD niet werkt... Je zou verwachten dat dat dezelfde mogelijkheden heeft om met devices op dat niveau te communiceren... Misschien is de MPT driver wat 'slechter' onder FreeBSD.
Maar de drempel om naar ZFS over te stappen is vandaag weer een stukje hoger geworden...

[ Voor 81% gewijzigd door FireDrunk op 21-06-2011 10:36 ]

Even niets...


  • Oid
  • Registratie: November 2002
  • Niet online

Oid

Verwijderd schreef op maandag 20 juni 2011 @ 16:17:
Hangt vooral af hoeveel kennis je nu bezit met non-Windows systems en hoeveel tijd je er bereid bent in te steken. Als je bereid bent een UNIX-achtig systeem te leren dan zijn OpenIndiana en FreeBSD uitstekende keuzes. Zelf ken ik FreeBSD erg goed en vind het een geweldig systeem, maar elk platform heeft voordelen en nadelen.

Zo kan FreeBSD booten direct van je RAID-Z (of Z2/Z3) array; dat is erg handig tenzij je spindown wilt op je schijven dan kun je beter je OS ergens anders installeren. Ook heeft FreeBSD betere hardware-ondersteuning, wordt het actief ontwikkeld en heeft het een brede user community, die overigens wel zeer technisch is minder newbie-vriendelijk zoals bijvoorbeeld Ubuntu Linux dat is.

Solaris platforms hebben voordeel dat ze betere ZFS-performance kunnen neerzetten op systemen met weinig RAM (4GB en lager) en meestal nieuwere versies van ZFS draaien; alhoewel FreeBSD met v28 nu niet meer zoveel achterloopt; v28 is de laatste CDDL vrijgegeven versie en kent de verbeteringen van het IllumOS project. OpenIndiana idem; alleen met het proprietary Solaris Express zit je met v31 met extra features waaronder hybrid allocator en encryption.

Ga dus na wat het allemaal precies moet kunnen, wat je prioriteiten zijn en wat voor hardware je wilt gebruiken. Koop de hardware pas als je je softwareplatform hebt gekozen; want incompatible hardware is niet leuk om je build mee te beginnen.

Als je een CLI te moeilijk vindt dan kun je denken aan GUI's. Bedenk wel dat daar nadelen aan kleven en dat ZFS erg makkelijke CLI-commando's kent wat vrij eenvoudig te leren is; er zijn moeilijkere CLI systemen; ZFS is juist een vrij makkelijke manier om kennis te maken met een echte UNIX CLI.

Mocht je voor FreeBSD platform kiezen dan kan ik je met veel zaken helpen; van Solaris weet ik een stuk minder. Daar zijn weer andere communities voor. Misschien is het handig die nu al te bezoeken zodat je een beter idee krijgt van de wereld waar je in gaat stappen.

Wat je ook kiest; ik wens je veel succes en plezier! Tip: voordat je echte data erop zet, test je setup héél goed en simuleer een disk failure zodat je al weet hoe je daar van kunt recoveren.
Bedankt voor je uitleg, ik ben gelijk aan de gang gegaan. Ik heb freebsd geinstalleerd op een 40 GB Ide schijfje, en 6x 2tb f4 in RAIDZ2 gekregen. Ook fftjes met samba zitten kloten, en zonder enige optimalisatie 60MB/s continue dataoverdracht, ik ben tevreden :) (dit is nog test fase, ga nu uitgebreid testen en doen)


Bedank zover!

  • brid
  • Registratie: Januari 2001
  • Laatst online: 19-11 18:24

brid

Onze excuses voor het ongemak

FireDrunk schreef op dinsdag 21 juni 2011 @ 10:22:
Wat ik gedaan heb:
apt-get install laptop-mode
reboot
/etc/rc.local wijzigen en hierin toevoegen
hdparm -S 120 /dev/sdb
hdparm -S 120 /dev/sdc
hdparm -S 120 /dev/sdd
hdparm -S 120 /dev/sde
hdparm -S 120 /dev/sdf
hdparm -S 120 /dev/sdg
hdparm -S 120 /dev/sdh
hdparm -S 120 /dev/sdi
hdparm -S 120 /dev/sdj
hdparm -S 120 /dev/sdk
hdparm -S 120 /dev/sdl
hdparm -S 120 /dev/sdm

en na 10 minuten in activiteit gaan mijn disks uit :)
Opspinnen duurt wel even (10 seconden ofzo)
Kun je niet beter /etc/hdparm.conf aanpassen , heb hier ook de intel hba en de samsung disk onder debian
/dev/sdc {
#spindown_time = 60 # 5 min
spindown_time = 240 # 20 min
#spindown_time = 250 # 30 min
#spindown_time = 280 # 1 hour
#spindown_time = 340 # 2 hours
}

en dan dit per disk

DIY NAS, Hoofd PC
Unchain your pc/laptop, buy a SSD!!!!!

Toch hetzelfe effect met meer code...? :)

Even niets...


  • ItMeAedri
  • Registratie: Maart 2009
  • Laatst online: 23-12 08:09
Binnenkort ga ik wellicht ook een NAS bij elkaar sprokkelen, maar ik heb 0,0 kennis over het implementeren van raid. Is raid redelijk goed in te stellen voor een beginner?

[ Voor 6% gewijzigd door ItMeAedri op 21-06-2011 15:49 ]

Dat ligt totaal aan het soort RAID... Zo zijn er hele makkelijke maar ook hele moeilijke. Firmware raid is doorgaans makkelijk, ZFS / MDADM / GEOM raid zijn iets ingewikkelder.

Even niets...


  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 14:41
brid schreef op dinsdag 21 juni 2011 @ 14:39:
[...]


Kun je niet beter /etc/hdparm.conf aanpassen , heb hier ook de intel hba en de samsung disk onder debian
/dev/sdc {
hdparm.conf werkt niet fatsoenlijk meer in ubuntu. Gebruikte het in een oudere versie ook, maar na een update naar een nieuwere release (weet niet precies wanneer het optrad) wordt hdparm.conf niet meer correct uitgelezen. Is wel redelijk wat over te vinden, ook wel workarounds maar een echt nette oplossing niet. Wat ik ervan lees is power managemnt sowieso een zooitje in ubuntu, verschillende oplossingen die elkaar dwars zitten.
Dat heb ik ook gelezen, maar las wel dat laptop-mode redelijk goed geimplementeerd is, en dat daardoor ook een hoop andere zaken wel netjes geregeld kunnen worden.

Het commando in rc.local zetten vind ik overigens best een nette oplossing...

Even niets...


  • Nextron
  • Registratie: Maart 2005
  • Laatst online: 18:47

Nextron

Ik weet dat ik niets weet

Iedereen is als beginner begonnen. Ik heb in de afgelopen twee weken de laatste helft van dit topic, Het grote ZFS topic en Zuinige ESXi Server doorgenomen en een paar NAS-distro's virtueel geprobeerd en ik weet nog niet wat ik wil, maar wel hoe veel dingen moeten. Als je er geen tijd in wil steken is een kant-en-klare oplossing wellicht beter geschikt.

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


  • HaseMike
  • Registratie: Augustus 2003
  • Niet online
Ik vond ik dit forum maar weinig over Flexraid, dus wie weet heeft iemand er wat aan :

Na een hele berg mogelijke opties te hebben bekeken zoals Freenas 7 en 8, Amahi, Whs1 en Vail ben ik uiteindelijk uitgekomen bij Flexraid. Het bouwen van een aparte server of aanschaffen van een kant en klare NAS heb ik ook overboord gezet. Flexraid heb ik uitgebreid getest in een VM, dus inclusief het verwijderen van een data disc e.d. Werkte uitstekend.

Aangezien hier een hoop tweakers een media server willen neerzetten, hier de voordelen van flexraid :

+ Draait naar keuze onder windows of linux, voor mij windows dus met ntfs
+ Data op schijven gewoon leesbaar, zelfs parity drive is normaal benaderbaar
+ Data op schijven die je wilt toevoegen hoef je niet te wissen, je kan dus zonder dubbele capaciteit beginnen
+ N+1 Raid
+ Storage pool mogelijkheid, dus combineren van data disks naar keuze in 1 grote virtual schijf die je via SMB kan sharen : Zeer handing voor media files.
+ Gratis
+ Redelijk goede web interface
+ Simpel disks toevoegen, verwijderen of vergroten
+ Gaat flexraid de mist in is er niets aan de hand, datadisks zijn normaal leesbaar


Minus punten

- Slechte documentatie, nogal zoeken naar instellingen
- Snapshot raid : Je moet na het updaten van je files een "update raid" draaien om je parity disk(s) te updaten

Dat laatste is met mediafiles niet zo erg, je voegt de hele week wat toe en draait 1x per week je update. Vaker kan natuurlijk ook.

Na uitvoerig testen ga ik mijn huidige pc als server gebruiken omdat er 0 realtime overhead is. Mijn p55-usb3 moederbord heeft 8 sata aansluitingen, dus 1x SSD, 1x Disk voor "normaal gebruik". 4x voor Flexraid en dan nog 1x bluray en 1 leeg.

Voor de disks heb ik 2x hotswap backplanes gekocht van 14 euro (!) : link

Plaatjes volgen als de zaken binnen zijn.

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Zijn die bays een beetje stil?

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • laurensxeon
  • Registratie: September 2004
  • Laatst online: 24-12 19:10
Tweakers, na een kleine investering ben ik ook over gegaan op een Raid 5 opstelling met 4 schijven van 1 TB (Samsung Spinpoint F3 7200rpm). Voor de raid controller maak ik gebruik van de Intel RST chip op het moederbord, ik weet dat dit niet het meest ideale is maar ik ga voor een redelijke lees/schrijf snelheid en data redundantie.

Bij het instellen van de raid configuratie doe ik dit via de bios (ctrl+i), hierbij stel ik de voor mij gewenste instellingen in. Vervolgens in Windows open ik de Intel RST programma en zie ik staan dat de array niet geinitialiseert is. Maar volgens de RST bij het opstarten is de status wel normaal.

Het schrijven naar de array van een single 2TB schijf gaat met een stabiele snelheid van 130MB/sec. als ik de array ga initialiseren in Windows dan zakt dit naar 20~30MB/sec. daar komt bij dat het initialiseren een behoorlijke tijd in beslag neemt.

De vraag is, als mijn stroom uitvalt tijdens het schrijven kan ik dan de array zich dan opnieuw initialiseren zonder (groot) data verlies. Dit zal zeker wel een halve dag in beslag nemen?

Ik heb de writeback cache aangezet.

P67 chipset.

@hierboven, heb die bays zelf ook, vind ze een herrie maken.

Verwijderd

Volume write back heb je nodig voor redelijke RAID5 write snelheden, maar komen ook met een risico van dataverlies bij crashes (blauw scherm), een kabelprobleem of een stroomonderbreking. RAID5 op Windows is niet erg veilig. Ik zou het even (on)veilig beschouwen als een enkele disk zonder enige bescherming.

RAID5 beschermt je tegen sommige risico's, maar voegt ook zelf risico's toe. Zeker met de beschikbare Windows-implementaties moet je beseffen dat je data niet optimaal veilig is. Zorg dus voor backups van je belangrijke data, bijvoorbeeld een 2e RAID5 op een ander systeem of losse externe disks. Als je dat niet doet loop je nog steeds een risico op gegevensverlies.

Met een enkele RAID5 met Intel write-back blijf je een single point of failure houden: het filesystem; en NTFS is niet bestand tegen de corruptie die RAID5 kan geven (write hole + volume writeback). RAID5 kan ook niet corrupte data van valide data onderscheiden, en gaat er altijd van uit dat de parity corrupt is als deze niet overeenkomt met de originele data; terwijl dat ook prima andersom kan zijn.

Stel je verliest één schijf, dan kan het zo zijn dat tijdens het rebuilden er een andere schijf een onleesbare sector tegenkomt. Dan stopt je rebuild en zit je met een vrij groot probleem. Dat is in principe wel op te lossen, maar alleen als je daarvoor de juiste acties onderneemt. In zo'n geval is permanent gegevensverlies niet gemakkelijk te voorkomen.

[ Voor 185% gewijzigd door Verwijderd op 21-06-2011 23:05 ]


  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Die kapotte sector bij een rebuild is idd een van de grootste zwakstes bij R5 en die wordt er niet kleiner op naarmate de disks groter worden en de rebuild dus langer duurt. R6 is daarbij een goede oplossing maar die is niet door firmware RAID op te zetten (tenzij je een speciale chip hebt ofzo :P). Schrijven was daar ook trager als ik mij niet vergis.

Bij een R5 hoort wel een UPSje zodat hij toch op zen minst dat gat kan vullen voor hij op zen gat gaat.

  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 19-12 16:48

iMars

Full time prutser

Ik ben er nog niet helemaal over uit.... Zal ik nu voor de Samsung HD204UI F4 2TB gaan of voor de WD20EARS 2TB of voor een andere?

Qua prijs verschilt het niet veel, de F4 kost 60 en de WD 65. Voor 4 schijven is het verschil 20 euro.

Qua snelheid is de F4 sneller, zo'n 5 a 10 MB/s. Maar omdat ik over Gbit lan ga, merk ik waarschijnlijk het verschil niet.

De WD heeft 64MB cache, en de F4 'slechts' 32MB. Is die dubbele cache merkbaar qua performance? Of maakt het juist weer trager?

Ik heb gegoogled naar het verschil tussen beide schijven, en het enige grote verschil wat mij opviel, is dat de WD20EARS problemen geeft met (hardware)raid, de Samsung sneller is. Over het stroomverbruik zijn de meningen verdeeld. De ene zegt dat de Samsung iets zuiniger is, de andere weer dat de WD zuiniger is.

Als ik alles sommeer, kom ik tot de conclusie dat de F4 goedkoper is (maar die paar euro ben je misschien weer aan stroom kwijt ;)), sneller is, en minder problemen geeft in raid.

Alle grote schijven (en ik wil nu eenmaal geen 1,5TB schijven) hebben Advanced Format. Ik neem dat dat gewoon werkt onder linux (grootste schijf tot nu toe is 1TB via USB ;))

Ik wil raid5 onder softraid gaan gebruiken (mdadm), geven de WD20EARS daar ook problemen mee, of niet?

Wat adviseren jullie me?

Koop hier mijn P1 reader :)


Verwijderd

Jormungandr schreef op dinsdag 21 juni 2011 @ 23:43:
R6 is daarbij een goede oplossing maar die is niet door firmware RAID op te zetten (tenzij je een speciale chip hebt ofzo :P).
Firmware RAID bestaat in feite niet; omdat daarmee wordt geïmpliceerd dat firmware in een hardware controller chip het werk doet; dat heeft nooit bestaan. Met Firmware RAID wordt onboard RAID = driver RAID bedoeld. Dat zijn windows-only drivers die RAID implementeren en 100% softwarematig zijn. De controller heeft wel een read-only firmware implementatie om een RAID BIOS te verzorgen die de metadata schrijft en om booten van RAID mogelijk te maken. Maar zodra Windows boot wordt al het werk gedaan door een driver, die vaak niet van al te beste kwaliteit is zeker qua RAID5.

Maar je hebt gelijk dat ik geen onboard RAID ken die RAID6 implementeert; maar niets wat dat theoretisch in de weg staat.
Schrijven was daar ook trager als ik mij niet vergis.
Slechts één disk extra overhead dus met 6 disks heb je 4 disks over om effectief mee te kunnen schrijven. Het berekenen van dubbele parity kost wel iets meer overhead, maar op CPUs valt dat effect te verwaarlozen een Atom kan daar prima snelheden voor leveren.
Bij een R5 hoort wel een UPSje zodat hij toch op zen minst dat gat kan vullen voor hij op zen gat gaat.
Dat is niet genoeg; het kan niet voorkomen dat een kabel eruit vliegt of een corruptie vertoont, of dat je OS crasht, of dat je filesystem corrupt raakt vanwege een RAID driver design issue. Kies je voor een onveilig systeem dan moet je (extra) vertrouwen backups; iets wat met een net ZFS systeem veel minder cruciaal is omdat je primaire array vele malen robuster is en je tegen veel meer risico's beschermt.
iMars schreef op woensdag 22 juni 2011 @ 00:13:
Ik ben er nog niet helemaal over uit.... Zal ik nu voor de Samsung HD204UI F4 2TB gaan of voor de WD20EARS 2TB of voor een andere?
WD EARS zou ik afschrijven. Je hebt geen TLER/CCTL mocht je dat ooit willen (Windows platform of hardware RAID) en ze verbruiken significant meer dan Samsung F4 bij het opspinnen, wat problemen met je voeding kan geven. Een Samsung F4 is erg economisch met opspinnen en dus geschikt voor bijvoorbeeld een PicoPSU setup voor een ultra-zuinige NAS.

Bovendien zijn de WD schijven langzamer. Als je dan moet kiezen zou ik kiezen tussen Samsung F4 en Hitachi 3K5000 2TB; die twee zijn aardig aan elkaar gewaagd. Het voordeel van de Hitachi is dat hij 512-byte sectoren heeft en dus voor ZFS RAID-Z in niet-optimale configuraties geen snelheidsverlies geeft. Verder scheelt het niet veel deze twee schijven, ook niet qua prijs.
schil niet.
De WD heeft 64MB cache, en de F4 'slechts' 32MB. Is die dubbele cache merkbaar qua performance? Of maakt het juist weer trager?
Een hardeschijf heeft een paar megabyte nodig voor een buffer; cachen is onzin omdat je RAM met 8 gigabyte veel meer filecache heeft en dus nooit binnen korte tijd dezelfde data van de hardeschijf zal opvragen. Het is dus een buffer chip om writes te bufferen en read-ahead te verzorgen. Dat heeft hooguit een aantal MB nodig meer is complete onzin. Het is waarschijnlijk gewoon marketing en het feit dat een 512Mbit (64MiB) chip nauwelijks meer kost dan 256Mbit (32MiB).
Over het stroomverbruik zijn de meningen verdeeld. De ene zegt dat de Samsung iets zuiniger is, de andere weer dat de WD zuiniger is.
De WD is niet zuiniger; qua idle is de nieuwe WD EARS even zuinig als de Samsung F4. De oude EARS verbruikt een volle watt extra doordat het een platter extra heeft (4x 500GB ipv 3x666GB). Maar ook de nieuwe EARS verbruikt 50% meer spinup current. Als je het om stroomverbruik doet is de Samsung F4 dus de winnaar.
Als ik alles sommeer, kom ik tot de conclusie dat de F4 goedkoper is (maar die paar euro ben je misschien weer aan stroom kwijt ;)), sneller is, en minder problemen geeft in raid.
Dat is ook mijn conclusie.
Alle grote schijven (en ik wil nu eenmaal geen 1,5TB schijven) hebben Advanced Format. Ik neem dat dat gewoon werkt onder linux (grootste schijf tot nu toe is 1TB via USB ;))
Hitachi 5K3000 heeft dat niet, maar gewone 512-byte sectoren. Je kunt mogelijk wel meer bad sectors verwachten doordat er per seconde minder absolute error correctie beschikbaar is.
Ik wil raid5 onder softraid gaan gebruiken (mdadm), geven de WD20EARS daar ook problemen mee, of niet?
Nee. Wel zorgen dat je geen verkeerd alignde partities gebruikt. Bij voorkeur helemaal geen partities.
Wat adviseren jullie me?
Samsung F4, Hitachi 5K3000 of wachten op nieuwe 1TB platters van Samsung; zodat 2TB met 2 platters mogelijk wordt of 3TB/4TB/5TB schijven uitkomen. Tevens zullen deze een stuk sneller zijn; volgens de theorie kunnen ze 200MB/s overstijgen terwijl ze op 5400rpm draaien. Maar even afwachten of ze dat ook echt gaan halen. Wanneer ze uitkomen is een raadsel, maar Samsung had ze een tijd geleden al wel gedemonstreerd.

  • parcifal
  • Registratie: September 2007
  • Laatst online: 14-02-2021
Ik google me suf maar ben er nog niet uit tussen Samsung en de WDears, wel is er een nieuwe WDearx die SATA600 heeft, geen idee hoe die presteren, testen nog niet kunnen vinden.
Zou de SATA600 voordeel bieden bij RAID gebruik op een Highpoint 2740 SAS/SATA600 controller ?

  • Oid
  • Registratie: November 2002
  • Niet online

Oid

Wat ik me afvroeg, doen jullie aan active en/of passive virusscanning op de NAS, of laat je dat over aan client?

  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 19-12 16:48

iMars

Full time prutser

Verwijderd schreef op woensdag 22 juni 2011 @ 00:38:
[...]

[...]

Samsung F4, Hitachi 5K3000 of wachten op nieuwe 1TB platters van Samsung; zodat 2TB met 2 platters mogelijk wordt of 3TB/4TB/5TB schijven uitkomen. Tevens zullen deze een stuk sneller zijn; volgens de theorie kunnen ze 200MB/s overstijgen terwijl ze op 5400rpm draaien. Maar even afwachten of ze dat ook echt gaan halen. Wanneer ze uitkomen is een raadsel, maar Samsung had ze een tijd geleden al wel gedemonstreerd.
Bedankt voor je uitleg! ik had de WD's eigenlijk al van mijn lijstje gestreept, maar begon toch te twijfelen. En bij twijfel altijd controleren ;)

De Hitachi 5K3000 waren me nog niet opgevallen en dat terwijl deze wel binnen mijn selectie passen. Qua prijs zit deze tussen de F4 en de WD in, dus ook zeer goed te doen.

Mijn twijfel is nu verplaatst tussen de 5K3000 en de F4 ;)
Edit: de 36mnd garantie is natuurlijk wel handig!

Is er ook al wat te zeggen qua levering van de nieuwe 1TB platters? of is dat een > jaarplan?

Koop hier mijn P1 reader :)


  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 25-12 10:01

TrailBlazer

Karnemelk FTW

wat gebeurt er trouwens met een softraid 5 systeem op linux bij een powerfailure. Is dan gelijk je array corrupt of is dat een bepaalde kans dat het gebeurt?

  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 19-12 16:48

iMars

Full time prutser

TrailBlazer schreef op woensdag 22 juni 2011 @ 08:03:
wat gebeurt er trouwens met een softraid 5 systeem op linux bij een powerfailure. Is dan gelijk je array corrupt of is dat een bepaalde kans dat het gebeurt?
Ik gok dat de array alleen corrupt raakt bij een powerfailure als er data weggeschreven wordt.

Koop hier mijn P1 reader :)

Mdadm heeft ook zijn interne systeem op meerdere disks staan, dus hooguit de files die beschreven werden op dat moment zijn corrupt.

Even niets...

Pagina: 1 ... 65 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.