DumbAss schreef op zondag 20 november 2011 @ 15:34:
[afbeelding]
[afbeelding]
[afbeelding]
code:
1 2 3 4 5 smbget --dots smb://freenas/media/test.m4v Using workgroup vanutsteen.nl, user leon ........................................ smb://freenas/media/test.m4v downloaded Downloaded 256.67MB in 8 seconds
Dus ongeveer 32MB per seconde
Een beetje NAS moet IMHO 100 MB/s doen anders is het gewoon niet leuk
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
[ Voor 9% gewijzigd door donnervogel op 22-11-2011 20:15 ]
Dit kan bijvoorbeeld door dd om een idee te krijgen van sequentiële read en write troughput, en hd tune kan je hiervoor gebruiken voor windows.
[ Voor 5% gewijzigd door sloth op 22-11-2011 20:45 ]
1
2
3
4
5
6
7
8
| leon@polly:~$ iperf -c 192.168.1.160 ------------------------------------------------------------ Client connecting to 192.168.1.160, TCP port 5001 TCP window size: 16.0 KByte (default) ------------------------------------------------------------ [ 3] local 192.168.1.128 port 57668 connected with 192.168.1.160 port 5001 [ ID] Interval Transfer Bandwidth [ 3] 0.0-10.0 sec 970 MBytes 814 Mbits/sec |
Net ssh geprobeerd maar die had ook zo'n snelheid van rond de 35MB/s
DD:
1
2
3
4
5
6
7
8
9
| [leon@freenas ~]$ dd if=/dev/zero of=testfile bs=1024 count=50000 50000+0 records in 50000+0 records out 51200000 bytes transferred in 1.397737 secs (36630639 bytes/sec) [leon@freenas ~]$ dd if=testfile of=/dev/zero bs=1024 count=50000 50000+0 records in 50000+0 records out 51200000 bytes transferred in 0.536188 secs (95488916 bytes/sec) |
FTP:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
| leon@polly:~$ wget ftp://192.168.1.160/test.m4v
--2011-11-23 01:31:12-- ftp://192.168.1.160/test.m4v
=> `test.m4v'
Connecting to 192.168.1.160:21... connected.
Logging in as anonymous ... Logged in!
==> SYST ... done. ==> PWD ... done.
==> TYPE I ... done. ==> CWD not needed.
==> SIZE test.m4v ... 269133654
==> PASV ... done. ==> RETR test.m4v ... done.
Length: 269133654 (257M) (unauthoritative)
100%[===============================================================================================================================================>] 269,133,654 61.9M/s in 3.9s
2011-11-23 01:31:18 (66.3 MB/s) - `test.m4v' saved [269133654] |
Dus tsja... wie het weet mag het zeggen
[ Voor 18% gewijzigd door DumbAss op 23-11-2011 01:57 ]
Ook kan je het NFS protocol hiervoor gebruiken. Dat staat ook bekend als vrij efficiënt.
Daarnaast kan je het beste even testen met een groter bestand, omdat ik zag dat je nu test met een file van "slechts" 256MB, en dat is weinig bij gigabit snelheden.
Ook zou je de lokale storage van de client waarmee je deze file download even moeten benchmarken, of als je de mogelijkheid hebt even een ramdisk van >1GB aanmaken en daar naar downloaden, zo elimineer je die bottleneck alweer
Ik had welliswaar redundantie, maar helaas geen goede replica/backup setup.
Ik ben nu het volgende van plan. Ik heb op 2 locaties een esxi server draaien. Op locatie 1, waar ik woon, heb ik alleen ruimte voor een enkele 3TB disk maar hier maak ik wel gebruik van de data. Op locatie 2 kan ik de 4 1TB disken plaatsen. Nu ga ik CentOS VM's aanmaken op beide locaties en via ssh de disken lokaal RAW aanbieden aan de VM's.
Ik heb overigens een ipsec vpn tunnel tussen beide locaties. Via een nfs mount en nsync wil ik de 2 data directories gaan syncen.
Performance is overigens geen issue voor me.
1
2
3
4
5
6
7
8
9
10
| Connecting to 192.168.1.160:21... connected. ==> SYST ... done. ==> PWD ... done. ==> TYPE I ... done. ==> CWD not needed. ==> SIZE test.bin ... 745845393 ==> PASV ... done. ==> RETR test.bin ... done. Length: 745845393 (711M) (unauthoritative) 100%[================================================================================================================================================>] 745,845,393 89.7M/s in 8.0s 2011-11-24 00:07:45 (89.3 MB/s) - `test.bin' saved [745845393] |
Verwijderd
FreeNAS doet slechte tuning van ZFS. Dus je kunt bijvoorbeeld met de txg.timeout en txg.synctime en txg.write_limit_override waarden spelen die je in /boot/loader.conf kunt instellen. Heeft FreeNAS hier geen methode voor via de web-interface?
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Xen op freebsd als Domain 0 (host) + vga,usb,sound
[ Voor 34% gewijzigd door vso op 27-11-2011 13:52 ]
Tja vanalles
XFS raad het aan om performance te winnen... Maar een BBU kan ook falen (ja ervaring mee). Op dat moment ben je juist blij dat je Write Barriers hebt. Je wil graag dat de data die je OS denkt geschreven te hebben, ook echt op disk staat.... En niet op een Cache module.HarmoniousVibe schreef op zondag 27 november 2011 @ 12:40:
@CiPHER: jij zegt altijd dat je voor software raid eigenlijk een echte HBA moet gebruiken, zonder RAID layer. Is het echter niet zo, dat een hardwarematige RAID controller (write through natuurlijk) alsnog voordelen biedt, mits er een BBU op zit? De controller mag dan wel liegen tegen het FS, maar is het niet zo dat dat eigenlijk niks uitmaakt, omdat er toch een BBU op zit? XFS raadt bijvoorbeeld aan om write barriers e.d. juist uit te schakelen indien er een BBU wordt gebruikt.
Even niets...
Verwijderd
Afgezien van of je hardware RAID sneller is dan software RAID via ZFS, verlies je enorm veel voordelen van ZFS als je op deze manier draait.HarmoniousVibe schreef op zondag 27 november 2011 @ 12:40:
@CiPHER: jij zegt altijd dat je voor software raid eigenlijk een echte HBA moet gebruiken, zonder RAID layer. Is het echter niet zo, dat een hardwarematige RAID controller (write through natuurlijk) alsnog voordelen biedt, mits er een BBU op zit?
- Voor ZFS is een hardware volume een niet-redundante configuratie met een enkele disk. ZFS kan dus ook geen corruptie corrigeren omdat het geen redundantie heeft; het kan ook niet de redundantie van de hardware RAID gebruiken omdat het geen directe controle heeft over disks; ZFS heeft geen enkele weet over dat het een RAID is maar beschouwt het als een single disk pool. Dat betekent dat redundante metadata wel gecorrigeerd kan worden, maar je data in principe niet. Je verliest dus een van de grootste voordelen van ZFS dat het automatisch corruptie repareert.
- Draai je met copies=2 dan worden normaliter de kopiën mooi verdeeld over alle vdevs of vdev disk members. Maar in geval van hardware RAID gaat ZFS uit van een enkele disk en kan het dus zo zijn dat twee copies op dezelfde disk geplaatst worden, zodat uitval van die disk gelijk twee copies meeneemt. Je copies=2 functionaliteit (ditto copies) wordt zo dus flink afgezwakt.
- Hardware RAID doet vaak erg moeilijk over bad sectors, en heeft TLER schijven nodig om niet masaal schijven te verliezen. Dat betekent dus óf dure TLER schijven kopen óf een groot risico aanvaarden. In geval van TLER schijven betekent dit dat je vaker met corruptie te maken hebt waarvoor een lange rebuild noodzakelijk is. Als je array degraded is, is TLER ook erg gevaarlijk, omdat bad sectors dan vrijwel geen kans op recovery hebben en in zo'n geval je dus een failed array kunt krijgen waar ook ZFS niets meer mee kan. Kortom, bad sectors is en blijft een groot probleem bij hardware RAID, met name schijven met een hoge datadichtheid waar vrij regelmatig pending sectoren bij voorkomen.
- Voor de prijs van een dure RAID controller en BBU en TLER schijven kun je met ZFS je geld beter besteden, aan gewoon meer schijven, meer RAM of SSDs voor acceleratie. Daarbij haal je veel meer winst voor hogere performance dan zo'n controller setup.
Punt is gewoon dat ZFS een heel veilige RAID engine heeft en als je dat gaat dwarsbomen door de RAID op een ander niveau gaat laten uitvoeren, dat ZFS dan ook niet meer de bescherming kan bieden die het kán bieden als je ZFS volledige controle geeft. Zo zijn er best wat dingen die fout kunnen gaan bij RAID5 bijvoorbeeld. Ouderwets RAID5 weet de controller/engine ook niet welke data corrupt is en welke niet. Het kan alleen maar zien of de parity gelijk is aan de data, en die controle vindt bovendien ook nooit plaats (je hebt verify mode maar dat is zeldzaam en traag). Bij ouderwets RAID heb je dus silent corruption die naar je applicaties doorvloeit, iets wat bij ZFS nooit zou mogen/kunnen gebeuren door de End-to-End data protection.
[ Voor 24% gewijzigd door HarmoniousVibe op 27-11-2011 22:57 ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Verwijderd
Maar je hebt dan wel de bescherming van ZFS omdat ZFS alle RAID functionaliteit doet. Maar je levert net iets performance in omdat je hogere latencies hebt (er zit een extra chip tussen ZFS en de disk) terwijl je een klein beetje extra cache hebt (512MB bijvoorbeeld tegenover 16GiB RAM + 80GB SSD L2ARC cache bijvoorbeeld).
Dus het is geen onveilige configuratie meer, maar je schiet er qua performance niet veel mee op en het is gewoon zonde van de hardware; dit soort kaarten moet je gebruiken voor Windows enzo, niet voor ZFS. Dus het kán wel, bijvoorbeeld als je al dit soort hardware hebt. Maar ik zie niet echt voordelen, of althans daar ben ik nog niet zo van overtuigd. Met een BBU kun je write-back aanzetten ja. Maar dat betekent wel dat er reads geblokkeerd worden op het moment dat de buffer vol zitten. Het is gewoon slimmer om ZFS alles te laten doen zonder allerlei lagen die tussen ZFS en de disks zitten.
Diabolus in "Storage showoff topic - 10+ TB storage systems"
Net XFS lopen tunen en met dd lopen testen. Beiden TB+ arrays halen ~300 MB/s en trekken makkelijk de gigabit lijnen vol.
Helaas verloopt de array <-> array transfer niet zo snel (~100 ~ 250MB/s). Iemand ideeën? Ik vermoed zelf dat het wel eens aan gefragmenteerde bestanden kan liggen.
Hmm, ik haal op mijn eigen array heen en terug zelfde...
root@NAS:/mnt/data# dd if=file.000 of=file.001 bs=1M count=20480 20480+0 records in 20480+0 records out 21474836480 bytes (21 GB) copied, 124.641 s, 172 MB/s
[ Voor 61% gewijzigd door FireDrunk op 30-11-2011 13:43 ]
Even niets...
Weet je zo. EvenDiabolus schreef op woensdag 30 november 2011 @ 10:48:
Mijn NAS:
Diabolus in "Storage showoff topic - 10+ TB storage systems"
Net XFS lopen tunen en met dd lopen testen. Beiden TB+ arrays halen ~300 MB/s en trekken makkelijk de gigabit lijnen vol.
Helaas verloopt de array <-> array transfer niet zo snel (~100 ~ 250MB/s). Iemand ideeën? Ik vermoed zelf dat het wel eens aan gefragmenteerde bestanden kan liggen.
xfs_db -c frag -r /dev/$arraynode
Hoeft niet als root. Dit geeft aan of je FS daadwerkelijk is gefragmenteerd (hoe lager hoe beter):
actual 64842, ideal 64488, fragmentation factor 0,55%
Met
sudo xfs_fsr
lrwxrwxrwx 1 root root 17 2010-05-06 22:15 /etc/cron.daily/xfs_fsr -> /usr/sbin/xfs_fsr
@FD: Volgens mij bedoelt Diabolus van array1 naar array2. Dat een copy binnen de array niet zo snel gaat is op zich vrij logisch volgens mij.
[ Voor 32% gewijzigd door HarmoniousVibe op 30-11-2011 13:58 ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
root@NAS:/mnt/data# xfs_db -c frag -r /dev/md0 actual 254317, ideal 252090, fragmentation factor 0.88%
Na twee uur xfs_fsr:
root@NAS:/mnt/data# xfs_db -c frag -r /dev/md0 actual 254013, ideal 252091, fragmentation factor 0.76%
Duurt mij te lang
@HV, dat snapte ik, maar ter vergelijking, is mijn array op zichzelf dus even snel als zijn array's naar elkaar.
Dat klinkt niet goed
[ Voor 53% gewijzigd door FireDrunk op 30-11-2011 15:42 ]
Even niets...
MDADM > hw raid natuurlijk
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
root@Baldr:~# sudo xfs_db -c frag -r /dev/sdb1 actual 34478, ideal 16089, fragmentation factor 53.34% root@Baldr:~# sudo xfs_db -c frag -r /dev/sdc1 actual 7156, ideal 6839, fragmentation factor 4.43%
Het ziet er dus naar uit dat inderdaad fragmentatie een rol aan het spelen is (Samen met rebuild die op de achtergrond bezig is en die een hoge prioriteit heeft). Het is trouwens wel interessant om te zien hoe groot het verschil in fragmentatie kan zijn tussen een fs die geoptimaliseerd is voor grote bestanden en eentje waarbij de optimalisaties niet aanstaan.
Ik zal xfs_fsr ook in de crontab gooien. Bedankt voor de tip!
Ik moet zeggen dat dit OS me erg meevalt en tot nu toe alles erg lekker draait (benches volgen).
Er zitten 2x 1TB Samsung (F1/F3) schijven als opslag in en 1x 500GB Samsung als OS-schijf.
Verder is het een micro-itx moederbord met een Intel Atom D510 (1.6Ghz) CPU en 4GB aan DDR2 geheugen.
Het grootste punt waar ik even zoet mee ben geweest is de installatie van SABnzbd, Sickbeard en CouchPotato. Met name het feit dat het Debian Squeeze (Linux) is en ik hier weinig tot nog nooit mee had gewerkt heeft me dat aardig wat tijd gekost. Maar tijd loont de moeite blijkt wel want het geheel heeft nog nooit zo responsief gewerkt.
Tot noch toe een aanradertje dus!
Binnenkort ga ik mijn Ubuntu Server NAS herinstalleren, echter kamp ik met de huidige setup problemen die ik in de nieuwe wil voorkomen.
Namelijk ik krijg de file permissions van de users niet goed ingesteld. Files die zijn aangemaakt door bijv. gebruiker 1 kunnen niet worden geopend door gebruiker 2 (Samba).
Na wat zoekwerk op Google kan hier ik niet echt iets goed voor vinden.
Mijn vraag is dus: hebben jullie een goede resource waar ik kan vinden hoe ik dit goed kan instellen?
Alvast bedankt.
Zoek even de handleiding van CHMOD, en je leert veel over de permissies.
(man chmod)
Even niets...
Even niets...
Bedankt voor de aanvullende info, hier kan ik zeker mijn research op los laten
Zeker als zoals bij vele distributies de primaire usergroep van iemand dezelfde naam heeft als de user.
Verwijderd
create mask 0666
directory mask 0777
Directories moeten namelijk executable zijn, wat inhoudt dat je de inhoud van de directory mag opvragen. Bij files hoort de executable permission uit te staan, behalve voor files die je op de server wilt uitvoeren wat voor een NAS zeldzaam is. Dus die kun je beter op '6' (read+write) laten.
* FireDrunk heeft alzheimer light...
Even niets...
Niet te grote kast, genoeg cpu voor downloads, minimaal 4 schijven, toekomst uitbreidbaar (5-6), en niet al te duur, maar wel toekomstbestendig. Ik denk dat ik windows home server als besturingssysteem ga gebruiken. Als er iemand een lijstje heeft ben ik zeer blij.
Dit heet topic-kapen, je kunt het beste zelf even een nieuw topic aan maken of een post aanmaken in het DIY topic.Sebas77 schreef op maandag 05 december 2011 @ 10:45:
Beste allen, ik probeer uit te vinden of ik voor weinig een barebone kan bouwen. Mijn synology ds410 kan mijn nieuwe internet aansluiting (120mb) niet aan. Belangrijkste zaken:
Niet te grote kast, genoeg cpu voor downloads, minimaal 4 schijven, toekomst uitbreidbaar (5-6), en niet al te duur, maar wel toekomstbestendig. Ik denk dat ik windows home server als besturingssysteem ga gebruiken. Als er iemand een lijstje heeft ben ik zeer blij.
Verwijderd
Dit is het DIY topic?brndst schreef op maandag 05 december 2011 @ 10:57:
[...]
Dit heet topic-kapen, je kunt het beste zelf even een nieuw topic aan maken of een post aanmaken in het DIY topic.
Config: Gigabyte GA-E350N-USB3 mobo, 8GB mem, 2x 1TB RAID1.
Functies: SabNZBd, films/muziek/backups opslaan.
Nu had ik het idee FreeBSD te installeren, op een CF/SD-kaart of USB-stick. Is dit zinvol m.b.t. idle-wattage? En gaat het werken i.c.m. het parren/rarren van SabNZBd? Waar ik bang voor ben is dat FreeBSD/SabNZBd toch een pagefile ergens wil hebben, omdat het anders retetraag wordt.
Wie heeft hier ervaring mee en kan me in/uit de droom helpen?
Weer bedankt voor de aanvullende info. Staat op mijn lijstje
OMG, mijn fout.. meerdere vensters en een heel andere reactie door elkaar halen gaat me niet goed af.
Excuses, was heel niet voor jou bedoeld.Sebas77 schreef op maandag 05 december 2011 @ 11:34:
Goh, wat grappig, ik heb een tijdje geleden een eigen topic gestart en kreeg daar de reactie, dat ik het beste in DIY Nas kon plaatsen, en nu krijg ik de melding dat ik de topic kaap.
Je mag wel iets meer eigen inzet vertonen. Dit is het Do It Yourself topic. Wij zijn hier niet om voor jou een kant en klaar lijstje uit te spugen.Sebas77 schreef op maandag 05 december 2011 @ 11:34:
Goh, wat grappig, ik heb een tijdje geleden een eigen topic gestart en kreeg daar de reactie, dat ik het beste in DIY Nas kon plaatsen, en nu krijg ik de melding dat ik de topic kaap.
Als je het topic door scant, kan je heeeel wat systeem configuraties tegenkomen die kunnen wat jij wil.
Bedenk goed wat het mag kosten, en wat voor platform je wil. Als je dat eenmaal bedacht hebt, bedenk dan welke eisen er minimaal aan je processor en moederbord moeten zitten.
Maak een groslijst van moederborden die aan deze eisen voldoen, en bekijk dan eens wat reviews over deze moederborden.
Kom je er dan nog niet uit, kan je altijd je lijstje hier posten en vragen welk moederbord het beste geschikt zou zijn.
Even niets...
Even niets...
Misschien dat er bij het rebuilden van mijn 2+1 mdadm Raid 5 array toch ergens iets tussen geslopen is?
Ik denk aan een scriptje om alle bestanden te hashen en dat in een database bij te houden. Klinkt echter zeer omslachtig.
(Btw, kom NIET af met "zfs kan dat lekker wel blabla" want dat weet ik ook wel)
Verwijderd
Even niets...
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
par2create file dd if=/dev/urandom of=file count=5 conv=notrunc par2verify file
kapotte file...
par2repair file
fixed...
Zou wel grappig zijn als je hiermee dus een soort ZFS structuur bouwt van checksums van al je (belangrijke) data. Hebben we een scriptkiddie die teveel tijd over heeft?
Even niets...
ik wil binnenkort mijn nas uitbreiden naar een grotere data storage omdat hij te klein wordt.
ik heb nu een qnap ts-410 en ik denk dat ik een barebone van norco neem met misschien een i3 of i5 processor.
het belangrijkste is media streamen over het netwerk en hetverzamelen van meta data bij films op Windows heb ik een handig programma namelijk Plex maar dat werkt volgens mij niet op linux. ik wil dan ook ernaast op de server een kleine ftp server hosten voor op school bij mijn data te kunnen komen.
nu de vraag aan jullie weten jullie software als vervanging voor plex voor linux want ik heb gehoord dat linux vele malen stabieler en beter draait op een server en zouden jullie een i3 of een i5 adviseren of mischien wat anders als raid controller zat ik te denken aan deze http://tweakers.net/price.../areca-arc-1880ix-24.html mijn budget is ongeveer 2500-3000
Verwijderd
PAR is geen checksum maar pariteit, error correctie versus error detectie dus. Net als ECC error correctie is en CRC alleen error detectie. Alleen de laatstgenoemde is een checksum.FireDrunk schreef op maandag 05 december 2011 @ 20:06:
Uh, PAR kan toch gewoon corrigeren? MD5 Checksums niet nee, maar met PAR heb je gewoon repair bestanden. Vaak is 10% genoeg om corruptie tegen te gaan...
Maar oke, dat is zijn details. Met PAR kun je inderdaad bereiken wat hierboven wordt gezegd. Punt blijft dat je metadata erg gevoelig is voor corruptie en geen enkele bescherming heeft hiertegen. Dus gebruik je geen ZFS dan kun je beter in een goede backup investeren. Ook omdat je geen goede history hebt zoals snapshots in ZFS.
Ik raad je aan om toch je even wat meer te verdiepen in de materie van je apps die je wilt gebruiken, Plex heeft prima een Linux server...dylan0806 schreef op maandag 05 december 2011 @ 21:27:
hallo,
ik wil binnenkort mijn nas uitbreiden naar een grotere data storage omdat hij te klein wordt.
ik heb nu een qnap ts-410 en ik denk dat ik een barebone van norco neem met misschien een i3 of i5 processor.
het belangrijkste is media streamen over het netwerk en hetverzamelen van meta data bij films op Windows heb ik een handig programma namelijk Plex maar dat werkt volgens mij niet op linux. ik wil dan ook ernaast op de server een kleine ftp server hosten voor op school bij mijn data te kunnen komen.
nu de vraag aan jullie weten jullie software als vervanging voor plex voor linux want ik heb gehoord dat linux vele malen stabieler en beter draait op een server en zouden jullie een i3 of een i5 adviseren of mischien wat anders als raid controller zat ik te denken aan deze http://tweakers.net/price.../areca-arc-1880ix-24.html mijn budget is ongeveer 2500-3000
Zeker als je nog geen ervaring met linux hebt, kan een readymade distro uitkomst voor je bieden. Aan de andere kant, het is ook geen rocketscience.
Verwijderd
De tekst-tussen-haakjes was vooral om 10 "ZFS heeft dat joh" posts te vermijdenVerwijderd schreef op maandag 05 december 2011 @ 20:00:
Al deze heb je geen last van bij het filesystem wat ik niet mag noemen.
Maar ach, ik ben ZFSguru aan het testen in Vbox maar ben nog niet 100% overtuigd (ben een linux homeboy). Effe 3TB vrije ruimte vinden is niet vanzelfsprekend en alweer veranderen van setup heb ik geen zin.
We'll see, misschien wordt ik wel een ZFS sl*t
Verwijderd
Ben wel benieuwd: waar loop je precies tegenaan wat je minder bevalt?
Als ik nu met men MDADM array in plaatsnood kom zet ik gewoon met hotspare als data disk erbij en heb ik weer 2TB extra.
Hopelijk gebeurt dat laatste niet vooraleer de prijzen van de HDD's dalen. Naar de winkel moeten hollen omdat je Raid 5 degraded is en daar zwaar voor betalen is geen levensdoel.
(Werk zelf bij EMC en daar zien we regelmatig het nut van spares
@ Dylan: op Ebay komen regelmatig IBM M1015 (laatst nog voor 100 euro) HBA's voorbij. zijn eenvoudig te flashen naar IT mode en zijn perfect voor ZFS/mdadm.
Verwijderd
Maar je moet zelf afwegen welke voordelen/nadelen zwaarder voor je wegen. Als mdadm bij jou past kun je daar prima bij blijven, althans voorlopig. Maar er is niets op tegen om andere oplossingen zoals ZFS(guru) uit te proberen en kijken wat je bevalt en wat niet. Het verhaal met corruptie is duidelijk een groot voordeel van ZFS, ook met bad sectors waar ZFS eigenlijk helemaal geen last meer van heeft.
Verder vraag ik me altijd af of dat probleem met silent corruption nu echt zo groot is. Ik heb het nog nooit meegemaakt en 99% van de servers, zelfs production grade servers, draaien al jaren prima, en dat zonder ZFS. Ik betwijfel bovendien of de data van de meeste tweakers zo mission critical is
Niet dat ik iets af wil doen aan het feit dat deze feature erg 'handig' kan zijn, by lack of a better word, maar we moeten de zaken wel in verhouding blijven zien.
Ik heb zelf ook wel eens glichtes gehad in wat AV-materiaal, maar als ik de torrent dan lied rehashen was alles toch altijd oké (behalve dan dat de source of encode glitchy was dus).
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Verwijderd
Maar dan heb je dus geluk dat de corruptie in een file bevindt, en niet in de metadata. Die metadata is zo belangrijk, wel een kleine kans dat de corruptie zich daarin afspeelt maar als dat zo is ben je f*cked. Corrupte metadata kan fataal zijn. Traditionele filesystems bieden geen enkele bescherming voor de metadata. ZFS gebruikt altijd redundante metadata (ditto copies) ook als je slechts één drive pool hebt.Ik heb zelf ook wel eens glichtes gehad in wat AV-materiaal, maar als ik de torrent dan lied rehashen was alles toch altijd oké
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Verwijderd
Nu is de metadata maar beperkt in omvang. Dus als je ergens corruptie hebt is de kans groter dat deze in data van een file plaatsvindt dan in de metadata. En niet alle corruptie in metadata is fataal. Maar het blijft gewoon een zwak punt van veel filesystems. Ze zijn niet gebouwd op hardeschijven met hoge datadichtheid die af en toe één sector niet kunnen lezen, of bit-rot of problemen met RAID layer of geheugencorruptie waardoor metadata beschadigd raakt.
Wil je écht bescherming voor je bestanden, dan is ZFS dus het beste alternatief. Voor andere filesystems moet je vooral flink inzetten op backups, want RAID enzo doet hier weinig tegen.
Mijn kennis van linux/BSD gaat zo ver dat ik weet hoe je het moet installeren maar daar blijft het bij(FreeNAS geprobeerd voordat ik de qnap kocht).
Ik zat te denken om misschien Windows server 2008 R2 te nemen aangezien ik al aardig wat weet van windows. Of is het vrij gemakkelijk om Linux te leren?
En het "probleem" is dat ik minimaal 5 sas aansluitingen nodig heb voor de hardeschijven.
http://www.norcotek.com/i...goryid=1&modelno=rpc-4220
[ Voor 20% gewijzigd door dylan0806 op 06-12-2011 01:36 ]
Hetzelfde kan uiteraard ook van BSD gezegd worden, maar ik vind Linux toch net iets makkelijker.
De SAS aansluitingen kan je bekomen door bv een paar IBM M1015 HBA's in te prikken. Ga er wel vanuit dat je dan al bijna een server-grade mobo nodig hebt, want er zijn weinig consumentenborden (zonder fancy overhead) die 3x of 4x PCI-e 8x hebben. 1 HBA + expander is ook mogelijk maar hou rekening met de beperkingen van expanders.
Het grote voordeel van linux/BSD over Windows moet wel de software raid zijn. Exit dure TLER schijven en RAID controllers.
In welk opzicht is the software RAID functionaliteit van Linux/BSD beter? Of refereer je naar ZFS?Jormungandr schreef op dinsdag 06 december 2011 @ 11:09:
Linux heeft mijn inziens een vrij lage instapdrempel mede door de grote community. Vooral distro's zoals Debian/Ubuntu hebben al heel wat packages standaard aan boord (itt Arch Linux bv). Hun userbase is ook zeer uitgebreid dus de kans dat je een probleem tegenkomt waar niemand een antwoord op heeft is klein.
Hetzelfde kan uiteraard ook van BSD gezegd worden, maar ik vind Linux toch net iets makkelijker.
De SAS aansluitingen kan je bekomen door bv een paar IBM M1015 HBA's in te prikken. Ga er wel vanuit dat je dan al bijna een server-grade mobo nodig hebt, want er zijn weinig consumentenborden (zonder fancy overhead) die 3x of 4x PCI-e 8x hebben. 1 HBA + expander is ook mogelijk maar hou rekening met de beperkingen van expanders.
Het grote voordeel van linux/BSD over Windows moet wel de software raid zijn. Exit dure TLER schijven en RAID controllers.
Ik heb zelf jaren lang software RAID onder Windows gedraaid en ik heb hier nooit problemen mee gehad. Zelfs de performance was acceptabel.
Is de kans dat bestanden corrupt raken op RAID array niet even groot als de kans dat de data corrupt raakt op een enkele schijf?
Software raid of een fabrikant specifieke oplossing als fakeraid van bijv intel, highpoint etc?brederodekater schreef op woensdag 07 december 2011 @ 11:26:
[...]
In welk opzicht is the software RAID functionaliteit van Linux/BSD beter? Of refereer je naar ZFS?
Ik heb zelf jaren lang software RAID onder Windows gedraaid en ik heb hier nooit problemen mee gehad. Zelfs de performance was acceptabel.
Het hoeft geen problemen te geven, maar raid is een oplossing voor als dat wel optreedt, dus doemscenarios en daarop voorbereiden is iets dat eigen is aan dit topic....
Nee. Stel je draait 3 x 2TB raid5, dan mag er gewoon een schijf dood gaan voordat er iets corrupt raakt. Als je met enkele schijven, spanning of concatenation werkt, dan ben je meteen data kwijt als er een schijf uitvalt. In het beste geval de data van de schijf die dood is gegaan en in het slechtste geval alles, bijvoorbeeld omdat er op die drie schijven 1 FS stond, want nu kapot is.Pi0tr schreef op woensdag 07 december 2011 @ 15:29:
Ik had ook nog even een vraagje over de corruptie op RAID:
Is de kans dat bestanden corrupt raken op RAID array niet even groot als de kans dat de data corrupt raakt op een enkele schijf?
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Misschien ben ik niet helemaal duidelijk geweest, maar de functie van RAID was me wel duidelijk. Alleen hadden ze het voorgaande berichten over data corruptie op een RAID array door bad sectors etc. en dat zfs deze bad sectors automatisch zou repareren. Dus ik vroeg mij af of de kans dat bestanden corrupt raken op een RAID array even groot is als op een enkele harde schijf.HarmoniousVibe schreef op woensdag 07 december 2011 @ 17:27:
[...]
Nee. Stel je draait 3 x 2TB raid5, dan mag er gewoon een schijf dood gaan voordat er iets corrupt raakt. Als je met enkele schijven, spanning of concatenation werkt, dan ben je meteen data kwijt als er een schijf uitvalt. In het beste geval de data van de schijf die dood is gegaan en in het slechtste geval alles, bijvoorbeeld omdat er op die drie schijven 1 FS stond, want nu kapot is.
[ Voor 3% gewijzigd door Pi0tr op 07-12-2011 18:13 ]
Ik heb het volgende gedaan:
- groep aangemaakt en gebruiker A en B hieraan toegevoegd.
- folder chown naar A:groep. (hoofd folder van samba share)
- in samba share de Marks' van CiPHER ingevoegd.
Wat zie ik over het hoofd, alles verloopt trouwens via Ubuntu server 11 en samba.
Johiem
Verwijderd
drwxr-xr-x 2 joey joey 4096 2011-12-08 08:40 naamloze map
drwxr-xr-x 3 root gezin 4096 2011-12-07 17:05 Network Trash Folder
-rw-r--r-- 1 root root 13978 2011-12-08 08:42 smb.conf
drwxr-xr-x 3 root gezin 4096 2011-12-07 17:05 Temporary Items
Het waren allemaal nieuwe bestanden en mappen, allemaal getest na het aanpassen van samba. De service smbd en nmbd herstart ik na elke config wijziging.
De config file zit op pastebin :http://pastebin.com/JuF8n9TU
Na het opstarten vanochtend van de server kan alleen mijn account (joey) mappen aanmaken, etc. Ik snap er nu niks meer van. Ik heb de groups ook even op pastebin gezit: http://pastebin.com/MwLrSbuw
Alle hulp zou ik erg waarderen.
b) Het is create mask niet create mode
c) Ik ben zelf niet zo'n fan van hoofdletter gebruik tussen unix en windows, omdat windows mappen met hoofdletters en mappen met kleine letters hetzelfde vind.
Even niets...
Bedankt voor de reactie. Paar domme foutjes, zal ze zo meteen even aanpassen. Laat het wel even weten.
EDIT:
Succes! Het is wel handig als ik de hoofdmappen (in de shares) zelf ook chmod naar 770.
[ Voor 41% gewijzigd door johiem op 08-12-2011 10:15 ]
Ik heb dus in mijn NAS een raid 1 zitten, fakeraid met MDADM. Deze wordt bij boot automatisch gemount.
In mijn mdadm.conf heb ik deze regel:
# definitions of existing MD arrays
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=a78440a7:82ef539f:b225aed1:77a45117
Echter bij herstarten staat de array nu niet meer op /dev/md0, maar op /dev/md127. Wat doe ik hier fout? (de regel komt uit --detail --scan). Na de herstart geeft mdadm --detail --scan:
ARRAY /dev/md/NAS001:0 metadata=1.2 name=NAS001:0 UUID=a78440a7:82ef539f:b225aed1:77a45117
Hoe kan ik dit oplossen?
Ja Ubuntu Server, sorry vergeten te vermelden.
Zoek even op mijn posts en je vind volgens mij wel een oplossing.
* FireDrunk zoekt ook even terug.
Sleepie schreef op vrijdag 22 juli 2011 @ 11:58:
[...]
That would have been me
Ik heb heel lang zitten stoeien met die /dev/md127 ellende.
Het blijkt echter toch een soort bug te zijn in de mdadm autodetect.
Je kunt het oplossen door na het aanmaken van de raid een
sudo update-initramfs
te geven.
@hierboven:
Ik dacht juist (weet de bron helaas niet meer) dat je geen last had van die alignment issues als je geen partities maakt op je disks.
Dat is voor mij ook de reden geweest om dat niet te doen (en volgens mij zijn er velen hier die het zo gedaan hebben in mdamd. Ik meen dat Q ook geen partities heeft).
[ Voor 52% gewijzigd door FireDrunk op 08-12-2011 11:12 ]
Even niets...
Je bent een held! sudo update-initramfs -u, heeft mijn probleem opgelost
Hardware:
Intel Xeon E3-1270 Boxed
16 x Western Digital Caviar Green WD10EADS, 1TB (=16TB)
LSI SAS 9201-16i
4 x Hynix HMT351U7BFR8C-H9T0 (=16GB)
Supermicro X9SCM-F
Crucial m4 CT128M4SSD2 128GB (nog aan te schaffen)
Software:
VMware vSphere Hypervisor 5.0 (250MB op SSD)
VM = FreeNAS 8.0.2 (8GB op SSD) ==> AFPD (file server met ZFS op LSI controller en 16 disken)
VM = OSX Lion 10.7.2 (±120GB op SSD) ==> Plex Server
Aangezien ik geen ervaring heb met vSphere graag jullie input of dit gaat werken.
Wat heb ik al geprobeerd:
- vSphere geïnstalleerd op USB stick om te zien of alle hardware in mijn server goed wordt herkend. Alle hardware inclusief LSI controller en netwerkkaarten worden herkend
- Op mijn Mac heb ik al jaren Fusion draaien, dus binnen Fusion een VM aangemaakt met iSphere en daar weer een aantal VM's om geïnstalleerd om te zien hoe het beheer werkt
ps. Dit avontuur is natuurlijk voor de leuk
... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...
Even niets...
Ik heb ook mn storage os gevirtualiseerd, weliswaar CentOS 6 ipv. FreeNAS.FireDrunk schreef op donderdag 08 december 2011 @ 11:38:
Leuk avontuur! Haal je een beetje leuke performance met FreeNAS gevirtualiseerd?
Wat me bij mij opvalt is dat niet het OS de performance bepaald maar achter welke aansluiting de daadwerkelijke storage disk hangt. In mijn geval een USB 2 external 3TB disk.
Ben benieuwd of dat 'veel' is.
Even niets...
[ Voor 83% gewijzigd door _Dune_ op 08-12-2011 20:03 ]
Ik vroeg mij bij deze post af wat voor behuizing je hebt of van plan bent te gebruiken?Oid schreef op maandag 31 oktober 2011 @ 22:18:
Momenteel heb ik het volgende systeem
# Product Prijs Subtotaal 1 Intel Gigabit CT Desktop Adapter € 23,05 € 23,05 6 Samsung EcoGreen F4EG HD204UI, 2TB € 109,- € 654,- 1 Asus P5Q PRO € 0,- € 0,- 1 Intel Core 2 Quad Q6600 € 0,- € 0,- 2 GeIL GV34GB1333C7DC € 0,- € 0,- 1 Club3D HD 3450 256MB GDDR2 PCI-E € 23,50 € 23,50 Bekijk collectie
Importeer productenTotaal € 700,55
gebasseerd op freebsd met ZFS in RAID-Z2 op een usb stick van 8 GB
Nu wil ik graag wat zuiniger gaan maar geen "snelheids" verlies lijden.
Zou bijv. dit een optie kunnen zijn:
# Product Prijs Subtotaal 1 Intel Gigabit CT Desktop Adapter € 23,05 € 23,05 1 Asus E35M1-I € 94,95 € 94,95 1 Kingston ValueRAM KVR1066D3N7K2/8G € 37,90 € 37,90 Bekijk collectie
Importeer productenTotaal € 132,85
Waar ik bang voor ben is dat die moederbord niet genoeg heeft om nog eens de stap te kunnen maken naar bijv. 12x 2 TB of 3TB schijven. Er zijn 6 SATA-600 poorten aanwezig dat is voor nu voldoende, en 1 x16 poort, daar wil ik de Gigabit lan adapter in stoppen.
Nu zat ik te twijfelen met bijv. dit bordje:
# Product Prijs Subtotaal 1 Asus E35M1-M Pro € 104,95 € 104,95
deze heeft echter maar 5 SATA 600 poorten, maar wel 1x x16 en 1x x1 poort zodat ik er dus de Gigabit lan adapter op aan kan sluiten en een SATA controller. Ik heb de pricewatch: Sweex Serial ATA Controller nog liggen, maar dat is maar 150 SATA ipv 600.
Wat is nou de beste keuze? Ik kan er op gokken dat de onboard netwerkkaart van bordje 1 voldoende bandbreedte geeft zodat ik geen stotter krijg ik de films die ik afspeel en in de toekomst een x16 SATA controller met bijv. 8 poorten erbij prikken.
Of kan ik beter gaan voor een pricewatch: AMD A4-3400 Boxed of pricewatch: Intel Core i3 2100 met een bijbehorden volwaardig moederbord?
Ik hoop dat jullie wat advies kunnen geven? Ik heb nu de 6x 2TB in RAID-Z2 staan en ik wil nog een SSD erbij voor cache e.d.
Ik had zelf namelijk dat ik in één klap flink mijn aantal SATA poorten ging uitbreidde, maar mij daarna pas besefte dat er helemaal niet zo veel HDDs in mijn kast passen. En een kast (dat niet meteen een rack-geval of Norco monster is) waar meer dan 10 a 12 HDDs in kunnen (ruimte verkregen dmv 4-in-3 bakjes al meegerekend) die aan al mijn eisen voldeed (er moet bijvoorbeeld ook gewoon nog een game-systeem met grote videokaart in passen en stil kunnen zijn) kon ik niet zo snel vinden voor een prijs van onder de 250 euro.
Verwijderd
Heb je die Intel controller echt nodig? Als je een Mini-ITX bord neemt heb je maar één addon slot en die wil je voor een extra controller gebruiken. Je moet NOOIT PCI gebruiken; dus zo'n flut silicon image SiI-3114 kaartje is echt uit den boze, zeker voor ZFS. Je SSD kun je het beste op je onboard controller aansluiten, dus je hardeschijven op de addon controller. Je kunt addon en onboard prima mixen.
TLER is op het eerste gezicht een gemis bij hw raid maar 3 of 4 vervangende schijven halen in deze tijden is not-done.
Nu lees ik hier en daar dat er diverse raid controllers zijn (enkele lsi's) welke het toelaten om zo ingesteld te worden dat schijven langer de tijd krijgen hun ding te doen bij lees of schrijf errors waar normaal gesproken TLER in zou grijpen. Er is zeer weinig over te vinden over het instellen van de "timeout values", of ik zoek met de verkeerde termen, maar nu is mijn vraag of er mensen zijn die hier ervaring mee hebben. Is een storage opstelling zoals deze afdoende voor thuis en is hiermee een hoop gezeur met het herinit'en van arrays te voorkomen?
XOR kan je prima door je CPU laten doen, dat kost het ding amper werk, tis maar wat je ermee doet...
Wil je > 300MB/s, dan zal je CPU er wel voor moeten werken ja, maar dat ding koop je toch niet om hem niks te laten doen?
Even niets...
Ik zal toegeven dat ik stiekem wel aan het kijken was naar lacp ondersteundende switches en dual nic kaartenFireDrunk schreef op zaterdag 10 december 2011 @ 23:28:
MDADM heeft niet zoveel last van TLER als een HW RAID controller dat heeft. MDADM is wat dat betreft veel coulanter. RAID5 is wat dat betreft prima te doen met MDADM.
XOR kan je prima door je CPU laten doen, dat kost het ding amper werk, tis maar wat je ermee doet...
Wil je > 300MB/s, dan zal je CPU er wel voor moeten werken ja, maar dat ding koop je toch niet om hem niks te laten doen?
Verwijderd
* FireDrunk heeft hem
[ Voor 21% gewijzigd door FireDrunk op 11-12-2011 01:14 ]
Even niets...
Mijn RAID 1 (MDADM) doet de hele tijd raar, na een paar reboots raakt deze degraded. Terwijl ik hiervoor nooit problemen mee heb gehad (na reinstall van ubuntu server).
Ik heb MDADM weggegooid en alles opnieuw ingesteld (Raid array weg, geformatteerd, etc). Maar ik houdt dit rare probleem.
Heeft iemand een idee hoe ik dit verder kan onderzoeken en wat de oorzaak er van kan zijn? Het is telkens dezelfde HDD (tevens de eerste). Ik wordt er zelf een beetje gek van.
Even niets...
Waar moet ik deze logs weghalen? En welke bedoel je precies?
De array blijft nu in de degraded state, tenzij ik hem ga rebuilden.
cat /var/log/* | grep md
cat /var/log/* | grep /dev/hd
cat /var/log/* | grep /dev/sd
Even niets...
Bedankt voor de reactie trouwens
Heb het even op paste bin gezet:
md
http://pastebin.com/AneBRzUH
hd
gaf geen output
/dev/sd
http://pastebin.com/2ncKQJXS
Ik zie dat er veel commando's inzetten van mijn log script (mdadm --detail, hddtemp, etc).
Schijf is degraded vanmiddag rond 16:30 / 16:45 en vandaag nog een keer eerder, gisteravond.
Bedankt alvast.
COMMAND=/sbin/mdadm --manage /dev/md0 --fail /dev/sdb1
Om je array weer op te bouwen nadat hij hem kwijt is, zou ik geen --create gebruiken, maar --assemble
[ Voor 38% gewijzigd door FireDrunk op 13-12-2011 17:44 ]
Even niets...
Alle data is toch weg, dus was opnieuw begonnen. Toen na de tijd ook weer degraden
Verwijderd
Systeem:
- Asus M5A78L-M
- OCZ ModXStream Pro 500 Watt
- AMD Athlon II X2 250
- 2 x Kingston ValueRAM DDR3 (2GB)
- 2 x Samsung Spinpoint Ecogreen 2TB
- 1 x Kingston SSDNow 16GB
En dat alles in een Fractal Design Define Mini.
Mvg,
J Hiemstra
EDIT: Desalniettemin blijf graag eerst even bij Ubuntu Server
[ Voor 7% gewijzigd door johiem op 13-12-2011 17:57 ]
Ik denk niet dat het aan bad sectors ligt maar om het uit te sluiten zou je je disks vol kunnen schrij en
Let op: Niet gebruiken als je niet weet wat je doet.
dd if=/dev/zero of=/mnt/[jouwmountpoint]/big.000 bs=1m count=99999999
Wacht tot je een foutmelding krijgt met Device is full, en delete daarna de file.
Daarna zou je in de logs wel wat moeten zien als er bad sectors zijn.
Je kan uiteraard allemaal shady tooltjes gaan installeren die je disks op bad sectors testen, maar dat vertrouw ik persoonlijk niet zo... als je dit niet aan durft kan je het beste de testsoftware van de fabrikant van je disks draaien..
Even niets...
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.


