Verwijderd

Topicstarter
Je kunt proberen DIPM in te schakelen, zie /boot/loader.conf als je ZFSguru gebruikt. Daarin staan wat comments hoe je DIPM inschakelt door wat # karakters te verwijderen. Het nadeel is dat presence-detection dan niet meer werkt evenals hotswap. Je kunt het per SATA kanaal in of uitschakelen; zie je 'dmesg' welke SATA kanalen je hebt en op welke disks zie zit. Zoals:

code:
1
2
3
4
5
6
7
# dmesg | grep ahcich
ahcich0: <AHCI channel> at channel 0 on ahci0
ahcich1: <AHCI channel> at channel 1 on ahci0
ahcich2: <AHCI channel> at channel 2 on ahci0
ahcich3: <AHCI channel> at channel 3 on ahci0
ada0 at ahcich0 bus 0 scbus0 target 0 lun 0
ada1 at ahcich2 bus 0 scbus2 target 0 lun 0


ps. Ik zal aan Jason vragen of hij deze tip in de loader.conf kan plaatsen. :)

[ Voor 5% gewijzigd door Verwijderd op 29-01-2013 21:26 ]


  • webbier
  • Registratie: Mei 2010
  • Laatst online: 30-11 13:28
code:
1
2
3
4
5
6
7
8
[root@zfsguru /home/ssh]# dmesg | grep ahcich
ahcich0: <AHCI channel> at channel 0 on ahci0
ahcich1: <AHCI channel> at channel 1 on ahci0
ahcich2: <AHCI channel> at channel 2 on ahci0
ahcich3: <AHCI channel> at channel 3 on ahci0
ahcich4: <AHCI channel> at channel 4 on ahci0
ahcich5: <AHCI channel> at channel 5 on ahci0
ada0 at ahcich0 bus 0 scbus1 target 0 lun 0


Mijn ssd zit dus op ada0. Begrijp ik dan goed als ik in /boot/loader.conf de eerste regel uit het volgende stukje uncomment dat dan dipm ingeschakeld is voor die poort?
code:
1
2
3
4
5
6
7
8
9
10
#hint.ahcich.0.pm_level="5"
#hint.ahcich.1.pm_level="5"
#hint.ahcich.2.pm_level="5"
#hint.ahcich.3.pm_level="5"
#hint.ahcich.4.pm_level="5"
#hint.ahcich.5.pm_level="5"
#hint.ahcich.6.pm_level="5"
#hint.ahcich.7.pm_level="5"
#hint.ahcich.8.pm_level="5"
#hint.ahcich.9.pm_level="5"

Verwijderd

Topicstarter
Dat zou inderdaad de bedoeling moeten zijn ja! Jouw Intel 320 is extreem zuinig in DIPM mode, 75mW dus 0,075W. Zonder DIPM is dit rond de 0,6 watt dus bijna een factor 10 vermindering. Dat is wel klasse.

Dus wat kun je nou doen? Eerst met je stroommeter een stabiele meting krijgen zonder DIPM. Dan edit je dat bestand en haal je die # weg van de eerste regel zoals je zegt en reboot je simpelweg. Dan weer even stabiliseren en kijken of je inderdaad ongeveer een halve watt zuiniger uit bent.

Bovendien, op mijn Intel systeem heb ik gemerkt dat DIPM (slumber mode) inschakelen de controller/chipset ook zuiniger maakt. Zelfs zonder disks aangesloten maakt DIPM nog flink wat uit; voor details zie het topic wat ik in een vorige post heb genoemd. De grote vraag is of dit ook geldt voor AMD SATA, want bijvoorbeeld voor ASMedia chip maakte DIPM zonder schijf aangesloten niets uit; hij bleef 0,3 watt verbruiken. Terwijl Intel met alle 6 kanalen op DIPM helemaal niets meer verbruikt; althans hetzeflde als de SATA controller uitschakelen in BIOS.

  • webbier
  • Registratie: Mei 2010
  • Laatst online: 30-11 13:28
Klinkt goed, ik ga het van het weekend eens proberen. I'll keep you posted!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 25-12 10:16
Even een vraag over de L2ARC en ZIL op SSD zetten.

In de openings post zie ik een voorbeeld van CiPHER:
Hoe groot moet ik de partities dan maken?
Stel je heb twee SSDs van 128GB, dus totaal 256GB. Op je SSD maak je dan partities aan zoals:
- partitie 1 voor systeem/boot pool: 28GiB
- partitie 2 voor L2ARC cache: 60GiB
- partitie 3 voor SLOG: 4GiB
- rest van de ruimte onbenut laten als overprovisioning (let op: de SSD mag niet gebruikt zijn anders gaat deze ruimte verloren! secure erase of TRIM erase gebruikte SSDs alvorens overprovisioning toe te passen).

Doe dit voor beide SSDs en je hebt:
- een systeem/boot pool in mirror configuratie 28GB beschikbare ruimte
- L2ARC caching met twee partities in striping = 2x 60 = 120GB
- SLOG in mirror met twee partities = 4GB
Ik heb 2 stuks samsung 830 van 64 GB en een 80 GB Intel X25 waarvan ik nu ZFSGuru boot.
Dus die 2 Samsung 830 SDD voor L2ARC en SLOG.

Ik wil 2 pools maken, kan ik dan simpleweg de 2x een SLOG mirror maken, en op elke SSD een L2ARC ?

Als die SLOG maar 4 GB hoeft te zijn, kan ik 2 x 4 GB nemen en dan nog 56 GB voor de L2ARC per pool. (of iets minder als ik onder provisionen wil)

Ik ga blu ray rips opslaan, en denk wat aan de L2ARC te hebben om de Yadis bitmaps op te slaan. Mijn HDI dune speler vraagt die continue op als je door de films scrolled) Dat is een paar GB aan data.

Ook kan dan wellicht de pool waarvan ik niet afspeel in spindown wat in geluid scheelt omdat de SLOG dan niet meer op de pool zelf staat ? (of zit ik er hier naast)

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase

jacovn schreef op woensdag 30 januari 2013 @ 13:21:
Even een vraag over de L2ARC en ZIL op SSD zetten.

In de openings post zie ik een voorbeeld van CiPHER:


[...]


Ik heb 2 stuks samsung 830 van 64 GB en een 80 GB Intel X25 waarvan ik nu ZFSGuru boot.
Dus die 2 Samsung 830 SDD voor L2ARC en SLOG.

Ik wil 2 pools maken, kan ik dan simpleweg de 2x een SLOG mirror maken, en op elke SSD een L2ARC ?

Als die SLOG maar 4 GB hoeft te zijn, kan ik 2 x 4 GB nemen en dan nog 56 GB voor de L2ARC per pool. (of iets minder als ik onder provisionen wil)

Ik ga blu ray rips opslaan, en denk wat aan de L2ARC te hebben om de Yadis bitmaps op te slaan. Mijn HDI dune speler vraagt die continue op als je door de films scrolled) Dat is een paar GB aan data.

Ook kan dan wellicht de pool waarvan ik niet afspeel in spindown wat in geluid scheelt omdat de SLOG dan niet meer op de pool zelf staat ? (of zit ik er hier naast)
Ja hoor dat kan, 56GB L2ARC is zat hoor, iets minder zal qua performance niet veel uitmaken...

Even niets...


  • Waking_The_Dead
  • Registratie: Januari 2010
  • Laatst online: 04-07-2024
Allright; ik heb ondertussen alle ruimte beschikbaar op mijn NAS.
Nu heb ik wel een ander probleemje - al is het helemaal niet zo erg (hoop ik toch).

Ik ben dus bezig om al mijn disks een voor een offline te halen en te partitioneren. Met onderstaande commando heb ik partities aangemaakt.

code:
1
2
gpart create -s GPT /dev/ada0
gpart add -b 2048 -s 5860327424 -t freebsd-zfs -l Disk_01 /dev/ada0


Nu zag ik na het resilveren van de tweede disk mooi gpt/Disk_01 en gpt/Disk_02 staan bij het ingeven van zpool status. Hierna heb ik gereboot en nu zijn de lables gewoon verdwenen. Ze staan ook niet meer onder de gpt directory.

Heeft iemand een idee waarom die labels weg zijn na een reboot? Dit kan toch niet de bedoeling zijn.

Verwijderd

Topicstarter
Labels zijn niet weg, ze zijn onzichtbaar omdat je de onderliggende GEOM container in gebruik hebt.

Je GEOM chain is: disk /dev/ada0 -> geom_part partitie 1 (/dev/ada0p1) -> geom_label (/dev/gpt/Disk_01)
Maar nu heb je de geom partitie in gebruik (/dev/ada0p1). Op dat moment verdwijnt de geom_label omdat de onderliggende container in gebruik is. Wat zou er gebeuren als ZFS of een ander software RAID driver opeens /dev/label/Disk_01 gaat gebruiken en naar schrijven, terwijl ZFS /dev/ada0p1 in gebruik heeft? Juist, daar zijn beveiligingen voor. ;)

Belangrijk is of je onder FreeNAS of ZFSguru draait. ZFSguru gebruikt namelijk altijd gpt labels en probeert die ook te behouden. Daarbij zijn diverse factoren betrokken, zoals de status van de labels bij exporteren, manier van importeren en de inhoud van zpool.cache file. Maar er zijn ook allerlei wijzingen in de code van FreeBSD die het gedrag veranderen.

Gebruikt FreeNAS zelf wel die GPT labels in hun interface?

  • DrFlash
  • Registratie: Juli 2009
  • Laatst online: 14-12 13:36
Verwijderd schreef op woensdag 30 januari 2013 @ 19:23:
Gebruikt FreeNAS zelf wel die GPT labels in hun interface?
yup als je je schijven laat opzetten door freenas maakt deze ze ook aan met een label en zet ze zo ook in de vdev

Wowhead profiel


  • Waking_The_Dead
  • Registratie: Januari 2010
  • Laatst online: 04-07-2024
DrFlash schreef op woensdag 30 januari 2013 @ 19:36:
[...]


yup als je je schijven laat opzetten door freenas maakt deze ze ook aan met een label en zet ze zo ook in de vdev
Maar niet als je de labels aangemaakt hebt via de commandline zoals ik hierboven heb aangegeven.
Verwijderd schreef op woensdag 30 januari 2013 @ 19:23:
Je GEOM chain is: disk /dev/ada0 -> geom_part partitie 1 (/dev/ada0p1) -> geom_label (/dev/gpt/Disk_01)
Maar nu heb je de geom partitie in gebruik (/dev/ada0p1). Op dat moment verdwijnt de geom_label omdat de onderliggende container in gebruik is. Wat zou er gebeuren als ZFS of een ander software RAID driver opeens /dev/label/Disk_01 gaat gebruiken en naar schrijven, terwijl ZFS /dev/ada0p1 in gebruik heeft? Juist, daar zijn beveiligingen voor. ;)
Sorry, maar daar begrijp ik echt geen bal van :-)
Onder /dev/gpt/ zie ik in elk geval geen Disk_01 en Disk_02 meer staan. Dat was voor ik gereboot had wel het geval.

[ Voor 52% gewijzigd door Waking_The_Dead op 30-01-2013 19:43 ]


  • Tha Ra
  • Registratie: Oktober 2005
  • Laatst online: 25-12 15:39
Ik heb al een tijd een FreeNAS systeempje draaien met 12 schijven van 2TB in twee RAIDZ2 sets. Dit hangt alleen aan een Brazos bordje met 8GB RAM en dat is traag als stront. Ik wil het vervangen door het volgende:
#ProductPrijsSubtotaal
1AMD A8-5500 Boxed€ 90,45€ 90,45
1Asus F2A85-M€ 75,-€ 75,-
1Corsair XMS3 CMX32GX3M4A1600C11€ 142,95€ 142,95
Bekijk collectie
Importeer producten
Totaal€ 308,40

Dan heb ik voor weinig geld een quadcore (ZFS houdt van veel cores toch?), en 32GB RAM (met mogelijkheid tot 64GB). Is dit een geschikte keus? Ga ik hiermee met gemak Gbit LAN voltrekken? Ik gebruik geen dedup maar wil wel compressie toepassen.
ZFS is niet zo zwaar voor een CPU, tenzij je Compressie gebruikt. Maar verder is het setje prima voor wat je wil. Een Intel dual core kan dat ook prima... Of je moet een voorkeur hebben voor AMD...

Even niets...


  • servies
  • Registratie: December 1999
  • Laatst online: 17:43

servies

Veni Vidi Servici

Tha Ra schreef op donderdag 31 januari 2013 @ 13:05:
Ik heb al een tijd een FreeNAS systeempje draaien met 12 schijven van 2TB in twee RAIDZ2 sets. Dit hangt alleen aan een Brazos bordje met 8GB RAM en dat is traag als stront. Ik wil het vervangen door het volgende:
#ProductPrijsSubtotaal
1AMD A8-5500 Boxed€ 90,45€ 90,45
1Asus F2A85-M€ 75,-€ 75,-
1Corsair XMS3 CMX32GX3M4A1600C11€ 142,95€ 142,95
Bekijk collectie
Importeer producten
Totaal€ 308,40

Dan heb ik voor weinig geld een quadcore (ZFS houdt van veel cores toch?), en 32GB RAM (met mogelijkheid tot 64GB). Is dit een geschikte keus? Ga ik hiermee met gemak Gbit LAN voltrekken? Ik gebruik geen dedup maar wil wel compressie toepassen.
Je banken zitten wel vol met dit geheugen. Dus simpelweg uitbreiden door erbij plaatsen gaat niet...

  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 08-12 15:22
Je gaat daar gbit wel mee voltrekken ja. Ik heb een Athlon X2 250e en 13 harddisks en daarmee haal ik (in elk geval met FTP) ook strak 120MB/sec.

Zou je met zoveel data niet liever een 'gewone' AM3+ AMD hebben met een bord dat ECC ondersteunt? Ik heb juist daarvoor gekozen omdat ik de integriteit van de bestanden belangrijk vind (en daarom ook ZFS draai). Overigens weet ik niet of 32 GB nou ook echt nodig is. Met streamen van media en hooguit een paar simultane connecties op mijn mediaserver heb ik aan 4 GB RAM (ZFS On Linux) zat.

Edit: ik denk dat juist de CPU snelheid jouw systeem nu limiteert omdat hij druk is met checksums en IP /netwerkverkeer afhandelen. De stap van 8 aar 32 GB zal dus veel minder opleveren dan van een Brazos naar niet-Brazos. (Ik had het Asus C-60 moederbord en dat schoot ook niet op en nu een Asus Crosshair IV Extreme met AMD X2 250).

[ Voor 23% gewijzigd door Contagion op 31-01-2013 14:13 ]


  • B2
  • Registratie: April 2000
  • Laatst online: 15:09

B2

wa' seggie?

Contagion schreef op donderdag 31 januari 2013 @ 14:10:
Je gaat daar gbit wel mee voltrekken ja. Ik heb een Athlon X2 250e en 13 harddisks en daarmee haal ik (in elk geval met FTP) ook strak 120MB/sec.

Zou je met zoveel data niet liever een 'gewone' AM3+ AMD hebben met een bord dat ECC ondersteunt? Ik heb juist daarvoor gekozen omdat ik de integriteit van de bestanden belangrijk vind (en daarom ook ZFS draai). Overigens weet ik niet of 32 GB nou ook echt nodig is. Met streamen van media en hooguit een paar simultane connecties op mijn mediaserver heb ik aan 4 GB RAM (ZFS On Linux) zat.

Edit: ik denk dat juist de CPU snelheid jouw systeem nu limiteert omdat hij druk is met checksums en IP /netwerkverkeer afhandelen. De stap van 8 aar 32 GB zal dus veel minder opleveren dan van een Brazos naar niet-Brazos. (Ik had het Asus C-60 moederbord en dat schoot ook niet op en nu een Asus Crosshair IV Extreme met AMD X2 250).
Alhoewel ik ook ECC geheugen heb (het X9SCM-F moederbord pakt geen gewoon RAM) heeft ECC geheugen niet zoveel zin als de rest van je clients geen ECC heeft. Als een client corrupte data op de ZFS server zet gaat ECC je daarbij niet helpen.

  • DrFlash
  • Registratie: Juli 2009
  • Laatst online: 14-12 13:36
Tha Ra schreef op donderdag 31 januari 2013 @ 13:05:
Dan heb ik voor weinig geld een quadcore (ZFS houdt van veel cores toch?), en 32GB RAM (met mogelijkheid tot 64GB). Is dit een geschikte keus? Ga ik hiermee met gemak Gbit LAN voltrekken? Ik gebruik geen dedup maar wil wel compressie toepassen.
ZFS zelf heeft weinig aan meer cores (single threaded process) ook Cifs/Samba maakt geen gebruik van multicore.

Echter is het wel zo, hoe meer processen je toevoegd, hoe (theoretisch) ze meer hebben aan multicore processoren.

Wat betreft aanschaf zou ik voor de filer niet gaan voor meer als een dualcore, maar wel met zo hoog mogelijke cpu cycles (3ghz+) want juist de cpu cycles maken uit.

Ik gebruik zelf overigens voor m'n filer @ home een intel G860 @ 3ghz. Dit is een dualcore.
Voor m'n NAS welke ik host in het datacenter heb ik een Xeon E3-1225 v2. Dit is ook een dualcore, die klokt op maximaal 3.5ghz (turbo0), standaard 2.3 ghz.

Beide bovenstaande machines hebben compressie aanstaan op de pools. en beide machines trekken zonder noemenswaardige load makkelijk een gigabit lijn vol.

[ Voor 21% gewijzigd door DrFlash op 31-01-2013 14:51 ]

Wowhead profiel

Ik vind die Xeon's echt top, maar ze zijn echt schrikbarend duur in verhouding tot desktop CPU's.

180,- voor een dualcore op 3.1 ghz. Dat vind ik toch echt teveel...

Even niets...


  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 08-12 15:22
@B2: Ik heb juist voor ECC gekozen omdat ik ook zeker wil zijn dat als ik een scrub uitvoer, er geen 'silent corruption' gedetecteerd wordt terwijl dat niet terecht is. Ik kan me ook voorstellen dat er juist op zo'n moment corrupte writes komen. Immers een blok wordt niet ge-verify-on-write zodra hij geschreven wordt.
Uh, niet? Checksums worden continu gebruikt door ZFS, niet alleen bij scrub...

Even niets...


  • DrFlash
  • Registratie: Juli 2009
  • Laatst online: 14-12 13:36
FireDrunk schreef op donderdag 31 januari 2013 @ 15:06:
Ik vind die Xeon's echt top, maar ze zijn echt schrikbarend duur in verhouding tot desktop CPU's.
Ik zal ze voor thuis nooit kopen, maar op m'n hosting locatie hangt ie er voor klanten. Kan het niet maken het risico te nemen met een desktop processor om een paar euro uit te sparen.

Wowhead profiel


Verwijderd

Topicstarter
DrFlash schreef op donderdag 31 januari 2013 @ 14:44:
[...]


ZFS zelf heeft weinig aan meer cores (single threaded process) ook Cifs/Samba maakt geen gebruik van multicore.
Sorry maar dit klopt echt niet. ZFS is multithreaded; niet singlethreaded. Dit kun je ook simpelweg zien in de top -S output.

Samba is single threaded, maar maakt nieuwe single threaded child processes aan voor file transfers. Tijdens een file transfer zie je dus twee processen met de naam 'smbd'. Samba is dus multiprocess en niet multithreaded. Maar hetzelfde principe.

ZFS is juist heel erg threaded en daarbij geldt dat je liever meer cores hebt op lagere frequency, dan weinig cores op hoge frequency. Dat gezegd is ZFS zonder compressie weinig CPU-intensief en vooral erg geheugen-intensief.
Beide bovenstaande machines hebben compressie aanstaan op de pools. en beide machines trekken zonder noemenswaardige load makkelijk een gigabit lijn vol.
Probeer hetzelfde eens met gzip compressie. ;)

[ Voor 3% gewijzigd door Verwijderd op 31-01-2013 15:46 ]

Inderdaad, lzjb (default) is koekie vergeleken bij gzip :+

Even niets...


  • Tha Ra
  • Registratie: Oktober 2005
  • Laatst online: 25-12 15:39
servies schreef op donderdag 31 januari 2013 @ 14:02:
[...]

Je banken zitten wel vol met dit geheugen. Dus simpelweg uitbreiden door erbij plaatsen gaat niet...
Ja klopt, maar tegen de tijd dat er standaard (Non-ECC, unbuffered) 16GB dimmen uitkomen kunnen deze ook op dit bord, in tegenstelling tot Intel's 1155 platform.

  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

ok, ik heb een nieuwe server besteld, met 10 disks,
is het dan abnormaal om 2x 5disk RaidZ te draaien? of is een 10disk RaidZ2 de beste keuze..

als ik later wil uitbreiden, en er is geen plaats meer. dan moet ik ineens 10disks vervangen, terwijl met 2 verschillende vdevs, kan ik dit per 5 doen..

\\ Baloo \\ Mijn iRacing profiel


  • onox
  • Registratie: Februari 2006
  • Laatst online: 18-05 22:02
DrFlash schreef op donderdag 31 januari 2013 @ 14:44:
Voor m'n NAS welke ik host in het datacenter heb ik een Xeon E3-1225 v2. Dit is ook een dualcore, die klokt op maximaal 3.5ghz (turbo0), standaard 2.3 ghz.
Een E3-1225V2 is een quad core.

Verwijderd

Topicstarter
@MikeVM: lees de topicstart eens door, in het bijzonder Kan ik met ZFS mijn array uitbreiden zoals met RAID5 veelal kan?

Je hoeft niet uit te breiden met hetzelfde aantal schijven; je kunt bijvoorbeeld ook een 3-disk RAID-Z erbij plakken als je dat wilt.

RAID-Z2 biedt natuurlijk meer veiligheid dan RAID-Z. Een pool met 2x RAID-Z van 5 disks betekent dat het bij 2 gefaalde disks al allemaal voorbij kan zijn. Dan vind ik 10-disk RAID-Z2 voor dezelfde redundancy een betere keuze.

Maar misschien bedoelde je dat je bestaande 2TB schijven bijvoorbeeld vervangt door 3TB schijven? Ik zelf snap niet zo heel erg de charme hiervan; wat doe je dan met je 2TB schijven? Ik denk ook dat als je in de toekomst met 4TB/5TB schijven in de weer gaat, dat het bouwen van een nieuwe / 2e ZFS NAS de meest logische optie is. Dan schuif je je huidige NAS gewoon door als backup NAS die niet meer 24/7 actief is. Dan heb je ook een gemakkelijk upgradepath.

En wees niet zuinig met de ruimte die je nodig hebt. Ga er vanuit dat je niet meer dan 65% van je pool vol wilt hebben. Als je denkt dat dat meer wordt, wordt het tijd voor meer schijfjes.

  • Waking_The_Dead
  • Registratie: Januari 2010
  • Laatst online: 04-07-2024
Verwijderd schreef op donderdag 31 januari 2013 @ 17:04:
Maar misschien bedoelde je dat je bestaande 2TB schijven bijvoorbeeld vervangt door 3TB schijven? Ik zelf snap niet zo heel erg de charme hiervan; wat doe je dan met je 2TB schijven? Ik denk ook dat als je in de toekomst met 4TB/5TB schijven in de weer gaat, dat het bouwen van een nieuwe / 2e ZFS NAS de meest logische optie is. Dan schuif je je huidige NAS gewoon door als backup NAS die niet meer 24/7 actief is. Dan heb je ook een gemakkelijk upgradepath.
Volgens mij bedoelt MikeVM wel degelijk wat jij hier beschrijft.
Maar waarom zou je een nieuwe NAS moeten maken als schijven vervangen even goed werkt?
Ik ben begonnen met 6x1TB in RAID-Z2. Ondertussen zijn alle schijven al minstens 1 keer vervangen en heb ik 6x3TB. De oude schijven verkoop ik gewoon (of houd ik voor andere doeleinden) en het totaalplaatje is voor mij nog steeds goedkoper dan wanneer ik destijds ineens met 6x3TB was begonnen.

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 25-12 10:16
Let wel op met een E3-12x5 chip.

Ik heb een 1265lv2 en een supermicro x9sae-v moederbord, maar daar boot zfsguru en nas4free niet op omdat in freebsd geen support zit voor video uit de cpu.
Linux (unraid) doet het er in textmode prima op oveirgens.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Verwijderd

Topicstarter
@jaconv: FreeBSD ondersteunt geen video uit de CPU? Geldt dat specifiek voor die CPU dan, want voor alle moderne Intel chips (en AMD) geldt hetzelfde en dat werkt gewoon. Altijd nog in text danwel VESA mode volgens mij hoeft je OS daarvoor je videokaart niet te ondersteunen.

En al zou je videokaart niet worden ondersteund, dan nog zou FreeBSD of een ander OS prima op moeten kunnen starten. Het beheren wordt dan wel moeilijker, maar zo heb ik in het verleden gedraaid om stroom te besparen. Dat was in de tijd dat onboard video in de chipset (laat staan CPU) niet vanzelfsprekend was. Als ik video nodig had, pleurde ik tijdelijk een videokaart in het PCI (!) slot en daarna er weer uit. Je hoort dan wel een BIOS piek (lang en 3x kort) maar hij boot gewoon door. Een videokaart is dus in principe niet iets wat je écht nodig hebt.
Uh, als je een BIOS ziet kan je OS het ook wel aan... Die standaard (VESA) is al HEEL oud en werkt eigenlijk altijd. Ik heb (serieus) nog nooit een OS gezien wat geen VESA ondersteunde...

En inderdaad, zoals CiPHER zegt, mocht er echt iets mis gaan met je GPU, moet je OS gewoon doorbooten, zonder beeld.

Even niets...


  • Contagion
  • Registratie: Maart 2000
  • Laatst online: 08-12 15:22
FireDrunk schreef op donderdag 31 januari 2013 @ 15:29:
Uh, niet? Checksums worden continu gebruikt door ZFS, niet alleen bij scrub...
Uiteraard, dat weet ik, maar ik bedoel dat je met kapot RAM je mogelijk spontane fouten ziet die eigenlijk niet op de disk zelf zitten maar veroorzaakt worden door het RAM. Vervolgens wordt een blok hersteld en geschreven, maar mogelijk kapot geschreven (wederom door het defecte RAM) terwijl het on-disk helemaal niet stuk was.
Verwijderd schreef op donderdag 31 januari 2013 @ 17:04:
@MikeVM: lees de topicstart eens door, in het bijzonder Kan ik met ZFS mijn array uitbreiden zoals met RAID5 veelal kan?
Ik heb een manier gevonden waarmee dat inderdaad kan. Het kost wel heel veel tijd, maar je kan een array opbouwen op bestaande disks om zo uit te breiden naar een array met meer disks. Ik heb het onder Linux geprobeerd om een 80% volle 4 disk array om te zetten naar een 5 disk array met de bestaande 4 disks + 1 nieuwe. Dat is succesvol afgerond. De truc zit hem in resilveren naar sparse files op bestaande disks. Omslachtig maar het werkt. _/-\o_

  • analog_
  • Registratie: Januari 2004
  • Niet online
FireDrunk schreef op donderdag 31 januari 2013 @ 19:04:
Uh, als je een BIOS ziet kan je OS het ook wel aan... Die standaard (VESA) is al HEEL oud en werkt eigenlijk altijd. Ik heb (serieus) nog nooit een OS gezien wat geen VESA ondersteunde...

En inderdaad, zoals CiPHER zegt, mocht er echt iets mis gaan met je GPU, moet je OS gewoon doorbooten, zonder beeld.
De meeste besturingssystemen kunnen een seriële console poort gebruiken zoals bij veel netwerk apparatuur. In Vyatta zit dit bijvoorbeeld default ingebouwd en heeft het wel z'n charme, het geeft het echte kant-en-klare hardware oplossing gevoel (alsof je een cisco doos hebt).

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 25-12 10:16
FireDrunk schreef op woensdag 30 januari 2013 @ 14:58:
[...]


Ja hoor dat kan, 56GB L2ARC is zat hoor, iets minder zal qua performance niet veel uitmaken...
Ok, ik heb wat gezocht over gpart, en ben uitgekomen op het volgende:

gpart create -s gpt da0
grapt add -t freebsd-zfs -l ssd1sil1 -s 4G da0
gpart add -t freebsd-zfs -l ssd1sil2 -s 4G da0
gpart add -t freebsd-zfs -l ssd1l2arc da0

gpart create -s gpt da1
gpart add -t freebsd-zfs -l ssd2sil1 -s 4G da1
gpart add -t freebsd-zfs -l ssd2sil2 -s 4G da1
gpart add -t freebsd-zfs -l ssd2l2arc da1


Dan moet ik 3 partities erbij krijgen op de ssd's (2 stuks van 4GB, en 1 partitie met de rest van de disk ruimte)

Kan ik dan in de zfsguru interface een raid1 volume voor de slog maken over de ssd1sil1 en ssd2sil1 voor pool 1, en een andere mirror over de ssd1sil2 en ssd2sil2 voor pool 2.
Dan een l2arc volume voor pool 1 op ssd1 in de partitie ssd1l2arc, en op ssd2 in de partitie ssd2l2arc

[ Voor 2% gewijzigd door jacovn op 31-01-2013 21:26 . Reden: Add gpt partite scheme vergeten ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Verwijderd

Topicstarter
Die gpart commando's raad ik niet aan, want als die op LBA 34 beginnen dan heb je een misaligned partitie. Je kunt juist heel makkelijk in ZFSguru partitioneren, hoe je wilt. Check de disks pagina en klik op een disk.

Je kunt voor elke SSD dan een schema aanhouden:

partitie1: boot <16GB>
partitie2: l2arc cache voor pool1 <30GB>
partitie3: l2arc cache voor pool2 <30GB>
partitie4: slog voor pool1 <4GB>
partitie5: slog voor pool2 <4GB>

En dan hetzelfde voor je 2e SSD. Kies handige labels zodat je niet in de war raakt. ;)

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 25-12 10:16
Hmm, dat is inderdaad meer voor mij geschikt dan. Niet goed die pagina bekeken denk ik, gewoon klikken op de lege ruimte en een partitie aanmaken, makkelijker kan het niet.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Verwijderd

Topicstarter
Heb ik gemaakt trouwens, die grafische partition map editor. Erg cool en het werkt best goed vind ik. :)

Heads up: systeemversie 9.1-005 is uitgebracht voor ZFSguru, inclusief nieuwe services! Nog wel beta want Jason is nog aan het testen. Pas echt officiëel zodra hij met een aankondiging komt. :)

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 25-12 10:16
De cache toevoegen lukt wel goed, je kunt een test doen, en dan hem accepteren, en hij is toegevoegd.
De slog toevoegen werkt niet. Ik selecteer de 2 4 GB partities, maar kan dan de test niet uitvoeren.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Verwijderd

Topicstarter
Dat is een bekende bug in beta8. Je kunt downgraden naar beta7 tijdelijk en dan toevoegen, of via de command line doen gewoon. Gebruik wel de GPT labels voor de disks (/dev/gpt/...).

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 25-12 10:16
Verwijderd schreef op donderdag 31 januari 2013 @ 18:12:
@jaconv: FreeBSD ondersteunt geen video uit de CPU? Geldt dat specifiek voor die CPU dan, want voor alle moderne Intel chips (en AMD) geldt hetzelfde en dat werkt gewoon. Altijd nog in text danwel VESA mode volgens mij hoeft je OS daarvoor je videokaart niet te ondersteunen.

En al zou je videokaart niet worden ondersteund, dan nog zou FreeBSD of een ander OS prima op moeten kunnen starten. Het beheren wordt dan wel moeilijker, maar zo heb ik in het verleden gedraaid om stroom te besparen. Dat was in de tijd dat onboard video in de chipset (laat staan CPU) niet vanzelfsprekend was. Als ik video nodig had, pleurde ik tijdelijk een videokaart in het PCI (!) slot en daarna er weer uit. Je hoort dan wel een BIOS piek (lang en 3x kort) maar hij boot gewoon door. Een videokaart is dus in principe niet iets wat je écht nodig hebt.
Ik kwam tot het plaatje van zfsguru, en daarna kwamen error entrys op de text console door.

Probe258:mps1:0:3:0): INQUIRY. CDB: 12 0 0 0 24 0 lenght 36 SMID <increasing number> terminated ioc 804b scsi 0 state c xfer 0

Dat increasing number is elke seconde de error message, en die teller wordt dan met 1 verhoogd


Volgens http://www.phoronix.com/s...page=news_item&px=MTIzMTU moet de intel kms support in freebsd 9.1 zitten.

Jason heeft in de release notes van 9.1-004 http://zfsguru.com/doc/systemimage/9.1-004 geschreven:
This version is not compiled with intel kms support

Ik denk dat dat de reden is dat het niet werkt.

[ Voor 3% gewijzigd door jacovn op 01-02-2013 02:31 ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Verwijderd

Topicstarter
Wat jij paste gaat over de mps driver ofwel LSI SAS2008 SAS controller (zoals IBM M1015). Heeft verder niets met Intel GPU te maken.

De normale X-server service is zonder Intel KMS support. Je kan dan de oude intel driver gebruiken of vesa video support. De nieuwe X-server-KMS service is gecompileerd met de nieuwe X.org ports en met Intel KMS support. Dan kun je je sandy bridge / ivy bridge CPU met IGP/GPU (videokaart) gebruiken met een moderne 'KMS' driver die ook openGL etc zou moeten ondersteunen. Deze service is beschikbaar voor de nieuwe 9.1-005 systeemversie.

Maar dit alles gaat over grafische desktops. Als je gewoon ZFSguru gebruikt zonder dat spul te installeren, dan werk je gewoon in text mode; net als je BIOS zeg maar en DOS. Dat hoort altijd te werken.

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 25-12 10:16
Verwijderd schreef op vrijdag 01 februari 2013 @ 02:01:
Dat is een bekende bug in beta8. Je kunt downgraden naar beta7 tijdelijk en dan toevoegen, of via de command line doen gewoon. Gebruik wel de GPT labels voor de disks (/dev/gpt/...).
Is dat zo simpel als:
zpool add tank log mirror partitie1 partitie2

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Verwijderd

Topicstarter
Inderdaad, met GPT labels dus:
zpool add tank log mirror gpt/partitieXopSSD1 gpt/partitieXopSSD2

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 25-12 10:16
Verwijderd schreef op vrijdag 01 februari 2013 @ 02:38:
Wat jij paste gaat over de mps driver ofwel LSI SAS2008 SAS controller (zoals IBM M1015). Heeft verder niets met Intel GPU te maken.

De normale X-server service is zonder Intel KMS support. Je kan dan de oude intel driver gebruiken of vesa video support. De nieuwe X-server-KMS service is gecompileerd met de nieuwe X.org ports en met Intel KMS support. Dan kun je je sandy bridge / ivy bridge CPU met IGP/GPU (videokaart) gebruiken met een moderne 'KMS' driver die ook openGL etc zou moeten ondersteunen. Deze service is beschikbaar voor de nieuwe 9.1-005 systeemversie.

Maar dit alles gaat over grafische desktops. Als je gewoon ZFSguru gebruikt zonder dat spul te installeren, dan werk je gewoon in text mode; net als je BIOS zeg maar en DOS. Dat hoort altijd te werken.
Ok, ik heb inderdaad m1015 controllers, crossflashed naar lsi IT mode.
Ik heb nu een ander supermicro moederbord genomen met een i3-2100t processor,en dat gaat goed bij de install, en draait nu goed.
Overigens wilde nas4free ook niet installeren,dezelfde foutmelding.

Wellicht een bios issue tussen moederbord en kaart, het is een vrij nieuw moederbord van supermicro. Ik kan een vraag bij hun stelllen. Het is een dure cpu, en mainbord, draait nu mijn unraid server op, maar dat is helemaal overkill.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Verwijderd

Topicstarter
Heb je nieuwe firmware op je M1015 geflashed? De drivers in FreeBSD 9.1 hebben nieuwe firmware nodig. Tenzij je iets met virtualisatie doet, lijkt me dat een van de weinige mogelijke problemen met M1015.

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 25-12 10:16
Verwijderd schreef op vrijdag 01 februari 2013 @ 02:51:
Heb je nieuwe firmware op je M1015 geflashed? De drivers in FreeBSD 9.1 hebben nieuwe firmware nodig. Tenzij je iets met virtualisatie doet, lijkt me dat een van de weinige mogelijke problemen met M1015.
Ik heb instructies van server the home gevolgd: http://www.servethehome.com/ibm-serveraid-m1015-part-4/
Dat zijn niet de allernieuwste lsi drivers volgens mij, maar ze werken prima samen met mijn supermicro x9scm-f moederbord en zfsguru.
Lijkt dan toch moederbord/kaart issue te zijn.

Wel iemand gevonden die deze combinatie heeft werken: http://forum.highflow.nl/...s-topic-13420/#post238574

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase

Ik denk eerder aan een driver issue of een verkeerde setting in je BIOS... Die supermicro borden zitten qua BIOS erg goed in elkaar. Ik heb hier een AMD SuperMicro bord, en dat is een prima ding, wat alles slikt...

Even niets...


  • DrFlash
  • Registratie: Juli 2009
  • Laatst online: 14-12 13:36
jacovn schreef op donderdag 31 januari 2013 @ 18:08:
[...]

Let wel op met een E3-12x5 chip.

Ik heb een 1265lv2 en een supermicro x9sae-v moederbord, maar daar boot zfsguru en nas4free niet op omdat in freebsd geen support zit voor video uit de cpu.
Linux (unraid) doet het er in textmode prima op oveirgens.
Misschien geen grafische driver, maar de text mode driver van freebsd werkt prima. Ik draai het namelijk :-). ben toch ook van mening dat er geen desktop op een server (en al zeker een nas) niet hoort dus dat is prima.

@onox. je hebt gelijk. verkeerd gekeken gisteren, tis inderdaad een quad core op 3.1 ghz (geen 2.3) zat naar 1 van m'n andere servers te kijken terwijl ik de post maakte :-)

Wowhead profiel


  • wjn
  • Registratie: Juli 2012
  • Laatst online: 26-11 13:40

wjn

Verwijderd schreef op donderdag 31 januari 2013 @ 22:21:
Heads up: systeemversie 9.1-005 is uitgebracht voor ZFSguru, inclusief nieuwe services! Nog wel beta want Jason is nog aan het testen. Pas echt officiëel zodra hij met een aankondiging komt. :)
Ben benieuwd.

Niet dat ik het mis, want het draait gewoon stabiel als file-/backupserver. :)

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 25-12 10:16
FireDrunk schreef op vrijdag 01 februari 2013 @ 07:47:
Ik denk eerder aan een driver issue of een verkeerde setting in je BIOS... Die supermicro borden zitten qua BIOS erg goed in elkaar. Ik heb hier een AMD SuperMicro bord, en dat is een prima ding, wat alles slikt...
De drivers op de zfsguru installatie cd werken wel op mijn andere supermicro moederbord. Ik neem aan dat ze wel goed zijn.
Bios zou kunnen. Ik heb member hakker een bericht gestuurd en gevraagd welke bios versie hij heeft en in welk slot de m1015 zit.
Als dat niet afwijkt zouden het settings kunnen zijn inderdaad.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • Geckx
  • Registratie: November 2008
  • Laatst online: 26-12 00:18
Ik heb nu al een tijdje een zeer goed werkende ZFSguru NAS build. Maar het feit is dat zowel ik als mijn broer niet 24/7 aan het thuisfront zijn, dus ik zou graag wat willen experimenteren met "Accept connections from any source including the internet (dangerous!)"

Nu zou ik eerst en vooral graag wat meer weten hoe dit precies in zijn werk gaat en hoe het zit met beveiliging. Wie kan er dan allemaal aan de bestanden en is het dan ook mogelijk om de webconfig te accessen van buitenaf?

Hoe kan ik er op een eenvoudige manier voor zorgen dat slechts bepaalde mappen op het net staan? (vb: enkel de audio, maar niet de films)

  • B2
  • Registratie: April 2000
  • Laatst online: 15:09

B2

wa' seggie?

Verwijderd schreef op donderdag 31 januari 2013 @ 22:21:
Heads up: systeemversie 9.1-005 is uitgebracht voor ZFSguru, inclusief nieuwe services! Nog wel beta want Jason is nog aan het testen. Pas echt officiëel zodra hij met een aankondiging komt. :)
Welke nieuwe services?

  • Jonny55
  • Registratie: Maart 2012
  • Laatst online: 15-01-2021
Hoi,

Ik heb de download map van transmission toegevoegd aan etc/rc.conf gesaved daarna opnieuw opgestart nu krijg ik en error (syntax error 85) hoe kan ik dit verhelpen?
server is ook niet meer toegankelijk via de web interface.

ZFSguru version 0.2.0-beta8
Running official system image 9.1-004 featuring FreeBSD 9.1-RC3 with ZFS v28.
Running Root-on-ZFS distribution.

[ Voor 23% gewijzigd door Jonny55 op 01-02-2013 17:17 ]


  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 21:47
Even een crospost vanuit een ander topic om wat duidelijkheid te krijgen over een beweren die Mux doet in een BBG topic ;)
mux schreef op woensdag 30 januari 2013 @ 20:47:
Nou, alleen al RAID-Z is een 100x upgrade boven elke vorm van software of hardware RAID-0/1/5/10.
Voor zover ik weet is Raid-z namelijk vrijwel gelijk aan RAID 5. Wat zou dan het voordeel zijn? Puur de extra features die in ZFS zitten zoals self healing data?

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 16:59

Compizfox

Bait for wenchmarks

Ik heb een probleempje met NFS. Na met rot gezocht te hebben, bleek dit te komen door ZFS.

Ik heb namelijk een pool (Data) met daarbinnen o.a. een aantal subfilesystems.
Ik wil de gehele pool + subfilesystems sharen, maar dat kan blijkbaar niet doordat de subfilesystems een aparte mountpoint hebben.

Dit heb ik nu gelezen: http://zfsguru.com/forum/zfsgurudevelopment/516

CiPHERs scriptje vind ik niet zo'n hele mooie oplossing, omdat ik gewoon met 1 command wil kunnen mounten.

Maar het kan dus wel met NFS4? Hoe gebruik ik dat? Als ik de boel probeer te mounten zegt ie dit:
code:
1
2
3
4
5
~$ sudo mount -t nfs4 192.168.2.5:/Data /mnt/data -v
mount.nfs4: timeout set for Fri Feb  1 17:25:54 2013
mount.nfs4: trying text-based options 'addr=192.168.2.5,clientaddr=192.168.2.2'
mount.nfs4: mount(2): Protocol not supported
mount.nfs4: Protocol not supported
StefanvanGelder schreef op vrijdag 01 februari 2013 @ 17:24:
Voor zover ik weet is Raid-z namelijk vrijwel gelijk aan RAID 5. Wat zou dan het voordeel zijn? Puur de extra features die in ZFS zitten zoals self healing data?
Eh ja.
De checksums, het defeaten van de write hole, dat soort dingen.

[ Voor 17% gewijzigd door Compizfox op 01-02-2013 17:31 ]

Gewoon een heel grote verzameling snoertjes


Verwijderd

Topicstarter
Geckx schreef op vrijdag 01 februari 2013 @ 13:18:
(..) ik zou graag wat willen experimenteren met "Accept connections from any source including the internet (dangerous!)"

Nu zou ik eerst en vooral graag wat meer weten hoe dit precies in zijn werk gaat en hoe het zit met beveiliging. Wie kan er dan allemaal aan de bestanden en is het dan ook mogelijk om de webconfig te accessen van buitenaf?
De beveiliging van de web-interface heeft alleen betrekking op de web-interface en niet op andere diensten, zoals Samba, NFS, SSH en wat niet al. Accept connections from any source betekent dat als jouw server toegankelijk is voor mensen van internet, deze geen wachtwoord hoeven in te vullen en zomaar op jouw ZFSguru web-interface komen. Om die reden is dit natuurlijk niet standaard. In de meeste gevallen wil je een whitelist gebruiken. Dan kun je vanaf een andere computer/internetverbinding nog bij de web-interface van je server.
Hoe kan ik er op een eenvoudige manier voor zorgen dat slechts bepaalde mappen op het net staan? (vb: enkel de audio, maar niet de films)
Dit is moeilijker dan het lijkt. Internetproviders blokkeren poorten 139 en 445 die gebruikt worden voor Samba ofwel Windows filesharing. Om die reden is het makkelijker om iets als DropBox in te zetten om bepaalde bestanden aan vrienden te delen. Er is een native DropBox client voor BSD maar daar is nog geen service van. In een VM draaien of op je eigen desktop is een mogelijkheid.
Allereerste de Intel KMS enabled X-server die nu KMS drivers heeft voor Intel GPUs. Samen met proprietary nVidia zijn dit nu de beste videodrivers beschikbaar onder BSD. Nog wel experimenteel; text mode werkt bijvoorbeeld niet meer eenmaal zodra de grafische driver is geactiveerd. Maar dat is niet zo'n groot punt.

Verder qBittorrent zowel X (grafisch) als web-interface in panel. Playstation 3 Media Server zit er nu in. Owncloud werkt weer en ook tweaks aan overige services. Zo heeft netatalk nieuwe autostart opties en is er ook een nieuwe netatalk3 service die nog experimenteel is. Verder zijn er nu losse dependencies voor FFmpeg, Gstreamer, Qt4 framework en Java Runtime Environment.

En kleinere dingen die ik zelf wel geinig vind: je hoort nu een aantal piepjes via de PC speaker mits je die hebt aangesloten, zodra je server klaar is met booten. Voor headless systemen is dat fijn dan weet je precies wanneer je server online is zonder elke keer te proberen en dan nog een timeout te krijgen ofzo.
Jonny55 schreef op vrijdag 01 februari 2013 @ 17:15:
Hoi,

Ik heb de download map van transmission toegevoegd aan etc/rc.conf gesaved daarna opnieuw opgestart nu krijg ik en error (syntax error 85) hoe kan ik dit verhelpen?
server is ook niet meer toegankelijk via de web interface.
Met 'server' bedoel je Transmission? Of werkt de hele web-interface niet meer, zo lees ik het een beetje. :P
Wat heb je precies aangepast? Mogelijkheid tot een foutje in rc.conf?

En is er een reden dat je de autostart functionaliteit van ZFSguru niet gewoon gebruikt? Services -> Manage ?

Verwijderd

Topicstarter
StefanvanGelder schreef op vrijdag 01 februari 2013 @ 17:24:
Even een crospost vanuit een ander topic om wat duidelijkheid te krijgen over een beweren die Mux doet in een BBG topic ;)

mux schreef op woensdag 30 januari 2013 @ 20:47:
Nou, alleen al RAID-Z is een 100x upgrade boven elke vorm van software of hardware RAID-0/1/5/10


Voor zover ik weet is Raid-z namelijk vrijwel gelijk aan RAID 5. Wat zou dan het voordeel zijn? Puur de extra features die in ZFS zitten zoals self healing data?
RAID-Z is op veel punten verschillend aan RAID5. Alleen voor de gebruiker heeft het ongeveer dezelfde eigenschappen, zoals één disk failure kunnen slikken en de opslagruimte van alle schijven minus één maal de capaciteit van de kleinste schijf.

Maar RAID-Z werkt heel anders dan RAID5. Om te beginnen mag het eigenlijk geen RAID genoemd worden, omdat RAID 'statisch' is. Volgens een vooraf gekozen schema wordt de pariteit dan op vaste plekken opgeslagen. Bij RAID-Z hangt dit helemaal van de grootte van de data die wordt geschreven. Een RAID driver kan dus nooit nadeel wat ZFS doet, omdat ZFS in feite filesystem en RAID laag met elkaar doet versmelten. Of althans de RAID laag heeft kennis van het filesystem, en dat is nieuw. Dat maakt zaken mogelijk als dynamische stripesize.

Dynamische stripesize is een cruciaal onderdeel van RAID-Z. Zo ken je wellicht de 'write hole' van RAID5 waarbij de tijd tussen het schrijven van de data en de pariteit in feite een blinde vlek is en bovendien erg traag. RAID5 kan alleen snel schrijven als de write-opdracht een specifieke grootte heeft (namelijk <stripesize> * ( <nr_disks> - <parity_disks> ). Bij ZFS zijn alle writes optimaal; RAID-Z kent dus niet de beruchte read-modify-write cycles die RAID5 zo traag en onveilig maken.

Afgezien van de verschillen tussen RAID5 en RAID-Z heb je natuurlijk de verschillen van ZFS versus andere filesystems. Kort gezegd bieden andere filesystems totaal geen bescherming voor je bestanden. Ze gaan er blindelings vanuit dat je opslagapparaat perfect is en nooit geen fouten maakt laat staan bad sectors. Mocht dat wel gebeuren, dan kan het filesystem dit vaak geen eens detecteren. Silent corruption dus.

De enige bescherming die legacy filesystems bieden, is het beschermen van de filesystem consistency in geval van een crash of stroomonderbreking. Een beveiliging voor de meest recent geschreven data en metadata dus, maar dat is ook echt alles. Al die filesystems doen vrijwel niets meer dan dit. Dan kun je begrijpen dat als in de RAID laag er iets fout gaat, dit grote gevolgen kan hebben voor het filesystem, die immers geen enkele bescherming heeft en een enkele foute sector op de verkeerde plaats theoretisch je je data kan kosten.

Ik zou willen zeggen dat ZFS het eerste next-generation filesystem is wat geschikt is voor de opslag van vandaag. Andere systemen zullen volgen met ReFS en Btrfs en zodra die breed beschikbaar zijn wil niemand terug naar de onveilige legacy filesystems van vandaag. Die gaan totaal naief en blindelings uit van een perfect opslagapparaat. Net zoals je als Windows NT gebruiker vroeger niet terug wilde naar Windows 95/98 met zijn privileged execution mode waarbij dus alles fout kan gaan omdat het OS uitgaat van 100% perfecte software. We willen in 2010 een keer iets wat werkt; lijkt me geen overbodige luxe.

  • Jonny55
  • Registratie: Maart 2012
  • Laatst online: 15-01-2021
Ik heb via putty de rc.conf gedit door en regel als ''transmission_download_dir="/Opslag//Downloads/Torrents'' toe te voegen, aangezien tranmission steeds bij nieuwe server herstart op zijn default download map uit komt.
maar volgens mijn is er iets misgegaan bij het opslaan hier van.

Na deze wijziging is de server via internet niet meer bereikbaar, wel via monitor krijg ik het volgende zien tijdens het opstarten en laden van ZFS-Guru daarna gebeurt er niks meer.

Error log:

trying to mount root from zfs:OPSLAG/zfsguru/9.1-004 {rw}...
/etc/rc.conf: 85: syntax error: unterminated quoted string
Enter full patchname of shell or return for /bin/sh:

[ Voor 39% gewijzigd door Jonny55 op 01-02-2013 23:19 ]


  • B2
  • Registratie: April 2000
  • Laatst online: 15:09

B2

wa' seggie?

Ah, toevallig ben ik net een USB stick met ZFSGuru erop aan 't maken, en ik zie dat 9.1-005 uit is.
Verwijderd schreef op vrijdag 01 februari 2013 @ 17:44:
[...]

We willen in 2010 een keer iets wat werkt; ....
Ik ben toch al 3 jaar verder ;)

[ Voor 51% gewijzigd door B2 op 01-02-2013 22:55 ]

Jonny55 schreef op vrijdag 01 februari 2013 @ 17:44:
Ik heb via putty de rc.conf gedit door en regel als ''transmission_download_dir="/Opslag//Downloads/Torrents'' toe te voegen, aangezien tranmission steeds bij nieuwe server herstart op zijn default download map uit komt.
maar volgens mijn is er iets misgegaan bij het opslaan hier van.

Na deze wijziging is de server via internet niet meer bereikbaar, wel via monitor krijg ik het volgende zien tijdens het opstarten en laden van ZFS-Guru daarna gebeurt er niks meer.

Error log:

trying to mount root from zfs:OPSLAG/zfsguru/9.1-004 {rw}...
/etc/rc.conf: 85: syntax error: unterminated quoted string
Enter full patchname of shell or return for /bin/sh:
Eerst (om te kunnen werken) type je in die prompt:

/usr/local/bin/bash

Daarna type je "ee /etc/rc.conf"
even die regel verwijderen, saven, en rebooten.

Zou weer moeten werken.

(als je de regel gecopy-paste hebt, heb je een " teveel aan het begin...)

Even niets...


  • Jonny55
  • Registratie: Maart 2012
  • Laatst online: 15-01-2021
FireDrunk schreef op zaterdag 02 februari 2013 @ 00:13:
[...]


Eerst (om te kunnen werken) type je in die prompt:

/usr/local/bin/bash

Daarna type je "ee /etc/rc.conf"
even die regel verwijderen, saven, en rebooten.

Zou weer moeten werken.

(als je de regel gecopy-paste hebt, heb je een " teveel aan het begin...)
Heb ik geprobeerd maar werkt niet not found...

Verwijderd

Topicstarter
enter shell name> /usr/local/bin/bash
mount -w /
mount -a
ee /etc/rc.conf

[ Voor 9% gewijzigd door Verwijderd op 02-02-2013 00:58 ]

Die is nog beter idd, dat zou moeten werken.
Als dat noet lukt moet je echt even duidelijk aangeven waar het precies mis gaat...

Even niets...


  • Jonny55
  • Registratie: Maart 2012
  • Laatst online: 15-01-2021
Verwijderd schreef op zaterdag 02 februari 2013 @ 00:57:
enter shell name> /usr/local/bin/bash
mount -w /
mount -a
ee /etc/rc.conf
Bedankt CiPHER server draait weer. 8)

  • webbier
  • Registratie: Mei 2010
  • Laatst online: 30-11 13:28
Verwijderd schreef op dinsdag 29 januari 2013 @ 21:24:
Dat zou inderdaad de bedoeling moeten zijn ja! Jouw Intel 320 is extreem zuinig in DIPM mode, 75mW dus 0,075W. Zonder DIPM is dit rond de 0,6 watt dus bijna een factor 10 vermindering. Dat is wel klasse.

Dus wat kun je nou doen? Eerst met je stroommeter een stabiele meting krijgen zonder DIPM. Dan edit je dat bestand en haal je die # weg van de eerste regel zoals je zegt en reboot je simpelweg. Dan weer even stabiliseren en kijken of je inderdaad ongeveer een halve watt zuiniger uit bent.

Bovendien, op mijn Intel systeem heb ik gemerkt dat DIPM (slumber mode) inschakelen de controller/chipset ook zuiniger maakt. Zelfs zonder disks aangesloten maakt DIPM nog flink wat uit; voor details zie het topic wat ik in een vorige post heb genoemd. De grote vraag is of dit ook geldt voor AMD SATA, want bijvoorbeeld voor ASMedia chip maakte DIPM zonder schijf aangesloten niets uit; hij bleef 0,3 watt verbruiken. Terwijl Intel met alle 6 kanalen op DIPM helemaal niets meer verbruikt; althans hetzeflde als de SATA controller uitschakelen in BIOS.
Verbruik is inderdaad 0.6 W gezakt in idle. Geen idee of de chipset zelf nu nog wat gebruikt, maar aangezien alle beetjes helpen ben ik er blij mee :D

  • Jonny55
  • Registratie: Maart 2012
  • Laatst online: 15-01-2021
Ik gebruik momenteel ZFS Guru met als torrent client (Transmission) maar is niet echt wat ik wil.
is hier en beter en voornamelijke stabieler torrent client beschikbaar voor zfs guru wie ook probleemloos gebruikt kan maken van magnet links?

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 26-12 10:24

Ultraman

Moderator Harde Waren

Boefje

Jonny55 schreef op zondag 03 februari 2013 @ 15:21:
Ik gebruik momenteel ZFS Guru met als torrent client (Transmission) maar is niet echt wat ik wil.
is hier en beter en voornamelijke stabieler torrent client beschikbaar voor zfs guru wie ook probleemloos gebruikt kan maken van magnet links?
Deluge? :)
Zelf gebruik ik rtorrent in een tmux en rutorrent als web frontend, maar dat is wat meer werk om op te zetten en ook gewoon wat complexer dan een torrent client met eigen web interface.

Dit heeft verder niets met ZFS te maken en hoort dan ook niet in dit topic.

Als je stil blijft staan, komt de hoek wel naar jou toe.


  • B2
  • Registratie: April 2000
  • Laatst online: 15:09

B2

wa' seggie?

Ultraman schreef op zondag 03 februari 2013 @ 15:34:
[...]

Deluge? :)
Zelf gebruik ik rtorrent in een tmux en rutorrent als web frontend, maar dat is wat meer werk om op te zetten en ook gewoon wat complexer dan een torrent client met eigen web interface.

Dit heeft verder niets met ZFS te maken en hoort dan ook niet in dit topic.
Geeft dit niet eens te meer aan dat het verstandig is om een eigen topic voor ZFSGuru aan te maken?
rtorrent hier trouwens ook.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
O nee, niet nog een topic dat een nieuwe start wil. :+

De CSL/OT kroeg !


Verwijderd

Topicstarter
@B2: dat wordt overwogen. Eerst proberen we een nieuw concept met Synology en op basis van die ervaringen zouden ook andere topics zoals deze aan de beurt komen. Tot die tijd accepteren dat dit topic vrij breed is en alle ZFS storage appliances omvat en dus meer is dan alleen ZFS zelf.
Jonny55 schreef op zondag 03 februari 2013 @ 15:21:
Ik gebruik momenteel ZFS Guru met als torrent client (Transmission) maar is niet echt wat ik wil.
is hier en beter en voornamelijke stabieler torrent client beschikbaar voor zfs guru wie ook probleemloos gebruikt kan maken van magnet links?
De Transmission service komt in twee smaken: met en zonder grafische client. De grafische client komt met configuratie die magnet-links mogelijk maakt. Installeer ook X-Opera webbrowser service in ZFSguru en het zou out-of-the-box moeten werken.

Verder heb je als alternatief qBittorrent, alleen daar werkt de web-interface niet van volgens Jason. Maar die doet ook magnet links in zijn grafische client.

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 25-12 10:16
nou dit performed tenminste normaal. 6 x 3 TiB HDD;

ZFSguru 0.2.0-beta8 (9.1-004) pool benchmark
Pool : movietanl (16.3T, 1% full)
Test size : 64 GiB
normal read : 1 GB/s
normal write : 619 MB/s
I/O bandwidth : 24 GB/s


Transfer rate naar de server tot 105 Mbyte/sec met windows slepen van de PC naar de shared drive.

Ik ben er ook achter gekomen waarom 1 hdd zoveel errors had, defecte poort op de M1015, want 3 verschillende kabels, en zelfde probleem. Weer iets wat RMA mag..

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase

Ziet er goed uit! Bedenk je wel dat als je pool voller word, de performance achteruit gaat.
Mocht je dus nu 'oude' data op deze pool gaan zetten, gaat je pool redelijk hard achteruit ;)

* FireDrunk heeft ~30% performance verlies op 50% usage.

Even niets...


  • Waking_The_Dead
  • Registratie: Januari 2010
  • Laatst online: 04-07-2024
Na een upgrade van FreeNAS 8.0.x naar 8.3.0 (en dus van ZFSv15 naar ZFSv28) en het een voor een herpartitioneren en resilveren van al mijn schijven, heb ik nog steeds hetzelfde probleem dat ik een tweetal weken terug gepost heb: het bekijken van HD materiaal via mijn NAS lukt niet zonder schokken.

Misschien nog even de situatie opnieuw schetsen: ik heb een ZFS NAS (6 x 3TiB RAID-Z2, 8GB RAM) die ik enkel gebruik om ISO's op te zetten (DVD's en BD's). Verder heb ik een NeoTV550 die bekabeld aan het netwerk hangt en waarop een shared folder van mijn NAS gemount wordt. Op die manier DVD ISO's bekijken lukt perfect. BD ISO's of m2ts bestanden bekijken lukt niet zonder dat het geluid af en toe wegvalt en het beeld terzelfdertijd hapert.

Ik heb ook een Synology DS211+ waarop dezelfde ISO's wel zonder haperen afspelen via mijn NeoTV (het ligt dus niet aan het netwerk - en ook niet aan de netwerkkabel die mijn NeoTV met de router verbindt). Bovendien kan ik bestanden van en naar mijn ZFS NAS kopiëren aan gemiddeld 80MB/s (dus ligt het ook niet aan de netwerkkabel die mijn NAS met de router verbindt). Ook als ik via mijn PC een BD ISO mount, hapert het beeld (het ligt dus ook niet aan mijn NeoTV). Sharen via NFS of via CIFS maakt ook niets uit. Volgens mij is de enige mogelijkheid dan nog mijn ZFS configuratie die roet in het eten gooit (tenzij iemand nog andere zaken kan bedenken die ik nog niet heb ge-elimineerd).

Toen ik nog op FreeNAS 8.0.x draaide, ging mijn geheugengebruik steevast naar 8GB. Onder 8.3.0 lijkt 6GB zowat het maximum te zijn tijdens het afspelen van HD materiaal dus daar zit wel een verschil.

Heeft iemand nog tips? Want ik weet het niet meer.
Er zijn wellicht een hele hoop tunables die ik beter zou kunnen afstellen maar ik heb geen flauw idee waar te beginnen.

  • duiveltje666
  • Registratie: Mei 2005
  • Laatst online: 13-06-2022
Wat ik me afvraag nu ... Heb nu 2 disks van 750 gig ( Spinpoint F1's ) , welke raidz geeft de beste performance en toch de hoogste datasecurity?
duiveltje666 schreef op maandag 04 februari 2013 @ 15:12:
Wat ik me afvraag nu ... Heb nu 2 disks van 750 gig ( Spinpoint F1's ) , welke raidz geeft de beste performance en toch de hoogste datasecurity?
Mirror :)

Reads komen van 2 spindles, writes alsof je naar één spindle schrijft...

[ Voor 12% gewijzigd door HyperBart op 04-02-2013 15:23 ]


  • analog_
  • Registratie: Januari 2004
  • Niet online
duiveltje666 schreef op maandag 04 februari 2013 @ 15:12:
Wat ik me afvraag nu ... Heb nu 2 disks van 750 gig ( Spinpoint F1's ) , welke raidz geeft de beste performance en toch de hoogste datasecurity?
Lees de topicstart.

  • Trunksmd
  • Registratie: Juli 2002
  • Laatst online: 13-11 11:17
Waking_The_Dead schreef op maandag 04 februari 2013 @ 15:08:
Na een upgrade van FreeNAS 8.0.x naar 8.3.0 (en dus van ZFSv15 naar ZFSv28) en het een voor een herpartitioneren en resilveren van al mijn schijven, heb ik nog steeds hetzelfde probleem dat ik een tweetal weken terug gepost heb: het bekijken van HD materiaal via mijn NAS lukt niet zonder schokken.

Misschien nog even de situatie opnieuw schetsen: ik heb een ZFS NAS (6 x 3TiB RAID-Z2, 8GB RAM) die ik enkel gebruik om ISO's op te zetten (DVD's en BD's). Verder heb ik een NeoTV550 die bekabeld aan het netwerk hangt en waarop een shared folder van mijn NAS gemount wordt. Op die manier DVD ISO's bekijken lukt perfect. BD ISO's of m2ts bestanden bekijken lukt niet zonder dat het geluid af en toe wegvalt en het beeld terzelfdertijd hapert.

Ik heb ook een Synology DS211+ waarop dezelfde ISO's wel zonder haperen afspelen via mijn NeoTV (het ligt dus niet aan het netwerk - en ook niet aan de netwerkkabel die mijn NeoTV met de router verbindt). Bovendien kan ik bestanden van en naar mijn ZFS NAS kopiëren aan gemiddeld 80MB/s (dus ligt het ook niet aan de netwerkkabel die mijn NAS met de router verbindt). Ook als ik via mijn PC een BD ISO mount, hapert het beeld (het ligt dus ook niet aan mijn NeoTV). Sharen via NFS of via CIFS maakt ook niets uit. Volgens mij is de enige mogelijkheid dan nog mijn ZFS configuratie die roet in het eten gooit (tenzij iemand nog andere zaken kan bedenken die ik nog niet heb ge-elimineerd).

Toen ik nog op FreeNAS 8.0.x draaide, ging mijn geheugengebruik steevast naar 8GB. Onder 8.3.0 lijkt 6GB zowat het maximum te zijn tijdens het afspelen van HD materiaal dus daar zit wel een verschil.

Heeft iemand nog tips? Want ik weet het niet meer.
Er zijn wellicht een hele hoop tunables die ik beter zou kunnen afstellen maar ik heb geen flauw idee waar te beginnen.
Ik weet niet of hoe het bij jou is ingesteld. Maar ik had de stand-by tijd van de harde schijven veel te kort staan. Gevolg was dat de schijven te vaak downspinden en mijn video's haperden. Ik heb ook FREENAS 8.3 en nergens last van.

  • Waking_The_Dead
  • Registratie: Januari 2010
  • Laatst online: 04-07-2024
Trunksmd schreef op maandag 04 februari 2013 @ 16:45:
[...]

Ik weet niet of hoe het bij jou is ingesteld. Maar ik had de stand-by tijd van de harde schijven veel te kort staan. Gevolg was dat de schijven te vaak downspinden en mijn video's haperden. Ik heb ook FREENAS 8.3 en nergens last van.
Ik denk dat die op 30 minuten staan ofzo, dat zou lang genoeg moeten zijn denk ik.
Hoe staan die bij jou? En wat voor hardware zit er in je NAS?

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Verwijderd schreef op donderdag 31 januari 2013 @ 22:21:
Heads up: systeemversie 9.1-005 is uitgebracht voor ZFSguru, inclusief nieuwe services! Nog wel beta want Jason is nog aan het testen. Pas echt officiëel zodra hij met een aankondiging komt. :)
Aankonding was gisteren met een uitleg van wat er nieuw is.

[ Voor 11% gewijzigd door Dadona op 04-02-2013 17:09 ]

De CSL/OT kroeg !


  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

Zo, Server is onderweg, ik heb al vaak een paar ideëen gepost over hoe en wat.. misschien moet ik gewoon even aan jullie vragen hoe ik het beste dit aanpak..

allereerst mijn setup:

#ProductPrijsSubtotaal
1Intel Pentium G860 Boxed€ 54,95€ 54,95
1ASRock B75 Pro3-M€ 56,90€ 56,90
10Western Digital Green WD30EZRX, 3TB€ 117,67€ 1.176,70
2Corsair Vengeance CMZ16GX3M2A1600C10€ 77,95€ 155,90
1IBM ServeRAID M1015 SAS/SATA Controller for System x€ 118,50€ 118,50
1Intel Postville X25-M SSDSA2MH080G2C1 80GB€ 80,10€ 80,10
Bekijk collectie
Importeer producten
Totaal€ 1.643,05

hier komt een Crucial M500 in, zodra die beschikbaar/betaalbaar worden.

waarvoor ga ik het gebruiken?
- Datastorage
- Downloadstation (Sickbeard, Spotnet/spotweb, SabNZB, Torrents,...)
- FTP
- Mailing (toekomst)
- Backupserver

graag had ik een OS, waarom? ik vind een dedicated ZFS-OS zo beperkend, ik zou graag gewoon een normaal OS hebben op mijn server.. is dat zo absurd?

met 32GB moet ik toch makkelijk een VM-machine kunnen maken?
of moet ik nu een Corei5 gaan halen voor VT-d?

\\ Baloo \\ Mijn iRacing profiel


  • Xudonax
  • Registratie: November 2010
  • Laatst online: 26-12 19:15
Ik heb Fedora 18 draaien met ZFS on Linux, maar dit is wel iets wat je zelf bij moet houden. Ubuntu aan de andere kant heeft er schijnbaar een PPA voor waardoor je gewoon automatisch updates krijgt voor het ZFS on Linux gebeuren.

Je kunt eventueel ook nog kijken naar Debian/kFreeBSD. Dit is in principe gewoon Debian Linux, maar dan met een FreeBSD basis waardoor je dus gewoon native ZFS hebt. En hiermee combineer je IMHO de voordelen van FreeBSD (ZFS) en nadelen (mindere hardware support, maar daar zul jij weinig/geen last van hebben zo te zien) met de (bekende?) tools van Debian :D

Ik merk dat er praktisch geen performance verschil zit tussen ZFSGuru/FreeBSD/Debian en ZFS on Linux op mijn systeem. Ik draai een Xeon E3-1265LV2 (vooral omdat het kan, geen specifieke reden) op een Intel DH77DF moederbordje, ook met de IBM M1015. Met 6 1TB Hitachi laptop schijfjes trek ik grofweg 350MByte/s aan uncompressed data. Ik verwacht dat jij met een dergelijke setup minstens eenzelfde throughput moet kunnen halen, al is het maar vanwege de snellere/grotere schijven :)

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 16:59

Compizfox

Bait for wenchmarks

Compizfox schreef op vrijdag 01 februari 2013 @ 17:24:
Ik heb een probleempje met NFS. Na met rot gezocht te hebben, bleek dit te komen door ZFS.

Ik heb namelijk een pool (Data) met daarbinnen o.a. een aantal subfilesystems.
Ik wil de gehele pool + subfilesystems sharen, maar dat kan blijkbaar niet doordat de subfilesystems een aparte mountpoint hebben.

Dit heb ik nu gelezen: http://zfsguru.com/forum/zfsgurudevelopment/516

CiPHERs scriptje vind ik niet zo'n hele mooie oplossing, omdat ik gewoon met 1 command wil kunnen mounten.

Maar het kan dus wel met NFS4? Hoe gebruik ik dat? Als ik de boel probeer te mounten zegt ie dit:
code:
1
2
3
4
5
~$ sudo mount -t nfs4 192.168.2.5:/Data /mnt/data -v
mount.nfs4: timeout set for Fri Feb  1 17:25:54 2013
mount.nfs4: trying text-based options 'addr=192.168.2.5,clientaddr=192.168.2.2'
mount.nfs4: mount(2): Protocol not supported
mount.nfs4: Protocol not supported



[...]

Eh ja.
De checksums, het defeaten van de write hole, dat soort dingen.
Iemand nog een idee?

Gewoon een heel grote verzameling snoertjes


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

MikeVM schreef op maandag 04 februari 2013 @ 21:55:
Zo, Server is onderweg, ik heb al vaak een paar ideëen gepost over hoe en wat.. misschien moet ik gewoon even aan jullie vragen hoe ik het beste dit aanpak..

allereerst mijn setup:

#ProductPrijsSubtotaal
1Intel Pentium G860 Boxed€ 54,95€ 54,95
1ASRock B75 Pro3-M€ 56,90€ 56,90
10Western Digital Green WD30EZRX, 3TB€ 117,67€ 1.176,70
2Corsair Vengeance CMZ16GX3M2A1600C10€ 77,95€ 155,90
1IBM ServeRAID M1015 SAS/SATA Controller for System x€ 118,50€ 118,50
1Intel Postville X25-M SSDSA2MH080G2C1 80GB€ 80,10€ 80,10
Bekijk collectie
Importeer producten
Totaal€ 1.643,05

hier komt een Crucial M500 in, zodra die beschikbaar/betaalbaar worden.

waarvoor ga ik het gebruiken?
- Datastorage
- Downloadstation (Sickbeard, Spotnet/spotweb, SabNZB, Torrents,...)
- FTP
- Mailing (toekomst)
- Backupserver

graag had ik een OS, waarom? ik vind een dedicated ZFS-OS zo beperkend, ik zou graag gewoon een normaal OS hebben op mijn server.. is dat zo absurd?

met 32GB moet ik toch makkelijk een VM-machine kunnen maken?
of moet ik nu een Corei5 gaan halen voor VT-d?
Errhmm, graag een OS, maar een dedicated ZFS-OS vind je beperkend, ik ben je denk ik een beetje kwijt :? , definieer 'normaal' OS.

Als je virtualisatie in overweging neemt zul je, mocht je Vt-d willen, inderdaad voor een i5 moeten gaan (de Intel i5-3330 is de goedkoopste i5 die Vt-d doet).
Virtualisatie kan met minder RAM, maar alles hangt af van je wensen en wat de hypervisor graag wil of kan ondersteunen (de gratis versie van ESXi 5.x is bijv. beperkt tot 32 GB fysieke RAM, als je meer wilt moet je een licentie kopen.
Met de genoemde i5 en 32 GB kun je mbv ESXi wel enkele VM's draaien, bijvoorbeeld een NAS/SAN op basis van ZFS (OpenIndiana/Nexenta/ZFSguru/ZFS on Linux) welke je 16 GB RAM en 2 cores toekent te samen met de M1015 als passthrough device, de overige RAM en cores kun je toekennen aan andere VM waarin je je OS van keuze draait die downloads/email/etc verzorgen. Sick/Sab/torrent/couch patato kun je perfect draaien onder een linux distro van keuze, hetzelfde gaat op voor dingen als web/mail/ftp/ssh.

Maar eerlijk gezegd gaat mijn antwoord nu buiten 'the scope' van dit topic en is er een discussie gaande over een herstructurering van sommige topic, wellicht kun je in de nabije toekomst je vraag kwijt in een aan virtualisatie toegewijd subforum aan gezien het beter daar past dan hier in het algemene ZFS topic, op dit moment kun je wellicht het beste terecht op t thuis virtualisatie topic.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • Xudonax
  • Registratie: November 2010
  • Laatst online: 26-12 19:15
Heb je al geprobeerd om crossmnt op te geven bij je share? Ik meen dat een dergelijke optie bij NFSv3 nodig was om over device boundaries heen te komen :)

EDIT: Dit is dus in de exports op je server.

[ Voor 7% gewijzigd door Xudonax op 04-02-2013 22:37 ]


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 16:59

Compizfox

Bait for wenchmarks

Als ik sharenfs=crossmnt doe, kan ik niet meer mounten:
code:
1
2
3
4
5
6
[lars@LARS-ILOS ~]$ sudo zfs get sharenfs
NAME                              PROPERTY  VALUE                             SOURCE
Data                              sharenfs  crossmnt -network 192.168.2.0/24  local
Data/backup                       sharenfs  -alldirs -network 192.168.2.0/24  local
Data/films                        sharenfs  -alldirs -network 192.168.2.0/24  local
Data/share                        sharenfs  nohide                            local

code:
1
mount.nfs: access denied by server while mounting 192.168.2.5:/Data

[ Voor 247% gewijzigd door Compizfox op 04-02-2013 22:50 ]

Gewoon een heel grote verzameling snoertjes

Dat is ook niet zo gek... /backup, /films en /share zijn geen subdirectories van /data, het zijn mountpoints...
Wat jij wil, gaat in tegen alle richtlijnen van ZFS.

Waarom heb je aparte filesystems aangemaakt? Je had dan net zo goed 1 filesystem met drie directories kunnen maken?

Verschillende filesystems zijn JUIST gescheiden zodat je ze allemaal eigen rechten kan geven...

Wat je kan doen, is alle mountpoints met dezelfde naam laten beginnen. Dus op je andere linux bak heb je dan:

/mnt/server_backup
/mnt/server_films
/mnt/server_share

Als je alle entries in /etc/fstab zet, kan je ze mounten met

mount /mnt/server_*

[ Voor 26% gewijzigd door FireDrunk op 04-02-2013 23:17 ]

Even niets...


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 16:59

Compizfox

Bait for wenchmarks

FireDrunk schreef op maandag 04 februari 2013 @ 23:16:
Dat is ook niet zo gek... /backup, /films en /share zijn geen subdirectories van /data, het zijn mountpoints...
Wat jij wil, gaat in tegen alle richtlijnen van ZFS.

Waarom heb je aparte filesystems aangemaakt? Je had dan net zo goed 1 filesystem met drie directories kunnen maken?

Verschillende filesystems zijn JUIST gescheiden zodat je ze allemaal eigen rechten kan geven...
Dat heb ik gedaan zodat ik dingen als dedup en compressie e.d. los kan instellen, iets wat ik eerlijk gezegd maar op 1 directory gebruik.
Wat je kan doen, is alle mountpoints met dezelfde naam laten beginnen. Dus op je andere linux bak heb je dan:

/mnt/server_backup
/mnt/server_films
/mnt/server_share

Als je alle entries in /etc/fstab zet, kan je ze mounten met

mount /mnt/server_*
Dat is een mogelijkheid, maar NFSv4 zou ik mooier vinden. Of werkt dat nog niet met zfs?

Gewoon een heel grote verzameling snoertjes


  • Jonny55
  • Registratie: Maart 2012
  • Laatst online: 15-01-2021
De Transmission service komt in twee smaken: met en zonder grafische client. De grafische client komt met configuratie die magnet-links mogelijk maakt. Installeer ook X-Opera webbrowser service in ZFSguru en het zou out-of-the-box moeten werken.

Verder heb je als alternatief qBittorrent, alleen daar werkt de web-interface niet van volgens Jason. Maar die doet ook magnet links in zijn grafische client.
Dat is al en stuk beter qBittorrent, ik heb ontdek dat deze ook en werkende web interface heeft maar deze moet wel eerst handmatig geactiveerd worden in grafische client. dat is echter groot minpunt kan ik qBittorrent automatisch laten starten? of kan ik ook remote inloggen in de grafische shell?

[ Voor 21% gewijzigd door Jonny55 op 05-02-2013 03:12 ]

Compizfox schreef op maandag 04 februari 2013 @ 23:22:
[...]
Dat heb ik gedaan zodat ik dingen als dedup en compressie e.d. los kan instellen, iets wat ik eerlijk gezegd maar op 1 directory gebruik.

[...]

Dat is een mogelijkheid, maar NFSv4 zou ik mooier vinden. Of werkt dat nog niet met zfs?
Volgens mij levert NFSv4 je hier niets op, het is niet logisch dat child filesystems mee gaan. Ook niet met NFSv4 volgens mij.

Even niets...


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 16:59

Compizfox

Bait for wenchmarks

Kan volgens mij wel met NFSv4:

http://zfsguru.com/forum/zfsgurudevelopment/516#3492
NFSv4 does not use the mount protocol and does permit clients to cross server mount point boundaries, although not all clients are capable of crossing the mount points.
Na ja anders maak ik er wel gewoon directories van (behalve van mijn backup filesystem, want daarvan wil ik de compressieratio anders hebben)

[ Voor 20% gewijzigd door Compizfox op 05-02-2013 10:31 ]

Gewoon een heel grote verzameling snoertjes


  • bd-casemod
  • Registratie: Januari 2005
  • Laatst online: 20:20
Ik ben bezig met een nas met 4x 1.5TB SATA schijven

Ik heb freenas hiervoor gebruikt, en alle schijven beschreven met nullen en geformat.

Echter als ik een RAIDZ zfs pool aanmaak met 4 schijven dan krijg ik error no information avaible.

Ook als ik zpool status poolname doe zegt hij dat die niet bestaat.

Waar doe ik iets fout ?

gebruik de laatste freenas versie 8.3.1
FireDrunk schreef op vrijdag 01 februari 2013 @ 07:47:
Ik denk eerder aan een driver issue of een verkeerde setting in je BIOS... Die supermicro borden zitten qua BIOS erg goed in elkaar. Ik heb hier een AMD SuperMicro bord, en dat is een prima ding, wat alles slikt...
Bwoah, ik mis toch nog wat opties om IRQ's toe te kennen :+

  • analog_
  • Registratie: Januari 2004
  • Niet online
HyperBart schreef op dinsdag 05 februari 2013 @ 11:28:
[...]

Bwoah, ik mis toch nog wat opties om IRQ's toe te kennen :+
Waarom zou je dat willen doen?
Omdat ie last heeft van IRQ storms :)

Even niets...


  • jwpmzijl
  • Registratie: December 2002
  • Laatst online: 18:21
Ter informatie in de volgende Best Buy guide van Tweakers wordt wellicht een Storagebox op basis van ZFS opgenomen. Zie hier.

Hans van Zijl


  • Geckx
  • Registratie: November 2008
  • Laatst online: 26-12 00:18
Een ETA wanneer de ajax filebrowser er zal komen voor 9.1-005?

  • Megalith
  • Registratie: Juni 2009
  • Laatst online: 21:01
Ik heb vandaag mijn pool geimporteerd onder OpenIndiana. Twee cache devices konden niet worden gevonden, maar verder was de pool OK. Alleen heb ik een fout gemaakt bij het proberen toe te voegen van de twee cache devices. Ik heb basic geselecteerd in napp-it ipv cache device. Het probleem is dat ik de twee ssd's nu met geen mogelijkheid meer uit mijn pool krijg.

Vervolgens heb ik geprobeerd het een en ander te kopieren naar een andere pool, maar na 15 seconden crashde de boel en moest ik opnieuw opstarten. ZFS zegt nu dat mijn pool zo dood als een pier is, en hij valt niet meer te importeren. c7t1d0 en c7t0d0 hebben nauwelijks een half uur in de pool gezeten.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
pool: discovery
     id: 9780506419013797128
  state: UNAVAIL
 status: One or more devices contains corrupted data.
 action: The pool cannot be imported due to damaged devices or data.
   see: http://illumos.org/msg/ZFS-8000-5E
 config:

    discovery                    UNAVAIL  insufficient replicas
      raidz2-0                   ONLINE
        c4t50024E9205B323C6d0s1  ONLINE
        c4t50024E9205B323DCd0s1  ONLINE
        c4t50024E9205B32E11d0s1  ONLINE
        c4t50024E9205B3245Bd0s1  ONLINE
        c4t50024E92055AFA87d0s1  ONLINE
        c4t50024E920527865Ad0s1  ONLINE
        c4t50024E9205B31EF5d0s1  ONLINE
        c4t50024E9205B32466d0s1  ONLINE
        c4t50024E92058D7289d0s1  ONLINE
        c4t50024E9205B323BFd0s1  ONLINE
      c7t0d0                     UNAVAIL  corrupted data
      c7t1d0                     UNAVAIL  corrupted data
    cache
      /dev/gpt/discovery-l2arc1
      /dev/gpt/discovery-l2arc2
    logs
      c7t2d0s1                   ONLINE
offline -f, remove -f geprobeerd?

Even niets...


  • Megalith
  • Registratie: Juni 2009
  • Laatst online: 21:01
Ik kan de pool niet importeren.

code:
1
cannot import 'discovery' as 'discovery': one or more devices is currently unavailable


Dan is hij toch uberhaupt niet benaderbaar met zpool?

  • analog_
  • Registratie: Januari 2004
  • Niet online
Hoe heb jij je cache devices toegevoegd gekregen zonder waarschuwing? Of ligt het aan napp-it die stiekem -f doet (als in pekac)

  • Megalith
  • Registratie: Juni 2009
  • Laatst online: 21:01
Volgens mij heeft nappit inderdaad -f gebruikt. Ik heb in ieder geval geen waarschuwingen voorbij zien komen. Een paar missende cache devices moeten sowieso geen probleem zijn.

Zonet zpool import -V discovery geprobeerd. Maar dan krijg ik weer een kernel dump.
Is het aan te raden de pool eens te importeren met de twee missende disks losgekoppeld?
Pagina: 1 ... 61 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.