• syl765
  • Registratie: Juni 2004
  • Laatst online: 26-11 11:00
Zo te zien zijn de schijven toegevoegd als ieder een aparte vdev.
Je kan niet zo maar een vdev uit een pool halen, en dat heb je waarschijnlijk wel gedaan.
Ik ben bang dat deze pool inderdaad niet meer te redden is, of men moet met zdb nog wat kunnen doen.

Dat is het gevaar van ZFS en GUI's!!
Een foutje is zo gemaakt. niet goed kijken of de vinkjes wel of niet gezet zijn.
Dat is de reden dat ik als ik aan de pool werk altijd op de command line werk.
De regel voordat je op enter drukt even nalezen.
En als ik met zfs destroy aan de gang ga laat ik mijn commando eerst even met een # beginnen.
Zodat je niet per ongeluk op enter drukt nadat je net zfs destroy sanstore/ESXishare hebt getypt en je daarna de @2012-08-08 nog moest doen. Heeft mijn collega eens meegemaakt :D.
Was geen leuke fout :D

gr
Johan

  • analog_
  • Registratie: Januari 2004
  • Niet online
fcg123 schreef op donderdag 07 februari 2013 @ 19:49:
Volgens mij heeft nappit inderdaad -f gebruikt. Ik heb in ieder geval geen waarschuwingen voorbij zien komen. Een paar missende cache devices moeten sowieso geen probleem zijn.

Zonet zpool import -V discovery geprobeerd. Maar dan krijg ik weer een kernel dump.
Is het aan te raden de pool eens te importeren met de twee missende disks losgekoppeld?
Geef het niet op maar ik zou even gaan horen op Freenode in ##nexentastor en #openindiana (IRC). Beste kans op survival.

  • duiveltje666
  • Registratie: Mei 2005
  • Laatst online: 13-06-2022
Never mind , BSD ports liepen te etteren..

[ Voor 73% gewijzigd door duiveltje666 op 07-02-2013 20:51 ]


  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

jadjong schreef op dinsdag 03 april 2012 @ 20:41:
[...]

In DOS:
1 <enter>
2 <enter>
3 <enter>
reboot
4/5 <enter>
6 <enter>

Als dat niet lukt.... :+
moet ik dan een normale dos booten vanaf usb?
of kan ik ook via de webbios dit instellen?

\\ Baloo \\ Mijn iRacing profiel

Nee, je moet het ding opnieuw flashen, dat moet persé onder DOS of UEFI volgens mij, maar de scriptjes zijn allemaal voor DOS geschreven.

Even niets...


  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

ah, dus ik boot in bios, ik zet de bestanden om te flashen op de USB stick,
en ik execute via bios de bestanden die op de USB bestanden staan.

\\ Baloo \\ Mijn iRacing profiel

Uh, waar lees jij in mijn post het woord BIOS? Ik zeg DOS en/of UEFI, das geen BIOS...

Even niets...


  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

DOS inderdaad, sorry,

nu heb ik het bekende "ERROR: Failed to initialize PAL. Exeting Program."
het oplossen is iets ingewikkelder.. waar is er niet gewoon een knopje ofzo, Klik hier voor IT-mode :)

\\ Baloo \\ Mijn iRacing profiel

Nee, en die foutmelding betekend dat je niet in dat bord kan flashen...

Even niets...


  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

in dat bord? moederbord?

\\ Baloo \\ Mijn iRacing profiel


  • Xudonax
  • Registratie: November 2010
  • Laatst online: 26-12 19:15
Ja. Heb je een andere machine staan die je hier (tijdelijk) voor kunt gebruiken?

  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

nope, door waterkoeling krijg ik die kaart niet in men andere machine.
wachten tot het weekend.. kan ik al beginnen met zfsguru in te stellen? of kan ik beter wachten tot dit(flashen) gedaan is?

\\ Baloo \\ Mijn iRacing profiel


  • Wirehead
  • Registratie: December 2000
  • Laatst online: 22-11 17:09
Met die foutmelding gewoon in UEFI console flashen. Werkt perfect. Moest ik ook doen..

Denon AVR-X2800H, Quadral Amun Mk.III, Technics SL-7, DIY PhonoPre, AT-152LP / 4.225kW Heckert Solar / SMA 3.0-1AV-41 / Kia e-Niro 64kWh First Edition


  • webbier
  • Registratie: Mei 2010
  • Laatst online: 30-11 13:28
Heb ik ook gedaan. De derde post op onderstaande pagina heeft mij erbij geholpen, misschien heb je er wat aan.

http://forums.servethehom...M-M1015-Experiences/page5

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 25-12 10:16
Ik heb een m1015 terug geflashed van it mode naar default. IBM.
Was even zoeken om de ibm bootrom weer te krijgen, maar die kon ik uitlezen van een andere m1015 die nog niet geflashed is.
Kan hij nu terug rma, krijg ik daar geen gezeur over.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


  • Trunksmd
  • Registratie: Juli 2002
  • Laatst online: 13-11 11:17
Waking_The_Dead schreef op maandag 04 februari 2013 @ 16:52:
[...]


Ik denk dat die op 30 minuten staan ofzo, dat zou lang genoeg moeten zijn denk ik.
Hoe staan die bij jou? En wat voor hardware zit er in je NAS?
Sorry voor het late antwoord, druk bezig geweest deze week.
Belangrijker is dat je je Advanced power management hoger zet. Ik heb het op 254 gezet. Als je die laag zet, bijvoorbeeld op 1 dan gaan je films idd haperen. Tis een kwestie van uitproberen. Aangezien mijn hardware toch al niet veel vebruikt, maakt het me niet uit of schijven in standby gaan. (als ik toch al transmission heel vaak heb open staan):

Hostname freenas.local
Build FreeNAS-8.3.0-RELEASE-p1-x64 (r12825)
Platform AMD E-350 Processor
Memory 15964MB
System Time Fri Feb 08 11:57:05 CET 2013
Uptime 11:57AM up 22 days, 23:37
Load Average 0.16, 0.13, 0.09
RAIDZ 3x2 Tb
L2Arc OCZ Vertex 60 Gb

  • Waking_The_Dead
  • Registratie: Januari 2010
  • Laatst online: 04-07-2024
Trunksmd schreef op vrijdag 08 februari 2013 @ 11:58:
[...]

Sorry voor het late antwoord, druk bezig geweest deze week.
Belangrijker is dat je je Advanced power management hoger zet. Ik heb het op 254 gezet. Als je die laag zet, bijvoorbeeld op 1 dan gaan je films idd haperen. Tis een kwestie van uitproberen. Aangezien mijn hardware toch al niet veel vebruikt, maakt het me niet uit of schijven in standby gaan. (als ik toch al transmission heel vaak heb open staan):

Hostname freenas.local
Build FreeNAS-8.3.0-RELEASE-p1-x64 (r12825)
Platform AMD E-350 Processor
Memory 15964MB
System Time Fri Feb 08 11:57:05 CET 2013
Uptime 11:57AM up 22 days, 23:37
Load Average 0.16, 0.13, 0.09
RAIDZ 3x2 Tb
L2Arc OCZ Vertex 60 Gb
Bedankt!
Ik heb dezelfde processor en FreeNAS build maar "slechts" half zo veel geheugen en geen L2ARC.
Vanavond probeer ik je power management tip even uit. Hopelijk kan ik mijn NAS nu eindelijk gebruiken waar hij voor bedoeld is :-)

Edit:
L2ARC vraagje: ik lees in de TS dat L2ARC niet werkt voor grote bestanden. Dus ik veronderstel dat Blu Ray ISO's daar onder vallen of toch niet? Is er bijvoorbeeld geen mogelijkheid om ervoor te zorgen dat een ISO volledig gecached wordt in L2ARC? Dus concreet: ik wil een film bekijken en de ISO daarvan is 45GB. Is het dan mogelijk om die ISO integraal te laten cachen zodat je pool in spindown kan gaan terwijl je naar de film kijkt?

[ Voor 17% gewijzigd door Waking_The_Dead op 08-02-2013 14:15 ]


Verwijderd

Topicstarter
Acht hardeschijven op één kabel zou wel kunnen. Ik houd het liever bij vier. Het probleem is eigenlijk alleen bij het opspinnen dat een hardeschijf 20-30W kan verbruiken dat het erop aankomt. Dan gaat er toch aardig wat ampère door die kleine draadjes; en dan vooral door dat ene gele +12V draadje. De warmteontwikkeling is afhankelijk van ampère (niet volt of watt) dus gedurende het opspinnen mag deze niet kritisch hoog worden. Met 8 schijven is dat toch al 10-15 ampère.

Afgezien van dat punt kun je inderdaad oneindig doorlussen als je dat wilt. Met die Molex stekkers is dat weinig praktisch omdat de kans steeds verder toeneemt dat één zo'n molex stekkertje soms even geen contact maakt en dat is gewoon kut voor je schijven. Die vinden dat niet leuk. Dus daarom gewoon van dit soort SATA splitters gebruiken: pricewatch: Silverstone SST-CP06 4x SATA die maken wél goed contact. Voor de prijs hoef je het niet te laten.
Is er bijvoorbeeld geen mogelijkheid om ervoor te zorgen dat een ISO volledig gecached wordt in L2ARC? Dus concreet: ik wil een film bekijken en de ISO daarvan is 45GB. Is het dan mogelijk om die ISO integraal te laten cachen zodat je pool in spindown kan gaan terwijl je naar de film kijkt?
Nee, L2ARC is niet bedoeld om de hoofdpool in spindown te kunnen laten gaan. Dat zal in de praktijk ook maar weinig goed gaan, omdat bijvoorbeeld Windows in de directories kijkt om thumbnails te kunnen verzamelen en ga zo maar verder.

L2ARC is bedoeld om de zwakke prestaties van mechanische hardeschijven voor wat betreft random reads, te verzachten. Deze worden door de SSD uitgevoerd in plaats van hardeschijven. Hierdoor kunnen hardeschijven zich richten op sequentiële doorvoer in plaats van random seeks.

In feite zijn hardeschijven beter in sequential I/O dan SSDs. Enkel omdat een enkele SSD al een 16-voudige SSD RAID0 array is, wordt dit effect minder zichtbaar. Maar zou je eerder vergelijken namelijk een enkelkanaals SSD met een single platter HDD (niet dat multiplatter sneller zijn..) dan zie je dat de hardeschijf met 140-200MB/s veel sneller is dan de 110MB/s en 14MB/s write van een enkelkanaals SSD.

Kortom, L2ARC is bedoeld om de I/O waar hardeschijven traag in zijn, uit handen te nemen waardoor hardeschijven zich kunnen richten op waar ze goed in zijn. Wat jij wilt met L2ARC gebruiken voor langere spindown zal maar beperkt success hebben. De meeste winst hierin zit hem erin dat de hardeschijven niet hoeven opspinnen voor het lezen van metadata. Maar toch werkt het denk ik niet zoals je zou willen.

  • jadjong
  • Registratie: Juli 2001
  • Niet online
Waking_The_Dead schreef op vrijdag 08 februari 2013 @ 12:02:
[...]

Edit:
L2ARC vraagje: ik lees in de TS dat L2ARC niet werkt voor grote bestanden. Dus ik veronderstel dat Blu Ray ISO's daar onder vallen of toch niet? Is er bijvoorbeeld geen mogelijkheid om ervoor te zorgen dat een ISO volledig gecached wordt in L2ARC? Dus concreet: ik wil een film bekijken en de ISO daarvan is 45GB. Is het dan mogelijk om die ISO integraal te laten cachen zodat je pool in spindown kan gaan terwijl je naar de film kijkt?
Dat kan alleen met tiered storage, niet met cached storage. De Apple fusiondrive oplossing is een simpel voorbeeld hiervan. Zfs biedt dit (nog) niet.
ZFS wil zich daar ook niet mee bemoeien, daar zijn andere tools voor.

Even niets...


  • webbier
  • Registratie: Mei 2010
  • Laatst online: 30-11 13:28
Ik heb zelf één van deze gehaald om mijn schijven van stroom te voorzien.

https://ri-vier.eu/drive-...le-p-208.html?cPath=18_65

Aangezien ik Raid-Z2 draai met 6 schijven is dat ideaal. Is ook nog goedkoper dan de silverstone splitter die in de pricewatch staat.

  • Megalith
  • Registratie: Juni 2009
  • Laatst online: 21:01
Mijn ZFS pool is weer helemaal terug online :) Met wat hulp op de IRC van nexenta, Cipher en een heuleboel googelen is hij in FreeBSD weer online gekomen. Ben nu alle data aan het backuppen op een paar nieuwe 3TB schijven van WD. Die gaan daarna mooi dienen als backup pool.De oude pool moet ik destroyen omdat die twee vdevs nog wel in de weg zitten.

Als alles klaar is moet ik mijn systeem ook maar eens een update geven in het 10TB+ topic :p

  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

ok, we zijn er dan eindelijk, alle hardware is er, de M1015 is geflashed naar IT firmware, de LiveCD van ZFSGURU is geboot, en ik kan via mijn browser de guide volgen.

toch heb ik enkele vraagjes die ik wil beantwoord zien, zodat ik weet of ik het goed doe?

wordt het OS op de eerste pool geschreven die je aanmaakt?
zoja, dan moet ik als eerste mijn SSD in een pool zetten?
zoja, moet ik die dan op voorhand Partitioneren, of kan dit in ZFSGuru?

in de TS staat dat de systempartitie op 28GB, is dit genoeg om later een XP-windows én een Ubuntu te installeren? of kunnen die files op een andere pool gezet worden?

ik heb nu een 160GB intel 320 SSD in gebruik.

\\ Baloo \\ Mijn iRacing profiel


  • blobber
  • Registratie: Juli 2000
  • Niet online

blobber

Sol Lucet Omnibus

Hm, ik heb een vreemd probleem met mijn netwerk adapters re0 en em0
Ik heb link aggregation getest in de command line met

ifconfig lagg0 create
ifconfig lagg0 up laggproto lacp laggport em0 laggport re0

Even geprobeerd, daarna het servertje een reset gegeven in de verwachting dat deze commando's een reset niet zouden overleven, lagg0 is inderdaad weg, maar mijn twee netwerk adapters hebben nog steeds identieke mac addressen.Ik wil graag terug naar twee verschillende mac addressen.
Ik neem aan dat ik dit ergens kan aanpassen, maar ik kan het niet vinden, iemand enig idee?

Opgelost:
ifconfig re0 down
ifconfig re0 ether macadres
ifconfig re0 up

:)

[ Voor 7% gewijzigd door blobber op 09-02-2013 23:06 ]

To See A World In A Grain Of Sand, And A Heaven In A Wild Flower, Hold Infinity In The Palm Of Your Hand, And Eternity In An Hour


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 27-12 16:59

Compizfox

Bait for wenchmarks

MikeVM schreef op zaterdag 09 februari 2013 @ 21:10:
wordt het OS op de eerste pool geschreven die je aanmaakt?
Nee, dat kun je kiezen aan het begin van de installatie.
zoja, dan moet ik als eerste mijn SSD in een pool zetten?
Ik wil even opmerken dat je ook ZFSGuru zelf kunt installeren op een ZFS-pool (Root-on-ZFS).
Je zou dus kunnen overwegen om 1 enkele pool te maken voor zowel ZFSGuru zelf, als je data.
De SSD kun je dan gebruiken als cache device (ZIL of L2ARC)
zoja, moet ik die dan op voorhand Partitioneren, of kan dit in ZFSGuru?
Je moet een GPT-partitietabel op je schijven zetten voordat je ze kunt toevoegen aan een pool. Dit kan met ZFSGuru zelf (Disks --> Formattting tabje)

Gewoon een heel grote verzameling snoertjes


  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

ok, ik heb ZFS-on-Root gedaan (op mn RaidZ2pool), dan ging hij rebooten, in de bios één van de disks als eerste gezet om te booten, nu krijg ik op mijn scherm enkel een sterretje ( een streepje dat heel snel ronddraait).

wat doe ik mis? terug van de LIVECD booten?

\\ Baloo \\ Mijn iRacing profiel


  • spectator
  • Registratie: Maart 2004
  • Laatst online: 06-11 23:44
jadjong schreef op vrijdag 08 februari 2013 @ 19:48:
[...]

Dat kan alleen met tiered storage, niet met cached storage. De Apple fusiondrive oplossing is een simpel voorbeeld hiervan. Zfs biedt dit (nog) niet.
dan zouden de ssd's als hogere/snelle tier kunnen worden ingesteld en bij lezen iso in zn geheel geladen in deze tier waardoro de conventikonele disks kunnen downspinnen? is het dan toch niet zo dat tijdens het streamen de blocken toch van de lagere tier komen en pas bij een 2e keer de film bekijken het pas vanaf hogere tier wordt gelezen?

ik was in de veronderstelling (niet gemoeg over zfs gelezen) dat L1/L2ARC de laatst/meest aangesproken zou cachen en het spinnen van disks effectief zou beperken.
ZFS wil zich daar ook niet mee bemoeien, daar zijn andere tools voor.
@Firedrunk: ben zeer benieuwd naar de tools.

  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

is er iemand die via steam/googlechat/skype mij even een uurtje of 2 wil door het ZFSGuru verhaal wilt loodsen. ik zou graag men server zsm in gebruik nemen...

Edit: oh je moet dus op de SSD's naam klikken, dan kom je in een nieuw menu, stom van me, nu kan ik wel partitioneren, voor een nieuweling lijkt het allemaal zo moeilijk :(

[ Voor 35% gewijzigd door MikeVM op 10-02-2013 01:10 ]

\\ Baloo \\ Mijn iRacing profiel


  • jadjong
  • Registratie: Juli 2001
  • Niet online
spectator schreef op zaterdag 09 februari 2013 @ 23:45:
[...]


dan zouden de ssd's als hogere/snelle tier kunnen worden ingesteld en bij lezen iso in zn geheel geladen in deze tier waardoro de conventikonele disks kunnen downspinnen? is het dan toch niet zo dat tijdens het streamen de blocken toch van de lagere tier komen en pas bij een 2e keer de film bekijken het pas vanaf hogere tier wordt gelezen?
In de tiered variant wordt de tweede tier pas aangesproken als de eerste vol zit of de betreffende data niet in bezit heeft. Met een eerste tier van 100GB kan je flink wat films downloaden en kijken voordat de achterliggende disks opspinnen.
ZFS gebruikt drie tiers om van te lezen; geheugen, ssd en de pool van disks. Met schrijven wordt er gelijk naar de laatste tier geschreven. Aan de hand van de leesfrequentie wordt data naar ssd of geheugen gekopieerd. Als je vaak genoeg dezelfde film kijkt kunnen de disks vanzelf uit :+
MikeVM schreef op zaterdag 09 februari 2013 @ 23:56:
is er iemand die via steam/googlechat/skype mij even een uurtje of 2 wil door het ZFSGuru verhaal wilt loodsen. ik zou graag men server zsm in gebruik nemen...

Edit: oh je moet dus op de SSD's naam klikken, dan kom je in een nieuw menu, stom van me, nu kan ik wel partitioneren, voor een nieuweling lijkt het allemaal zo moeilijk :(
Schrijf (of onthoud) al die beginners iritaties en vertel ze aan CiPHER, hij is altijd welwillend in het aanpassen van de interface :)

Even niets...


  • Geckx
  • Registratie: November 2008
  • Laatst online: 26-12 00:18
Ik hoor hier veel over de IBM M1015, maar werkt een HP P400 ook onder ZFSguru? Het dient gewoon als uitbreiding van de sata poorten op het mobo.. Want software raid-z > hardware raid ;)
Nee, een P400 is niet geschikt als ZFS HBA.

Even niets...


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:52
Ik was gisteren eens aan het nadenken over het vergroten van mijn ZFS pool, die langzaamaan vol begint te lopen (65% vol nu). En volgens mij loop ik dan tegen een vervelend probleem aan :(

Mijn huidige pool is een RAIDZ2 pool van 10 stuks Samsung F2 1.5TB 154UI schijven. Deze zijn echter niet meer te krijgen. Op zich geen probleem, ik kan een tweede vdev aanmaken met andere schijven en deze aan de pool toevoegen. Deze schijven hoeven niet van dezelfde grootte te zijn, ZFS kan daar prima mee omgaan en de volledige ruimte van de nieuwe schijven wordt gewoon benut. Kijkend naar de prijs per GiB zou ik dan dus een tweede vdev aan moeten maken van 10 stuks 3GB schijven in RAIDZ2.

Maar dan het probleem:
De oude 1.5TB schijven zijn nog 512B sector schijven, mijn pool is dan ook aangemaakt met ashift=9.
Alle nieuwe schijven zijn volgens mij 4kB sector schijven, waarvoor de pool/vdev aangemaakt moet worden met ashift=12.
En uit de startpost: Dit is een vdev property maar geldt pool-wide.

Hieruit concludeer ik dus dat dat niet gaat werken, 1 vdev met ashift=9 en 1 vdev met ashift=12 in 1 pool.

Imo heb ik dus de volgende opties:
- 10 stuks Samsung F2 1.5TB 154UI schijven zoeken en daarmee een tweede vdev aanmaken
- Tweede vdev maken van 512B sector schijven die nog verkrijgbaar zijn (zijn die er uberhaupt?)
- Nieuwe pool maken met 3TiB 4kB sector schijven (ashift=12) en de oude schijven verkopen (of voor een backup server gebruiken :9) Die pool is dan later weer uit te breiden met een tweede vdev.

Nog andere opties die ik over het hoofd zie, of heb ik het stukje uit de startpost sowieso niet goed begrepen?

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 03:59
Sleepie schreef op zondag 10 februari 2013 @ 13:38:
- Tweede vdev maken van 512B sector schijven die nog verkrijgbaar zijn (zijn die er uberhaupt?)
De Hitachi Deskstar 5K3000 en 7K3000 serie (1.5, 2 en 3TB) heeft nog 512bytes sectors.

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 26-12 10:24

Ultraman

Moderator Harde Waren

Boefje

512B schijven zijn er nog wel, maar dat gaat maar tot 2TB volgens mij. Hitachi 5K3000 serie.
Er is ook een 3TB variant van geweest, maar die is inmiddels niet meer te koop volgens de Pricewatch.
Dus of dat nog een optie is...
Ik heb zelf een ashift=12 pool aangemaakt op 512B schijven. Juist zodat ik makkelijk 4K formatted schijven er in zou kunnen hangen of als vervanger zou kunnen toepassen.

Een tweede pool aanmaken als je geen 512B disken meer kunt vinden is goed te doen.
Genoeg schijven te vinden voor een aardige prijs. Helaas nog niet het niveau van voor de overstromingen, maar al wel weer betaalbaar. En dan zet je je pool data over middels snapshot + zfs send, en vervolgens verkoop je de oude disken bijvoorbeeld.

Als je stil blijft staan, komt de hoek wel naar jou toe.


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:52
Ultraman schreef op zondag 10 februari 2013 @ 14:00:
512B schijven zijn er nog wel, maar dat gaat maar tot 2TB volgens mij. Hitachi 5K3000 serie.
Er is ook een 3TB variant van geweest, maar die is inmiddels niet meer te koop volgens de Pricewatch.
Dus of dat nog een optie is...
Ik heb zelf een ashift=12 pool aangemaakt op 512B schijven. Juist zodat ik makkelijk 4K formatted schijven er in zou kunnen hangen of als vervanger zou kunnen toepassen.
Ja achteraf had ik dat ook moeten doen, maar daar heb ik toen helaas verder niet over nagedacht.
Een tweede pool aanmaken als je geen 512B disken meer kunt vinden is goed te doen.
Genoeg schijven te vinden voor een aardige prijs. Helaas nog niet het niveau van voor de overstromingen, maar al wel weer betaalbaar. En dan zet je je pool data over middels snapshot + zfs send, en vervolgens verkoop je de oude disken bijvoorbeeld.
Dat is misschien nog het beste idee, uiteindelijk zullen de 512B sector schijven denk ik verdwijnen en dan ben ik op de toekomst voorbereid.
De oude disks kan ik dan eventueel verkopen, of gebruiken voor een heel simpel/goedkoop backup servertje op basis van ZFS voor de belangrijkste data.

  • Waking_The_Dead
  • Registratie: Januari 2010
  • Laatst online: 04-07-2024
Sleepie schreef op zondag 10 februari 2013 @ 13:38:

Imo heb ik dus de volgende opties:
- 10 stuks Samsung F2 1.5TB 154UI schijven zoeken en daarmee een tweede vdev aanmaken
- Tweede vdev maken van 512B sector schijven die nog verkrijgbaar zijn (zijn die er uberhaupt?)
- Nieuwe pool maken met 3GiB 4kB sector schijven (ashift=12) en de oude schijven verkopen (of voor een backup server gebruiken :9) Die pool is dan later weer uit te breiden met een tweede vdev.

Nog andere opties die ik over het hoofd zie, of heb ik het stukje uit de startpost sowieso niet goed begrepen?
Ik zou voor optie drie gaan, maar dan wel met 3TiB schijven ipv 3GiB schijven ;)
Op die manier kan je gewoon ashift=12 toepassen, kan je je oude schijven van de hand doen en heb je uiteindelijk toch nog dubbel zoveel opslag capaciteit.
Een andere optie is om te beginnen met 6 x 3TiB schijven in RAID-Z2 (daar past je huidige data ook gewoon op) en naderhand nog eens 6 x 3TiB toe te voegen wanneer het echt nodig is. Misschien kan je tegen die tijd gewoon 4TiB schijven nemen. Het voordeel van deze aanpak is wat mij betreft dat je nadien je bestaande schijven kan vervangen door grotere modellen (al ben je natuurlijk 2 extra schijven kwijt aan redundantie).

Dus concreet: stel je maakt een pool bestaande uit twee RAID-Z2 vdev's van elk 6 x 3TiB schijven. Als binnen pakweg een jaar 5TiB schijven courrant verkrijgbaar zijn en je storage raakt op, kan je 6 x 5TiB schijven kopen ter vervanging van 1 vdev (in tegenstelling tot ineens 10 schijven te moeten kopen wanneer je 1 vdev van 10 schijven hebt). Of als je toch nog fysieke ruimte over hebt, kan je gewoon een derde vdev maken :-)

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:52
Waking_The_Dead schreef op zondag 10 februari 2013 @ 14:53:
Ik zou voor optie drie gaan, maar dan wel met 3TiB schijven ipv 3GiB schijven ;)
Dat staat er toch? :+
edit ftw
Op die manier kan je gewoon ashift=12 toepassen, kan je je oude schijven van de hand doen en heb je uiteindelijk toch nog dubbel zoveel opslag capaciteit.
Een andere optie is om te beginnen met 6 x 3TiB schijven in RAID-Z2 (daar past je huidige data ook gewoon op) en naderhand nog eens 6 x 3TiB toe te voegen wanneer het echt nodig is. Misschien kan je tegen die tijd gewoon 4TiB schijven nemen. Het voordeel van deze aanpak is wat mij betreft dat je nadien je bestaande schijven kan vervangen door grotere modellen (al ben je natuurlijk 2 extra schijven kwijt aan redundantie).
Daar heb je gelijk in, maar ik vind dat je met RAIDZ2 en 6 schijven procentueel gewoon teveel ruimte verliest, dat is bij 10 schijven natuurlijk een stukje minder.
Dus concreet: stel je maakt een pool bestaande uit twee RAID-Z2 vdev's van elk 6 x 3TiB schijven. Als binnen pakweg een jaar 5TiB schijven courrant verkrijgbaar zijn en je storage raakt op, kan je 6 x 5TiB schijven kopen ter vervanging van 1 vdev (in tegenstelling tot ineens 10 schijven te moeten kopen wanneer je 1 vdev van 10 schijven hebt). Of als je toch nog fysieke ruimte over hebt, kan je gewoon een derde vdev maken :-)
Ik weet hoe het werkt, het ging me eigenlijk vooral over ashift=9 en ashift=12 schijven in 1 pool. Mijn vermoeden was juist, dat is niet mogelijk.
Dus mijn enige optie (tenzij ik 2 pools ga gebruiken, maar dat vind ik gewoon onhandig) is gewoon een nieuwe pool maken (in wat vor configuratie dan ook) en de oude disks verkopen/voor iets anders gebruiken.

Verwijderd

Topicstarter
33% overhead vind ik nog best redelijk hoor voor 6 disks in RAID-Z2; bij 10 disks is dat 20% dat is natuurlijk nog leuker. 10-disk RAID-Z2 is een beetje de sweet spot qua bescherming en opslagcapaciteit.

Maar sleepie, je kunt opzich wel 4K (emulatie) schijven toevoegen aan een normale pool (ashift=9) zolang je de aanbevolen configuraties aanhoudt. Stel je doet 6 schijven in RAID-Z2 toevoegen, dat zijn 4 data disks en dus 32KiB 'stripesize' per disk. Voor sequentiële transfers hoeven je schijven dan geen sector emulatie uit te voeren. Bovendien ben je ook geen opslagruimte kwijt aan slack.

Override uitvoeren zodat je pool ashift=12 is, valt meestal wel aan te raden. Maar als je dat niet hebt, kan bovenstaande ook een oplossing zijn. Je houdt je pool dan gewoon ashift=9 maar gebruikt deze in een optimale opstelling. Alleen voor kleinere I/O zullen je schijven dan sectorsize emulatie moeten toepassen. Zo'n setup kan het overwegen waard zijn.

  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

FireDrunk schreef op zondag 10 februari 2013 @ 10:03:
[...]


Schrijf (of onthoud) al die beginners iritaties en vertel ze aan CiPHER, hij is altijd welwillend in het aanpassen van de interface :)
een filmpje wat van A-Z een beginners setup installeert zou heel handig zijn,

livecd booten > DATA pool aanmaken op je HDD's > SSD partitioneren > SSD POOL aanmaken > ZFS-on-root installeren > Bios boot aanpassen, (je kan zien in ZFS welke schijf dit moet zijn, wist ik eerst ook niet) > Shares aanmaken > users aanmaken..



Nu ben ik bezig met een NFS share aan te maken, dus mijn DATAPOOL heb ik via samba al geshared, maar de NFS-share kan ik niet benaderen,

ip-adres is 192.168.1.106
NFS-Share noemt: NFS

hoe moet ik via Ubuntu of windows hier connectie mee maken?

code:
1
2
sudo mkdir /nfs
sudo mount 192.168.1.106:/nfs /nfs


geeft dit weer:
code:
1
2
3
4
5
6
mount: wrong fs type, bad option, bad superblock on /192.168.1.106:/NFS,
       missing codepage or helper program, or other error
       (for several filesystems (e.g. nfs, cifs) you might
       need a /sbin/mount.<type> helper program)
       In some cases useful info is found in syslog - try
       dmesg | tail  or so

\\ Baloo \\ Mijn iRacing profiel


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 27-12 16:59

Compizfox

Bait for wenchmarks

code:
1
sudo mount -t nfs 192.168.1.106:/NFS /nfs


Met de optie -t geef je het type aan, in dit geval NFS. (Als het een EXT4-partitie was, zou er ext4 staan)
Houdt er rekening mee dat het case-sensitive is, dus nfs != NFS.

Gewoon een heel grote verzameling snoertjes


  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

Nu krijg ik Access denied by server, dus ik doe iets goed, maar ik doe nog steeds iets fout.
ik moet nog +10TB overzetten, en als ik nfs (80MB/s) kon gebruiken, dan zou me dat toch een dagje schelen

\\ Baloo \\ Mijn iRacing profiel

Je moet de basispool erbij houden. Als je dus een filesystem gemaakt op je normale pool moet je

code:
1
mount 192.168.1.106:/datapool/nfs /nfs doen


Best-practice is trouwens om mounts onder /mnt te hangen.

Even niets...


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 27-12 16:59

Compizfox

Bait for wenchmarks

Wat geeft
code:
1
cat /etc/zfs/exports

op je server?

Gewoon een heel grote verzameling snoertjes


Verwijderd

Topicstarter
syl765 schreef op donderdag 07 februari 2013 @ 19:50:
Ik ben bang dat deze pool inderdaad niet meer te redden is, of men moet met zdb nog wat kunnen doen.
Inmiddels is zijn pool weer prima beschikbaar onder ZFSguru. Dus vooral de tip: niet zo snel opgeven. Corrupted data melding bij ZFS kan ook betekenen dat ZFS naar de verkeerde data wordt gestuurd door een vaag probleem. In dit geval zag ZFSguru de disks wel goed en was zijn pool weer online. :)
Dat is het gevaar van ZFS en GUI's!!
Een foutje is zo gemaakt. niet goed kijken of de vinkjes wel of niet gezet zijn.
Dat is de reden dat ik als ik aan de pool werk altijd op de command line werk.
De regel voordat je op enter drukt even nalezen.
Hm, grappig dat je dat zegt. Want juist een GUI kan denk ik user-errors flink reduceren. Wel heb je een punt met vinkjes zetten wellicht. Echter, bij ZFSguru kun je wel degelijk de (belangrijke) commando's zien voordat deze worden uitgevoerd. Die optie is standaard ingeschakeld.
En als ik met zfs destroy aan de gang ga laat ik mijn commando eerst even met een # beginnen.
Zodat je niet per ongeluk op enter drukt nadat je net zfs destroy sanstore/ESXishare hebt getypt en je daarna de @2012-08-08 nog moest doen. Heeft mijn collega eens meegemaakt :D.
Was geen leuke fout :D
Precies datzelfde heb ik meegemaakt. zfs destroy -R pool/filesystem maar de @snapshotname vergeten. Juist die -R is natuurlijk funest. Gelukkig heb ik 2 backup NASsen. Maar dit was dus wel een heldere waarschuwing: door dit soort geintjes kun je met ZFS dus wél data kwijtraken. User errors zijn best gevaarlijk.

Daarom mijn punt dat werken op de command line wel degelijk risicovoller kan zijn dan via een GUI. Zeker als die GUI je eerst het commando laat zien wat het trucje moet gaan doen. :)

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 27-12 16:59

Compizfox

Bait for wenchmarks

Ik heb een klein probleempje met ZFSGuru.

De eerste keer dat ik de webinterface benader sinds het rebooten van de server, duurt het laden van de pagina erg lang.
De error die ik dan krijg is:
trying to activate using delayed activation data
could not activate, response by server: ERROR: Bad DMESG data (bb)
Dat geeft hij ook aan op de pagina system.php?activation.

Wat houdt dat hele activatie-gebeuren eigenlijk in, als ik vragen mag? :)

Gewoon een heel grote verzameling snoertjes


Verwijderd

Topicstarter
Je hebt geen internet op de server. Het feit dat je delayed activation hebt, betekent dat je ten tijde van activatie (de welcome wizard) geen internetverbinding had waarmee je via poort 80 HTTP dingen kunt doen.

De activatie wordt uitgelegd tijdens de laatste stap en je kunt ook precies zien wat hij verstuurt. In feite je dmesg met al je hardware erin. Op dit moment wordt daar nog niets mee gedaan, maar in de toekomst kan daarmee statistieken worden gegeven over hoeveel procent heeft een Intel NIC, hoeveel een realtek NIC, en ga zo maar verder. Dat lijkt mij erg interessant. Maar moet dus nog gebouwd worden dat soort grafieken. Tot die tijd is het fijn als de database alvast gevuld wordt zodat we straks ook gelijk een nuttige grafiek kunnen maken. Misschien inclusief tijdsverloop, zodat je kunt zien dat nu nog maar 1% 10 gigabit ethernet heeft maar over een paar jaar misschien al 5%, enzovoorts.

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 27-12 16:59

Compizfox

Bait for wenchmarks

Verwijderd schreef op zondag 10 februari 2013 @ 21:29:
Je hebt geen internet op de server. Het feit dat je delayed activation hebt, betekent dat je ten tijde van activatie (de welcome wizard) geen internetverbinding had waarmee je via poort 80 HTTP dingen kunt doen.
Dat kan niet het probleem zijn, deze bak hangt gewoon altijd aan het internet.

Aan de error te zien krijg ik ook wel een response van de server, maar keurt die mijn dmesg-data af oid.
De activatie wordt uitgelegd tijdens de laatste stap en je kunt ook precies zien wat hij verstuurt. In feite je dmesg met al je hardware erin. Op dit moment wordt daar nog niets mee gedaan, maar in de toekomst kan daarmee statistieken worden gegeven over hoeveel procent heeft een Intel NIC, hoeveel een realtek NIC, en ga zo maar verder. Dat lijkt mij erg interessant. Maar moet dus nog gebouwd worden dat soort grafieken. Tot die tijd is het fijn als de database alvast gevuld wordt zodat we straks ook gelijk een nuttige grafiek kunnen maken. Misschien inclusief tijdsverloop, zodat je kunt zien dat nu nog maar 1% 10 gigabit ethernet heeft maar over een paar jaar misschien al 5%, enzovoorts.
Aha. Interessant. Misschien is het handig om dit te hernoemen naar "hardware statistics report" of iets dergelijks, dan is het wat duidelijker wat het inhoudt.

[ Voor 4% gewijzigd door Compizfox op 10-02-2013 21:32 ]

Gewoon een heel grote verzameling snoertjes


  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

Compizfox schreef op zondag 10 februari 2013 @ 20:46:
Wat geeft
code:
1
cat /etc/zfs/exports

op je server?
code:
1
2
3
4
zfsguru.bsd$ cat /etc/zfs/exports
# !!! DO NOT EDIT THIS FILE MANUALLY !!!

/Data/share nfs


code:
1
2
michiel@Akela:~$ sudo mount -t nfs 192.168.1.106:Data/nfs /nfs
mount.nfs: access denied by server while mounting 192.168.1.106:Data/nfs

[ Voor 21% gewijzigd door MikeVM op 10-02-2013 21:39 ]

\\ Baloo \\ Mijn iRacing profiel


  • spectator
  • Registratie: Maart 2004
  • Laatst online: 06-11 23:44
Zojuist geprobeerd zfsguru te installeren en loop tegen een probleem aan. heb 2 ssd's die bedoeld zijn om in mirror zfsguru te hosten en een kleine partitie voor log. Alleen blijkt het niet mogelijk de disks te partitioneren en na wat zoeken vind ik het volgden voor release 0.2:
"Advanced disk formatting, allowing multiple partitions useful for SSDs to function as L2ARC/SLOG/pool."

Iemand die mij kan helpen twee mirrors te maken met twee pools; één voor zfsguru en één voor log?

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 27-12 16:59

Compizfox

Bait for wenchmarks

MikeVM schreef op zondag 10 februari 2013 @ 21:36:
[...]

code:
1
2
3
4
zfsguru.bsd$ cat /etc/zfs/exports
# !!! DO NOT EDIT THIS FILE MANUALLY !!!

/Data/share nfs
Aha, dat deed ik eerst ook fout :P

Dat invoerveld op de webinterface is niet de sharenaam, maar bedoeld voor opties. Je kunt er bijvoorbeeld opties inzetten om de share alleen beschikbaar te maken op 1 IP-adres.

Laat het veld voor nu maar gewoon leeg ;)
Je kunt dat ook bereiken met het volgende commando (hetzelfde als de webinterface doet eigenlijk):
code:
1
zfs set sharenfs=on Data/share


/etc/zfs/exports zou dan het volgende moeten bevatten:
code:
1
2
3
4
zfsguru.bsd$ cat /etc/zfs/exports
# !!! DO NOT EDIT THIS FILE MANUALLY !!!

/Data/share


Het command om te mounten wordt dan:

code:
1
sudo mount -t nfs 192.168.1.106:/Data/share /nfs

[ Voor 9% gewijzigd door Compizfox op 10-02-2013 21:45 ]

Gewoon een heel grote verzameling snoertjes


Verwijderd

Topicstarter
@Compizfox: ik help je wel via DM dat is minder spammy. :)

@MikeVM: je hebt een ongeldige optie 'nfs' gebruikt. Maak een normale NFS share aan zonder handmatig opties op te geven, en het zou moeten werken. Compizfox legt het nog beter uit. Overigens is deze onduidelijkheid weg met de komende beta9 web-interface waar NFS en Samba een complete makeover hebben gekregen.

@spectator: de welcome wizard gebruikt disks als simpele hele disks. Als je wilt partitioneren moet je dat op de Disks pagina doen (klik op een disk). Je kunt juist exact partitioneren zoals jij wilt op een heel gemakkelijke manier. Juist dit is een van de voordelen van ZFSguru boven andere projecten.

[ Voor 13% gewijzigd door Verwijderd op 10-02-2013 21:43 ]


  • spectator
  • Registratie: Maart 2004
  • Laatst online: 06-11 23:44
CiPHER, ah, dacht alle tabjes gehad te hebben.. Gelukt, dank. Moet zeggen, ziet er zeer goed uit allemaal.

Verwijderd

Topicstarter
Het wordt nog beter. ;)

Straks kun je heel makkelijk Samba users en Samba permissies regelen. En ook geavanceerde gebruikers hebben een handige Samba configuratie handleiding binnen de GUI toegankelijk. Nu hopen dat beta9 redelijk snel uitkomt.

  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

Verwijderd schreef op zondag 10 februari 2013 @ 21:41:
@MikeVM: je hebt een ongeldige optie 'nfs' gebruikt. Maak een normale NFS share aan zonder handmatig opties op te geven, en het zou moeten werken. Compizfox legt het nog beter uit. Overigens is deze onduidelijkheid weg met de komende beta9 web-interface waar NFS en Samba een complete makeover hebben gekregen.
met de Gui werkt het dus niet, met de code van compixfox werkt het wel, bedankt...

[ Voor 21% gewijzigd door MikeVM op 10-02-2013 22:35 ]

\\ Baloo \\ Mijn iRacing profiel


Verwijderd

Topicstarter
Je hebt in het gele vak 'nfs' ingevoerd, zoals CompizFox al zei. Je kunt daar alleen opties invoeren als -maproot enzovoorts. Het is misleidend omdat het gele vak voor Samba je wel zelf een naam kunt verzinnen. Maar NFS heeft geen namen, enkel opties en het padnaam. Jij hebt dan 'nfs' als optie opgegeven in het gele balkje en dat slikt NFS niet. Dat zie je dan ook in de server logs (status->log).

Om het weer te laten werken: unshare het filesystem, daarna weer op share klikken. Klaar. :)

  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

ja, lezen is ook een vak blijkbaar, ik heb het heel druk, aangezien ik op bezoek ben bij mn ouders, wordt ik elke 5 minuten afgeleid, toch bedankt voor alle moeite heren,

met nfs haal ik al meer dan 60MB/s, dit terwijl mijn overzetting via samba nog steeds loopt (snelheid geeft 45MB/s aan) als de waardes kloppen, dan haal ik nu bijna de snelheid van mijn Gbit netwerk...

dit betekent toch dat woensdag mijn data is overgezet, en kan ik mijn server donderdag verhuizen een week later..




nu komt nog hetvolgende

- Sickbeard, Sabnzb, Spotweb
- Virtualbox met windows XP.

hoe moet ik die virtualbox zien? ik moet dit via de gui via het web installeren? en moet ik dan lokaal via de server het verder installeren? of kan ik direct vanop afstand via remote dekstop connecteren??

[ Voor 23% gewijzigd door MikeVM op 10-02-2013 22:46 ]

\\ Baloo \\ Mijn iRacing profiel


Verwijderd

Topicstarter
In ZFSguru web-interface klik op Services->Install en neus daar eens rond. :)

Van Virtualbox heb je meerdere versies. Een standaardversie met web-interface, een grafische versie met grafische client en ook web-interface (vereist dan wel het hele X circus dat je moet installeren) en een 'legacy' versie die binnenkort wordt uitgebracht. Dit is de laatste versie van Virtualbox van de vorige 'branche'. Dus krijg je 4.1.x in plaats van 4.2.x. Dit omdat je bugs in 4.2.x kunt tegenkomen terwijl 4.1.x onderhand heel stabiel 'proven' is. Maar ook omdat de 4.2.x versie in ZFSguru op dit moment nog niet werkt met VNC, zo is onlangs gemeld op het forum. Dus je kunt er ook voor kiezen om met virtualbox nog even te wachten tot de legacy versie er is als je VNC ondersteuning nodig hebt.

SabNZBD+ is heel eenvoudig te installeren. Merk wel op: de autostart functie geldt enkel voor SAB zelf, niet voor de extra services. Die starten automatisch zodra je op de panel komt, maar niet automatisch bij elke herstart. Dat staat ook nog op de lijst. :)

Compiz: Ja dus. ;)

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 27-12 16:59

Compizfox

Bait for wenchmarks

MikeVM schreef op zondag 10 februari 2013 @ 22:43:
hoe moet ik die virtualbox zien? ik moet dit via de gui via het web installeren? en moet ik dan lokaal via de server het verder installeren? of kan ik direct vanop afstand via remote dekstop connecteren??
https://code.google.com/p/phpvirtualbox/

Ik weet niet of dit meegeinstalleerd wordt als je Virtualbox installeert via het ZFSGuru-panel.
(@CiPHER? :+)

De configuratie en het beheer van Virtualbox en je VM's regel je via die webinterface, en je kunt dan met je VM's zelf connecten dmv RDP.

[ Voor 13% gewijzigd door Compizfox op 11-02-2013 00:29 ]

Gewoon een heel grote verzameling snoertjes


  • TiZu
  • Registratie: Augustus 2010
  • Laatst online: 26-12 08:17
Zonet ZFSGuru geinstalleerd op me server. Werkt allemaal prima heb ook al pools enzo aangemaakt. Alleen het Welcome to ZFS Guru blijft als ip adres 0.0.0.0 (LOOP) aangeven.
Heb in me router alwel een reservering op mac-adres gedaan op 192.168.1.3. Het geeft dus geen problemen maar ik vraag me toch af of ik iets verkeerd gedaan heb.
Edit: Ik draai trouwens version: 0.2.0-beta8

[ Voor 6% gewijzigd door TiZu op 11-02-2013 17:28 ]


Verwijderd

Topicstarter
Je hebt geen IP-adres (ten tijde van booten in elk geval). Kijk zelf eens in `ifconfig`. Je netwerk gebruikt DHCP? Wat voor netwerk-interface gebruik je?

[ Voor 13% gewijzigd door Verwijderd op 11-02-2013 17:34 ]


  • TiZu
  • Registratie: Augustus 2010
  • Laatst online: 26-12 08:17
Ja netwerk gebruikt DHCP. Heb in me router een mac-adres reservering voor de server gezet op 192.168.1.3

Dit is de copy paste van ifconfig:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Command output:
zfsguru.bsd$ ifconfig
re0: flags=8843 metric 0 mtu 1500
    options=8209b
    ether bc:5f:f4:85:0e:8b
    inet 192.168.1.3 netmask 0xffffff00 broadcast 192.168.1.255
    nd6 options=29
    media: Ethernet autoselect (1000baseT )
    status: active
plip0: flags=8851 metric 0 mtu 1500
    inet 0.0.0.0 --> 255.255.255.255 netmask 0xff000000
    nd6 options=29
lo0: flags=8049 metric 0 mtu 16384
    options=600003
    inet6 ::1 prefixlen 128
    inet6 fe80::1%lo0 prefixlen 64 scopeid 0x6
    inet 127.0.0.1 netmask 0xff000000
    nd6 options=21

[ Voor 17% gewijzigd door TiZu op 11-02-2013 17:49 ]


Verwijderd

Topicstarter
Schakel je parallelle poort uit; dat is iets van 1980. :P

Als je in het menu van ZFSguru voor 'detect IP address' kiest, ziet hij dan wel je huidige 192.168.1.3 IP? zo ja, dan had je geen IP tijdens de detectie en duurt het kennelijk wat langer voordat je systeem een IP krijgt toegewezen van je DHCP controller. Je kunt daar ook op letten tijdens de boot want hij wacht erop.

  • TiZu
  • Registratie: Augustus 2010
  • Laatst online: 26-12 08:17
Bij detecting IP address blijft die op 0.0.0.0 staan. Hoe schakel ik die uit? Gebruik een asrock b75 pro3-m. Heb in netwerk op de server zelf alles nog standaard gelaten.

Edit: poort uitgeschakeld. IP adres statisch op gezet. Nu laat het startscherm netjes het ip adres zien.

[ Voor 42% gewijzigd door TiZu op 11-02-2013 18:19 ]


  • fluppie007
  • Registratie: April 2005
  • Laatst online: 19-12 17:20
Ook al geeft die 0.0.0.0 aan, als je in de webbrowser naar het gereserveerde adres surft werkt het gewoon hoor :). Hangt af van de gebruikte netwerkkaart(en).

  • TiZu
  • Registratie: Augustus 2010
  • Laatst online: 26-12 08:17
Het werkt nu zoals het moet. Met hulp van CiPHER is het probleem opgelost. Het kwam door die parallelle poort. :)

  • analog_
  • Registratie: Januari 2004
  • Niet online
Ongerelateerd maar dat plip klinkt wel leuk ouderwets, ga het eens gebruiken voor heartbeat/config syncronisatie grapjes op vyatta.

  • batsma
  • Registratie: April 2005
  • Niet online
Hallo heren,

een aloude lurker hier die tegen een probleem aanloopt met zijn ZFS implementatie. Helaas inmiddels al flink gefrustreerd, maar dat schijnt vrij normaal te zijn voor winsys admins die zich aan linux wagen :)

wat heb ik tot nu toe gedaan.
hardware gekocht
server 2012 hyper-v geinstalleerd
zfsguru geprobeerd, maar lukt niet vanwege netwerk issues met freebsd onder hyper-v
vervolgens een tijdje storage spaces gebruitk, beviel wel maar miste configuratie, controle en inzichtelijkheid van het systeem. (tevens met refs geen dedup etc.)

Uiteindelijk ZFS on linux gevonden, dus een ubuntu server install in een VM gedaan, 10GB geheugen gegeven, 4 processors met max 95% capaciteit. een SDD van 160GB en 5 3TB WD red op passthrough gezet naar de VM.

Vervolgens ZFS on linux geinstalleerd. boot mount is gewoon de vmhd gebleven, dit vind ik ook prima.
ik heb met ZFS een pool aangemaakt van die 5 schijven via de commandline, daarna heb ik de SSD als cache toegevoegd ook via de commandline. (zpool create raidz storage /dev/sdb etc)
Ik heb met ZFS create een filesystem aangemaakt "storage/homeshare"

hierna heb ik samba geinstalleerd om het filesystem te kunnen sharen naar een aantal servers en computers thuis, en hier loop ik vast. ik zie namelijk de shares wel met file explorer, (geactiveerd met zfs set sharesmb=on storage/homeshare) ik kan de share ook openen, maar vervolgens kan ik geen files of folders aanmaken, en dat is wel zo handig op een NAS.

Bovenstaande verhaal ben ik al met al een ruime dag bezig geweest, ik heb/had namelijk geen ervaring met Linux en consorten en/of afgeleiden.

Zou iemand hier mij de goede richting op kunnen sturen ivm met de ZFS shares welke ik heb?
Dat heeft waarschijnlijk meer met je samba instellingen te maken dan met ZFS.
Heb je al eens een Samba tutorial bekeken?

Even niets...


  • batsma
  • Registratie: April 2005
  • Niet online
ik heb al vanalles gelezen en bekeken, maar ik kan eigenlijk nergens iets vinden waar ik verder mee kom, samba heb ik al bekeken, maar dan kan ik niet eens zien welke shares er op die ubuntu server actief zijn, laat staan dat ik kan zien of vinden hoe ik op die shares rechten moet aanpassen.

ik heb ook al een paar uur lopen klooien in een sba.conf bestand, maar daar staan de shares zoals ze nu worden aangeboden op het netwerk niet eens in.

let wel, ik zie waarschijnlijk gewoon iets stoms over het hoofd of ik mis iets simpels, maar ik kom niet verder omdat ik tegen een muur aan sta en niet zie waar ik nu verder kan.

  • enthernal
  • Registratie: Januari 2009
  • Laatst online: 08-02 10:24
Wat ik mis in je lijstje: rechten juist zetten op je filesystem? nu is het gewoon onder je root (/) gemounten heeft dan normaal gezien dezelfde rechten, wat wil zeggen dat root eigenaar is en de rechten voor andere gebruikers beperkt zijn.

Probeer eens "sudo chmod -R 777 /storage" te doen en dan nog eens te proberen?

Kan natuurlijk ook gewoon zijn dat je dat het vermelden niet waard vond :P

  • batsma
  • Registratie: April 2005
  • Niet online
gelijk via teamviewer even geprobeerd, ik krijg een cannot access 777 no such file or directory.

is de syntax anders op ubuntu?

  • enthernal
  • Registratie: Januari 2009
  • Laatst online: 08-02 10:24
heb je het commando uitgevoerd zoals ik het getyped?
de syntax is als volgt:
sudo uitvoeren als super user
chmod het commando om rechten aan te passen
-R recursief
777 de rechten die wilt plaatsen
/storage/ de map waarop rechten geplaatst moeten worden.

Als je het zo uitvoert zou je commando gewoon moeten gaan. die error welke jij krijgt betekent dat je ergens iets verkeerd gedaan hebt.
Je moet ze even omdraaien :)

het is chmod 777 -R /storage.

Even niets...


  • enthernal
  • Registratie: Januari 2009
  • Laatst online: 08-02 10:24
volgens de manpage is het eerst options (-R) en dan pas mode ... maar als het daarmee opgelost is ;)

  • batsma
  • Registratie: April 2005
  • Niet online
sorry hoofdletter R ipv gewoon een r, ik heb het gedaan, nu eerst ff naar een vergadering en dan laat ik het weten

  • enthernal
  • Registratie: Januari 2009
  • Laatst online: 08-02 10:24
het moet wel degelijk hoofdletter R zijn. kleine letter r is iets anders.
Ah, dan zit ik weer eens te slapen :P

Even niets...


  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

mijn ZFSGURU's webgui is niet meer aanspreekbaar, pingen met de server en de datashares zijn wel nog online..

aangezien ik niet thuis ben, kan ik niet 1-2-3 rebooten zonder mijn ouders te bellen en stapvoorstap alles uitleggen..

iemand een idee? crashed de web-gui vaak? of is dit iets anders?

\\ Baloo \\ Mijn iRacing profiel


Verwijderd

Topicstarter
Ligt eraan wat je hebt gedaan. Feit dat je van afstand bedient betekent ook dat daar een mogelijk probleem zit; kun je uberhaupt wel bij poort 80 van je server. Heb je dingen in gang gezet zoals een zero-write wat lang duurt en nog foreground tasks zijn. Ik ben bang dat 'we' toch wel meer informatie nodig hebben. Zoals of lighttpd draait, wat de logs zijn in /var/log/messages, etc. Ik zou zeggen kijk eens maar eens als je thuis bent. En als het daar gewoon werkt, kijk naar je port forward of wat je ook gebruikt (VPN?).
Je kan even kijken of lighttpd draait idd. Als die niet draait kan je hem even starten met /usr/local/etc/rc.d/lighttpd restart

Even niets...


  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

ik werk voorlopig via teamviewer met een server die lokaal staat, op dezelfde switch als ZFSGURU machine

ik heb geen nieuwe services geïnstalleerd, en alles is standaard ingesteld, de server is ook onveranderd sinds laatste restart. die enkele dagen geleden was.

\\ Baloo \\ Mijn iRacing profiel


  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

ik heb geen idee hoe ik die moet opvragen, zeker al niet vanop afstand.

\\ Baloo \\ Mijn iRacing profiel


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 27-12 16:59

Compizfox

Bait for wenchmarks

batsma schreef op dinsdag 12 februari 2013 @ 12:48:
hierna heb ik samba geinstalleerd om het filesystem te kunnen sharen naar een aantal servers en computers thuis, en hier loop ik vast. ik zie namelijk de shares wel met file explorer, (geactiveerd met zfs set sharesmb=on storage/homeshare) ik kan de share ook openen, maar vervolgens kan ik geen files of folders aanmaken, en dat is wel zo handig op een NAS.

Bovenstaande verhaal ben ik al met al een ruime dag bezig geweest, ik heb/had namelijk geen ervaring met Linux en consorten en/of afgeleiden.

Zou iemand hier mij de goede richting op kunnen sturen ivm met de ZFS shares welke ik heb?
Zou je eens je /etc/samba/smb.conf willen posten?

En de output van "ls -al" in die directory die je wilt sharen?

Gewoon een heel grote verzameling snoertjes


  • batsma
  • Registratie: April 2005
  • Niet online
batsma schreef op dinsdag 12 februari 2013 @ 13:47:
sorry hoofdletter R ipv gewoon een r, ik heb het gedaan, nu eerst ff naar een vergadering en dan laat ik het weten
zoals beloofd kom ik hier op terug, ik kan nu inderdaad files en folders aanmaken vanaf een andere computer, dus dit lijkt goed te gaan, thanks voor de hulp.

volgende vraag, ik zie nu de share in windows terugkomen als naam: "storage_homeshare"
graag zou ik dit zien als alleen "homeshare" is dit ook aan te passen?

ik zit al iets te knutselen met zfs set share=name=HomeShare,path=/storage/homeshare
maar dit lijkt niets te doen
Compizfox schreef op dinsdag 12 februari 2013 @ 16:48:
[...]

Zou je eens je /etc/samba/smb.conf willen posten?

En de output van "ls -al" in die directory die je wilt sharen?
de smb.conf staan deze shares niet in waarschijnlijk omdat ik ze vanuit ZFS aanmaak en niet in de smb.conf. maar het probleem van de rechten is gelukkig inmiddels opgelost. ik denk dat ik straks nog wel even als ik thuis ben en alles weer draaiende heb een handleiding maak van wat ik precies gedaan heb. het is tenslotte toch ZFS onder een hyper-v oplossing wat voor veel mensen denk ik wenselijk is.

[ Voor 32% gewijzigd door batsma op 12-02-2013 16:52 ]


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 27-12 16:59

Compizfox

Bait for wenchmarks

Dat is vreemd, ook als je vanuit ZFS sharet zou hij ze in /etc/samba/smb.conf moeten zetten. Dat is namelijk config file van Samba.

Werkte distro draai je? Misschien dat de config file ergens anders staat. (Onder FreeBSD staat hij in /usr/local/etc/smb.conf bijvoorbeeld, maar FreeBSD is ook geen Linux)

Gewoon een heel grote verzameling snoertjes


  • batsma
  • Registratie: April 2005
  • Niet online
ubuntu 12.04 LTS server,
/usr/local/etc/smb.conf bestaat niet
/etc/samba/smb.conf staan geen shares in gedefinieerd.
Daarom heb ik het idee dat het ergens in ZFS zelf wordt afgehandeld, maar ik heb geen flauw idee hoe of waar.

ik ben écht een leek op linux en consorten/deriviaten

Verwijderd

Topicstarter
Als je pas begint lijkt mij een Ubuntu installatie helemaal niet zo makkelijk. Om eerlijk te zijn denk ik dat je met een kant en klare appliance (Nexenta, FreeNAS, NAS4Free, ZFSguru) veel beter af bent. Je krijgt dan iets wat werkend is en je niet zelf hoeft te wroeten in de config files om basisfunctionaliteit werkend te krijgen. Als je vooral veel wilt leren is die handmatige route wel leerzaam, maar ik ben altijd bang dat het beginners afschrikt als ze gelijk in het diepe springen. Zwemmen leer je ook in een ondiep bad voordat je naar het diepe gaat, toch? :)

  • batsma
  • Registratie: April 2005
  • Niet online
Verwijderd schreef op dinsdag 12 februari 2013 @ 17:11:
Als je pas begint lijkt mij een Ubuntu installatie helemaal niet zo makkelijk. Om eerlijk te zijn denk ik dat je met een kant en klare appliance (Nexenta, FreeNAS, NAS4Free, ZFSguru) veel beter af bent. Je krijgt dan iets wat werkend is en je niet zelf hoeft te wroeten in de config files om basisfunctionaliteit werkend te krijgen. Als je vooral veel wilt leren is die handmatige route wel leerzaam, maar ik ben altijd bang dat het beginners afschrikt als ze gelijk in het diepe springen. Zwemmen leer je ook in een ondiep bad voordat je naar het diepe gaat, toch? :)
je hebt helemaal gelijk, heb ik ook geprobeert, maar freebsd in hyperv werkt gewoon niet.
hierdoor vallen alle zfs implementaties behalve nexenta zo'n beetje af (weet niet of openindiana of nexenta onder hyper-v draaien), en moet je naar zfs on linux gaan kijken, voor toch nog een beetje resources op het web qua informatie km je dan al gauw op Ubuntu uit.

Dit werkt nu verder prima, alles gaat goed, ik zou alleen nog graag uitvogelen hoe ik de CIFS/Samba share een andere naam kan geven dan storage_homeshare.

niet om heel brutaal te zijn of ondankbaar te klinken, maar het OS draait, ZFS draait, lezen en schrijven op de share werkt, dus liever heb ik het daar niet meer over.

blijft over; weet iemand hoe je in ZFS een sharenaam/resourcenaam aanpast?

  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 04-12 17:38

MikeVM

- Baloo -

zeker de serverversie is een no-go voor een linux noob, (sprekend uit ervaring) , ik ben over 3 maanden begonnen met linux, eerst de server versie, daarna snel overgegaan op de normale desktopversie, en zelfs dat is zweten bij momenten..

de server-versie is imo niet voor normaal thuisgebruik (tenzij je je weg weet met linux).
hiermee bedoel ik: het is niet de tijd waard om het te leren voor dit gebruik.

\\ Baloo \\ Mijn iRacing profiel


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 27-12 16:59

Compizfox

Bait for wenchmarks

Het voordeel van ZFSGuru is dat je een laagdrempeligere webinterface hebt.

ESXi is trouwens een alternatief voor Hyper-V (volgens mij gebruiken de meeste Tweakers die virtualiseren, ESXi)

Gewoon een heel grote verzameling snoertjes

Uh, sharesmb=[naam] werkte toch alleen automatisch als je Solaris gebruikte? Omdat SMB daar een kernel implementatie is?

Bij Samba moet je het toch altijd met het handje doen? Of mis ik (weer :+ ) iets?

Even niets...


  • batsma
  • Registratie: April 2005
  • Niet online
opgelost door niet ZFS sharesmb te gebruiken, maar losse samba server te installeren en via inderdaad de smb.conf aan te passen.

bedankt voor de hulp!

  • KoosDijk
  • Registratie: Januari 2008
  • Laatst online: 24-12 13:40
Ik ben op het moment bezig met de migratie van twee Xen-servers naar ZFS als onderliggende storage. Hiervoor heb ik ZFS op Linux geinstalleerd op de Dom0.

Daarna heb ik op het ZFS volume een disk gemaakt voor Xen. Dit werkt allemaal wel, alleen zijn de schrijfsnelheden binnen de VM heel erg traag (ca. 9 megabyte/s). Op de dom0 is de performance prima.

Zijn hier meer mensen die tegen dit probleem zijn aangelopen? Hoe zou ik dit kunnen oplossen?

Verwijderd

Topicstarter
Je kunt testen met sync=disabled op de ZVOL die je aan je guests geeft. Als dat veel sneller wordt, dan heb je baat bij een SSD die dienst doet als separate log ofwel SLOG. Ik zou hem wel weer op sync=standard zetten daarna, want juist dit beschermt het guest filesystem van corruptie. Met sync=disabled blijft ZFS zelf wel consistent, maar kan de guest filesystem toch corrupt of beschadigd raken na een stroomstoring/crash door misordered writes.

  • KoosDijk
  • Registratie: Januari 2008
  • Laatst online: 24-12 13:40
Verwijderd schreef op dinsdag 12 februari 2013 @ 19:45:
Je kunt testen met sync=disabled op de ZVOL die je aan je guests geeft. Als dat veel sneller wordt, dan heb je baat bij een SSD die dienst doet als separate log ofwel SLOG. Ik zou hem wel weer op sync=standard zetten daarna, want juist dit beschermt het guest filesystem van corruptie. Met sync=disabled blijft ZFS zelf wel consistent, maar kan de guest filesystem toch corrupt of beschadigd raken na een stroomstoring/crash door misordered writes.
Ja, dat scheelt aanzienlijk. Dan haal ik rond de 60 megabyte/s, best aardig wat mij betreft. Ik zal eens een SSD erin prikken, bedankt voor de tip!

  • duiveltje666
  • Registratie: Mei 2005
  • Laatst online: 13-06-2022
@ Cipher : Ik ben benieuwd met welke kernelopties de kernel gebakken is voor ZFS stock .. kan dit gepost worden?

  • batsma
  • Registratie: April 2005
  • Niet online
ZFS in een VM onder Hyper-V:

Bij deze een handleiding voor hoe ik ZFS on Linux in Ubuntu op een Windows Server 2012 Hyper-V installatie werkend heb gekregen.
Ik gebruik mijn eigen situatie als voorbeeld, ik heb een 160GB SSD welke ik als L2ARC cache wilde inzetten, en 5*3TB WD RED welke ik in een raidz1 pool wilde stoppen.
Geen domein, geen andere rare fratsen gewoon een basic fileserver voor thuismisbruik

Maak op je Hyper-V een nieuwe VM aan, en installeer deze met de servervariant van Ubuntu, zelf heb ik 12.04 LTS gebruikt.

Na het installeren van Ubuntu sluit je deze af, en pas je de configuratie van je VM aan, ZFS houdt van geheugen dus geef in ieder geval rond de 3 a 4 GB aan deze VM. Zet in de diskmanager van win2012 de schijven die je wilt doorgeven aan de VM op offline, en wijs deze schijven toe op een scsi-controller in de VM. (let op dit toewijzen lukt alleen vanaf de server waar de schijven fysiek in aanwezig zijn).

Nadat je de Ubuntu server opnieuw hebt opgestart voer je de volgende commando's uit:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
# als eerst de server updaten
sudo apt-get -y -q update && sudo apt-get -y -q upgrade
# nu hebben we python nodig om een repository toe te voegen
sudo apt-get install python-software-properties
# nu gaan we de ZFS repo toevoegen en ZFS installeren.
sudo add-apt-repository ppa:zfs-native/stable
sudo apt-get update 
sudo apt-get install ubuntu-zfs
# ff testen of ZFS het doet
sudo zpool
sudo zfs
# vervolgens kunnen we de pool aanmaken maar eerst ff kijken hoe onze schijven heten
fdisk -l
# pro-tip je kunt met shift+pgup en pgdown "scrollen" in het terminal scherm


Ik had zelf schijfnamen /dev/sda /dev/sda1 /dev/sda2 /dev/sdb /dev/sdc /dev/sdd /dev/sde /dev/sdf en /dev/sdg
Aan het formaat kon ik afleiden wat welke schijf was. de sda's waren de VMhd's deze had ik niet nodig omdat ik het prima vond dat Ubuntu zelf niet op een ZFS partitie draaide.
sdb was de SSD schijf
sdc t/m sdg waren de 3TB WD RED's

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
# we gaan verder met het aanmaken van de pool met cache en het filesystem
# ik noem mijn pool hier storage, dit kun je ook een andere naam geven
# het filesystem noem ik homeshare, deze ga ik later delen naar mijn win servers
# en assortiment win7 en win8 pc's
sudo zpool create storage raidz /dev/sdc /dev/sdd /dev/sde /dev/sdf /dev/sdg
sudo zpool add storage cache /dev/sdb
sudo zfs create homeshare
# ik kwam vervolgens problemen tegen met het aanmaken van shares, en ze lees en schrijfbaar maken, 
# dus ik sla een stukje frustratie over en zet hier wat ik gedaan heb
sudo chmod -R 777 /storage
# vervolgens hebben we Samba nodig om een share aan te maken voor windows
sudo apt-get install samba smbfs
# Samba moete we configureren, dat doen we als volgt;
sudo nano /etc/samba/smb.conf


Ik kwam hier in een tekst editor welke ik niet geweldig vond maar wel mee kon werken, ik heb het smb.conf bestand aangepast totdat ik het volgende overhield (alles verwijderd dus behalve onderstaande)

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
[global]
workgroup = WORKGROUP
server string = %h server (Samba, Ubuntu)
dns proxy = no
name resolve order = bcast lmhosts host

log file = /var/log/samba/log.%m
max log size = 1000
syslog = 0
panic action = /usr/share/samba/panic-action %d

security = user
encrypt passwords = true
passdb backend = tdbsam
obey pam restrictions = yes
unix password sync = yes
passwd program = /usr/bin/passwd %u
passwd chat = *enter\snew\s*\spassword:* %n\n *retype\snew\s*\spassword:* %n\n *password\supdate$
pam password change = yes
map to guest = bad user

[HomeShare]
comment = ZFS dataschijf
path = storage/homeshare
browsable = yes
read only = no
guest ok = yes
writable = yes

# bestand sluiten met ctrl-X en opslaan. hierna de laatste stap....
# samba opnieuw starten zodat de config geladen wordt
sudo service smbd restart


Ik weet niet van alle settings wat ze precies doen, maar ik dacht dat ze ook niet zoveel kwaad konden, en dit ruimde de boel lekker op en maakte het wat leesbaarder, het originele bestand bevatte meer commentaar en uitleg dan daadwerkelijke instellingen, en ik had bijna niets nodig voor mijn implementatie.

Hierna had ik vanaf al mijn computers een ZFS share beschikbaar onder de naam HomeShare en ik ben nu 4TB aan data hiernaartoe aan het migreren.
kopiëren gaat op het moment met ongeveer 120 MB per seconde, leessnelheden heb ik nog niet getest.

PS.
Ik hoop dat mensen hier wat aan hebben, en zo geef ik ook nog eens iets terug aan de community :)
Pagina: 1 ... 62 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.