Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:41

Compizfox

Bait for wenchmarks

FireDrunk schreef op dinsdag 11 juni 2013 @ 08:05:
De geavanceerde versiebeheer tools van Windows zijn niet werkend te krijgen onder FreeBSD/ZFS voor zover ik weet. Onder Solaris een beetje, daar kan je de snapshots iig laten zien in het windows "Previous Versions" menu van een share.
Waar ligt dat dan aan, vraag is me af? Heeft Solaris ipv van Samba een andere, betere SMB-server?

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!
Ja, bij Solaris is de SMB server een kernel implementatie.

Even niets...


Acties:
  • 0 Henk 'm!

  • psy
  • Registratie: Oktober 1999
  • Laatst online: 13-10 15:52

psy

FireDrunk schreef op dinsdag 11 juni 2013 @ 08:05:
De geavanceerde versiebeheer tools van Windows zijn niet werkend te krijgen onder FreeBSD/ZFS voor zover ik weet. Onder Solaris een beetje, daar kan je de snapshots iig laten zien in het windows "Previous Versions" menu van een share.

Ik vraag me af, of je die kopieeractie die nu gebeurt door middel van een backup schema, kan wijzigen zodat deze gebeurt op het moment dat je een file opslaat. Ik denk niet dat je zoveel ingewikkelde scripts moet willen bouwen.

Wat je kan doen, is 5 minuten nadat je windows 2008 server gesynced heeft, automatisch een snapshot maken op zfs niveau. Dan heb je na elke sync een snapshot.
Ha dat is jammer. Ik had zoiets inmiddels ook al gelezen op https://blogs.oracle.com/...ows_previous_versions_to1
Dus dan zou ik Solaris moeten gebruiken, mits ik die windows feauture zou willen kunnen gebruiken. Dat is een afweging die zelf ik moet maken.

Hoe gebruiken de meeste hier hun ZFS machine? Als main-fileserver of als backupserver?
Ik vind het een beetje zonde om altijd een tweede aparte fileserver (in geval van ZFS) te laten draaien namelijk. Dat is ook de reden dat ik slechts eenmaal per dag een backup maak, dan hoeft die machine bijna niet aan te staan.

Ik gebruik nu een Windows bak met een aantal Hyper-V machines die nu als main-fileserver dient alle pc's in huis trekken hier hun content vanaf maar hij doet ook dienst als domainserver, DNS/DHCP/TMGserver, airvideoserver en nog wat spullen. Die moet altijd aanstaan. Zou heel mooi zijn als ik hier ZFS bij kon hangen maar had begrepen dat ik het me dan gewoon te moeilijk maak en dan heeft ZFS geen directe toegang tot de disks.

8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)


Acties:
  • 0 Henk 'm!
Als je windows gebruikt, dan heb je toch nooit de zekerheid van data integriteit van ZFS? Omdat je namelijk je files gewoon overschrijft op de ZFS bak... (met je backup)

Als er silent corruption optreedt in je Windows bak, zal je ZFS bak dat niet detecteren omdat hij de data die vanaf Windows komt gewoon voor waarheid aanneemt...

Je bent dus nooit zeker van je data tenzij je alle backups bewaard, en oneindig terug kan gaan in de tijd...

[ Voor 4% gewijzigd door FireDrunk op 11-06-2013 11:44 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • psy
  • Registratie: Oktober 1999
  • Laatst online: 13-10 15:52

psy

Correct die limitatie had ik zelf ook al opgemerkt :)
psy in "Het grote ZFS topic"

8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)


Acties:
  • 0 Henk 'm!
Dus eigenlijk moet je je farm redesignen :+

Even niets...


Acties:
  • 0 Henk 'm!

  • psy
  • Registratie: Oktober 1999
  • Laatst online: 13-10 15:52

psy

Mijn voorkeur is ook....als ZFS eenmaal goed werkt -> main fileserver laat daar geen misverstand over bestaan.
Maar niet always on.
Misschien dat ik het als volgt ga doen. Ik gebruik toch al DFS-Namespace.
Nu
WinServer (always on, DFS-defaultshare)
Backupserver (alleen aan bij wolpacket, DFS-backupshare)

Nieuw
WinServer (always on, DFS-backupshare)
ZFSserver (alleen aan op vaste tijden, DFS-defaultshare)

ZFS wordt dan de defaultshare, en synct dit gewoon altijd door naar de windows bak welke dan de "backup"share is.
Is de ZFS offline dan redirect DFS automatisch naar de windows bak. Probleem opgelost. Wel is er dan nog steeds een kleine kans op niet detecteerde bitrot maar die kans is dan veel kleiner omdat de ZFS back op de drukke tijden toch wel draait.

Ja soms is het leuk om ingewikkelde dingen te bedenken :*)

8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)


Acties:
  • 0 Henk 'm!
tja, waarom wil je de ZFS bak niet altijd aan hebben? Als dat ding zoveel verbruikt, kan je dat probleem toch beter aanpakken in plaats van zo'n ingewikkelde config te maken :P

Desnoods ga je ESXi gebruiken en draai je zowel ZFS als Windows op 1 host, waarbij Windows een iSCSi volume heeft op je ZFS machine...

Best of both worlds...

Even niets...


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 06-10 19:19
Kan ik met ZFSGuru mijn pools exporteren, ZFSguru opnieuw installeren en dan de pools weer importeren ?

Ik heb 2 server, op 1 installeer ik services en dat gaat goed, de andere blijft maar aangeven dat hij ze aan het installeren is, alles waar ik op klik blijft staan (maanden nu al)
Het zal wel geen kwaad kunnen, maar ik heb er eerder iets over gevraagd en nooit een antwoord gekregen. Het lijkt me dan maar het handigst om alles opnieuw te installeren.
Maar ik wil natuurlijk wel de bestaande pools terug krijgen zonder data verlies,

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!
Ja dat gaat prima, je hoeft in principe de pool niet eens te exporteren, je kan hem altijd importeren met -f.
Exporteren is wel iets netter :)

Koppel anders voor de zekerheid je data disks los, weet je zeker dat het niet mis kan gaan.

[ Voor 24% gewijzigd door FireDrunk op 11-06-2013 17:55 ]

Even niets...


Acties:
  • 0 Henk 'm!
Ik heb zonet gemerkt dat mijn SSD waarop mijn L2ARC en ZIL staan "verwijderd" is geraakt uit mijn raidz van 5 disks...

Bijgevolg merkt ZFS deze vdev aan als "degraded". In ZFSguru krijg ik de mogelijkheid om de twee devices te removen of te replacen. Mag ik dat zomaar, dat removen? Omdat mijn vdev degraded is ben ik niet meer zo snel om even iets te removen/replacen... Het ding is: ze zijn door ZFSguru wel al aangemerkt als "removed".

Mijn M4 komt ook niet meer tevoorschijn onder disks...

[ssh@zfsguru /home/ssh]$ zpool status hulk
  pool: hulk
 state: DEGRADED
status: One or more devices has been removed by the administrator.
	Sufficient replicas exist for the pool to continue functioning in a
	degraded state.
action: Online the device using 'zpool online' or replace the device with
	'zpool replace'.
  scan: scrub canceled on Tue May 21 14:11:55 2013
config:

	NAME                    STATE     READ WRITE CKSUM
	hulk                    DEGRADED     0     0     0
	  raidz1-0              ONLINE       0     0     0
	    gpt/bay1            ONLINE       0     0     0
	    gpt/bay2            ONLINE       0     0     0
	    gpt/bay3            ONLINE       0     0     0
	    gpt/bay4            ONLINE       0     0     0
	    gpt/bay5            ONLINE       0     0     0
	logs
	  14429619560257163279  REMOVED      0     0     0  was /dev/gpt/ZIL
	cache
	  2430380979461610196   REMOVED      0     0     0  was /dev/gpt/L2ARC

errors: No known data errors


EDIT: No balls, no glory. beide devices geremoved. Alles terug groen, veiligheidshalve maar een scrub aan het draaien. Die is nu gestaag aan het stijgen qua snelheid... Nachtje door laten doen....

[ Voor 67% gewijzigd door HyperBart op 11-06-2013 23:35 ]


Acties:
  • 0 Henk 'm!

  • Wouter.S
  • Registratie: Maart 2009
  • Laatst online: 12-10 22:59

Wouter.S

e^(i*pi ) +1 = 0

HyperBart schreef op dinsdag 11 juni 2013 @ 23:16:
EDIT: No balls, no glory. beide devices geremoved.
Lijkt me wel geen ideale ingesteldheid als het over storage en dergelijke gaat. Anderzijds elke zichzelf respecterende tweaker heeft natuurlijk een backup ;)

Any intelligent fool can make things bigger, more complex, and more violent. It takes a touch of genius -- and a lot of courage -- to move in the opposite direction.


Acties:
  • 0 Henk 'm!

  • Nism0
  • Registratie: November 2008
  • Laatst online: 10-09 13:40
Mede Tweakers,

Wat adviseren jullie voor backup oplossing met een ZFS OI systeem?
Ik ben van plan om een indentieek systeem te bouwen en deze de bestanden heen weer te laten kopieeren. Mocht er wat mis zijn met de hoofd server dan kan zou ik willen wisselen naar de backup server. Het moet dus direcht beschikbare data zijn, inclusief NTFS rechten.
Ik heb rsync onderzocht maar daar kopieeren de NTFS rechten niet mee (las ik)..

Acties:
  • 0 Henk 'm!
Wouter.S schreef op woensdag 12 juni 2013 @ 10:03:
[...]

Lijkt me wel geen ideale ingesteldheid als het over storage en dergelijke gaat. Anderzijds elke zichzelf respecterende tweaker heeft natuurlijk een backup ;)
De devices waren toch al "removed" en de rest van mijn vdev was nog compleet healthy, dus er was geen gevaar. Beetje logisch nagedacht en huppa. En dat tweede was sowieso ook het geval. Er ligt in mijn nachtkastje een offline 2TB disk waar ik onregelmatig periodiek een zfs send/receive naar doe.

Acties:
  • 0 Henk 'm!

  • Geckx
  • Registratie: November 2008
  • Laatst online: 23-05-2022
Ik ga hier voor een familielid ook een zfsguru server in elkaar flansen. Hij heeft nog een aantal 2Tb schijven liggen. Allemaal 5400rpm, maar wel hebben er een aantal advanced format (4k) sectoren en de andere nog gewoon 512. Het zijn allemaal 2Tb schijven en het zou wel de bedoeling zijn om deze in éénzelfde pool te gooien. 5 schijven -> RAIDZ1.

Is dit erg nefast of kan het niet zoveel kwaad ? Vermoedelijk best ashift=9 gewoon laten?

Acties:
  • 0 Henk 'm!
ZFS en in elkaar flansen... Dat doen we hier niet he... Wel serieus doen he :+

Nee, kan geen kwaad, ik zou ze je pool juist optimaliseren voor 4K.

Een 512b sector schijf heeft geen last van 4k opdrachten, terwijl een 4k schijf wel last heeft van 512k opdrachten.

5 schijven in RAIDZ1 is inderdaad de beste optie.

Even niets...


Acties:
  • 0 Henk 'm!

  • thof
  • Registratie: Oktober 2008
  • Laatst online: 21:14

thof

FP ProMod
FireDrunk, moet hij er ook nog rekening mee houden dat de schijven van verschillende generaties zijn? Snelheid is gelimiteerd aan langzaamste disk?

Server 1: Intel N305 | 48GB RAM | 5*4TB NVME | 4x 2.5GbE
Server 2: Intel N5105 | 64GB RAM | 1TB NVME | 4x 2.5GbE
Server 3: Intel Xeon E5-2670 | 128GB RAM | 512+750GB SATA SSD | 6x10TB HDD | 6x 1GbE [Buiten gebruik]


Acties:
  • 0 Henk 'm!
Ja, maar daar merk je niet zo heel veel van, alle 2TB schijven doen wel 100MB/s dus veel verschil met nieuwe schijven is het niet.

Even niets...


Acties:
  • 0 Henk 'm!

  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 23-06 16:04
Praktische hulp gezocht:
Ik heb 2 Intel 320's (120GB). Ik wil ze inrichten met elk 3 partities. Een reguliere ZFS partie waarop een mirrored pool licht (rootpool), een ZIL en een L2ARC partitie.
De ZIL's in Mirror en de L2ARC partities striped (beide aan de pool toegevoegd).

Zoals FireDrunk als eens beschreef in: FireDrunk in "Het grote ZFS topic"
Hierdoor krijg je eigenlijk de perfecte setup. Data gescheiden van OS, mirrored ZIL, striped L2ARC. Dus, safe, snel, en functioneel.

Nu leest dat gemakkelijk weg en snap ik functioneel heel goed wat je doet. Maar heb nog niet helemaal door hoe je dat configureert met ZFS (praktische gezien). Kan iemand mij daar mee helpen.

Acties:
  • 0 Henk 'm!

  • Geckx
  • Registratie: November 2008
  • Laatst online: 23-05-2022
Bedankt voor het antw. Ik zal de pool dan optimaliseren voor 4k schijven.

Snelheid doet er niet zo heel veel toe. Heb wel vergeleken en de latency is vergelijkbaar tussen de schijven. Ze zijn bovendien ook allemaal 5400rpm en 3x667 platters.

Acties:
  • 0 Henk 'm!

  • Basz0r
  • Registratie: April 2009
  • Niet online
Neptunus schreef op woensdag 12 juni 2013 @ 16:44:
Praktische hulp gezocht:
Ik heb 2 Intel 320's (120GB). Ik wil ze inrichten met elk 3 partities. Een reguliere ZFS partie waarop een mirrored pool licht (rootpool), een ZIL en een L2ARC partitie.
De ZIL's in Mirror en de L2ARC partities striped (beide aan de pool toegevoegd).

Zoals FireDrunk als eens beschreef in: FireDrunk in "Het grote ZFS topic"
Hierdoor krijg je eigenlijk de perfecte setup. Data gescheiden van OS, mirrored ZIL, striped L2ARC. Dus, safe, snel, en functioneel.

Nu leest dat gemakkelijk weg en snap ik functioneel heel goed wat je doet. Maar heb nog niet helemaal door hoe je dat configureert met ZFS (praktische gezien). Kan iemand mij daar mee helpen.
Volgens mij moet je dan partities aanmaken op beiden SSD's en deze dmv mdadm in RAID0 en RAID1 zetten.

Acties:
  • 0 Henk 'm!
Ik heb ondertussen mijn M4 even gepowercycled (los van voeding en terug aangesloten) en hij kwam bijna onmiddellijk terug in ZFSguru. Ik hou het voorlopig op een omgevallen bitje in het universum. Als het nog eens voorvalt weet ik niet wat eerst te verdenken, de SSD zelf of mijn voeding...

Sinds mijn reinstall is het blijkbaar nu wel weer mogelijk om een disk hot te removen...

Nu dus nog op zoek gaan (en alle hulp is daarbij geapprecieerd) naar volgende functionaliteit:

Maak ieder uur een snapshot van een voorbepaalde set van filesystems op mijn "main" pool met als naam DDMMYYYHH00, send deze snapshot naar een pool genaamd "spiegeltje" en verwijder vervolgens deze snapshot op de "main" pool.

Volgens mij is dit ook voor een groep andere Tweakers een welkome functionaliteit. Want ik krijg soms het gevoel dat veel mede-ZFS-gebruikers hier geen backups meer nemen onder het motto: "OMGWTFBBQLAZERPEWPEWFUCKDISSHIT ZFS is keirobuust dus ik mot heulemoal geen backups meer maken".

Well no :+

Met een minimale investering in twee recente +1TB disks kan je volgens mij al redelijk safe je meest kritieke data backuppen naar een mirrored pool. Om de zoveel tijd (en dat kies je zelf) plug je gewoon je andere (op remote locatie gestockeerde) disk terug in, zet je 'm online, en de resilver doet de rest. In mijn optiek het meest efficient... Je kan zelfs nog switchen tussen de disks om de wear and tear wat te "levellen".

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:41

Compizfox

Bait for wenchmarks

Basz0r schreef op woensdag 12 juni 2013 @ 17:06:
[...]

Volgens mij moet je dan partities aanmaken op beiden SSD's en deze dmv mdadm in RAID0 en RAID1 zetten.
mdadm? Onder FreeBSD? Of gaat dit over ZFS-on-Linux?

Kun je ze eigenlijk niet gewoon via ZFS zelf in een vdev pleuren en dan die vdev toevoegen als L2ARC of zo?



@HyperBart: Naar mijn mening is off-site backup bijna het enige soort backup wat redelijk nut heeft om naast ZFS te gebruiken.

ZFS beschermt je namelijk tegen schijfuitval, bitrot en andere corrupties, maar niet tegen onbedoeld verwijderen van je data, een ontplofte server, diefstal of brand in je huis.
ZFS snapshots kunnen je al weer beschermen tegen onbedoeld verwijderen van data, maar je zit nog steeds met het probleem dat je data toch écht weg is als je hele server boem doet.

Het gaat mij ook dan weer te ver om speciaal een tweede server neer te zetten voor backups, en daarmee vang je nog steeds het (kleine) risico van brand of diefstal niet op.

Laatst kwam ik DataHaven tegen. Dit is een gratis backupoplossing waarmee je backupruimte deelt tussen gebruikers onder het motto "voor wat hoort wat". Als jij 100 GB ruimte aanbied voor anderen om hun backups op te gooien, mag jij ook bij anderen voor 100 GB backuppen. Uiteraard is het redundant verdeeld over meerdere gebruikers en ge-encrypt.
Als jij veel meer ruimte aanbied dan je zelf gebruikt kun je er ook nog eens geld verdienen aan je serverfarm.

Je kunt het een beetje zien alles BuddyBackup, maar dan met randoms ipv met vrienden.

Leek mij ideaal dit project, maar het is alleen jammer dat het erg klein is (niet alleen het project zelf, maar ook de community) en het niet echt werkt bij mij (http://datahaven.net/foru...01affeb7741827229ef1c9062)

Mocht dit project trouwens doodgaan, zijn er Tweakers die geïnteresseerd zijn om aan BuddyBackup te doen?

Natuurlijk is off-site backup alleen maar interessant als er een deftige symmetrische internetverbinding ligt, maar als alles volgens planning loopt komt er hier binnenkort een 100/100 glas-lijntje :9

[ Voor 73% gewijzigd door Compizfox op 12-06-2013 22:20 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Basz0r
  • Registratie: April 2009
  • Niet online
Compizfox schreef op woensdag 12 juni 2013 @ 22:07:
[...]

mdadm? Onder FreeBSD? Of gaat dit over ZFS-on-Linux?
Had me er nog niet genoeg in verdiept, ging er vanuit dat mdadm ook zou werken onder FreeBSD. Heb het even opgezocht, maar voor FreeBSD is dat GEOM.

Acties:
  • 0 Henk 'm!
Ho stop, zfs en GEOM hoef je helemaal niet te mixen.

Je kan gewoon 3 partities aanmaken op je SSD.
Van de eerste partitie op elke SSD maak je een pool om je basis installatie op te doen.

De 2e en 3e partitie (op de ene SSD) noem je ZIL1,L2ARC1 en (op de andere SSD) ZIL2, L2ARC2 (of -A/-B wat je wil :+)

De ZIL voeg je via de commandline met een iets ander commando dan ZFSguru standaard doet.
zpool add datapool log mirror gpt/ZIL1 gpt/ZIL2

Voor de L2ARC doe je:
zpool add datapool cache gpt/L2ARC1
zpool add datapool cache gpt/L2ARC2


Als mensen er behoefte aan hebben, kan ik wel een keer een screenshot maken van zo'n setup in de partitie manager van ZFSguru?

LET WEL OP: DOE DIT NIET ZOMAAR OP JE DATAPOOL MAAR EXPIRIMENTEER EERST MET TEST SYSTEMEN EN/OF TEST POOLS!

[ Voor 12% gewijzigd door FireDrunk op 13-06-2013 08:30 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 23-06 16:04
FireDrunk schreef op donderdag 13 juni 2013 @ 08:25:
Ho stop, zfs en GEOM hoef je helemaal niet te mixen.

Je kan gewoon 3 partities aanmaken op je SSD.
Van de eerste partitie op elke SSD maak je een pool om je basis installatie op te doen.

De 2e en 3e partitie (op de ene SSD) noem je ZIL1,L2ARC1 en (op de andere SSD) ZIL2, L2ARC2 (of -A/-B wat je wil :+)

De ZIL voeg je via de commandline met een iets ander commando dan ZFSguru standaard doet.
zpool add datapool log mirror gpt/ZIL1 gpt/ZIL2

Voor de L2ARC doe je:
zpool add datapool cache gpt/L2ARC1
zpool add datapool cache gpt/L2ARC2


Als mensen er behoefte aan hebben, kan ik wel een keer een screenshot maken van zo'n setup in de partitie manager van ZFSguru?

LET WEL OP: DOE DIT NIET ZOMAAR OP JE DATAPOOL MAAR EXPIRIMENTEER EERST MET TEST SYSTEMEN EN/OF TEST POOLS!
Graag, dat is erg handig.

Acties:
  • 0 Henk 'm!
Komt er aan :)

[ Voor 7% gewijzigd door FireDrunk op 13-06-2013 08:46 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • webbier
  • Registratie: Mei 2010
  • Laatst online: 14-10 16:19
Ik heb het ook precies zo gedaan met mijn 2 320's 120 GB, al is het in zfs guru net zo makkelijk om dat via de interface te doen.

Acties:
  • 0 Henk 'm!
ZFSGuru SSD ZIL & L2ARC Tutorial

Partitioneer eerst je SSD's op deze manier:
Afbeeldingslocatie: http://i43.tinypic.com/2dtakpj.png

LET OP: De groottes hier zijn fictief en geen representatie voor je eigen setup, bedenk zelf goed hoeveel ruimte je wil geven aan elk deel (root, ZIL en L2ARC). ZFSGuru neemt zelf doorgaans minder dan 1GB in beslag, maar als je services gaat installeren kan dat nog best groeien. Voor ZIL is 4GB doorgaans ruim voldoende, en als je krap zit is 2GB ook nog wel te doen. Voor L2ARC geld meestal hoe meer hoe beter, maar bedenk je wel dat je meer geheugen gebruik krijgt door het gebruik van L2ARC. ZFSGuru berekend van te voren ook netjes hoeveel meer geheugen je nodig hebt. Wordt dit meer dan 50% van het geheugen dat de machine uberhaupt heeft, is er een kans dat je dit in sequentiele transfers gaat zien.

Maak daarna een rootpool aan:
Afbeeldingslocatie: http://i40.tinypic.com/2n08u46.png

Label daarna ook je data disks, waarna je dit overhoud:
Afbeeldingslocatie: http://i40.tinypic.com/4gsu4w.png

Maak daarna je data pool aan:
Afbeeldingslocatie: http://i41.tinypic.com/qqpulc.png

Voeg de L2ARC toe:
Afbeeldingslocatie: http://i41.tinypic.com/346n72s.png

Na testen krijg je dit:
Afbeeldingslocatie: http://i43.tinypic.com/2mg9w61.png

Daarna ziet je data pool er zo uit:
Afbeeldingslocatie: http://i43.tinypic.com/e64ro2.png

Voer via de commandline dit commando uit:
Afbeeldingslocatie: http://i41.tinypic.com/2nm0md5.png

En je pool ziet er daarna zo uit:
Afbeeldingslocatie: http://i42.tinypic.com/2vxlztg.png

Hierna kan je de reguliere setup volgen en de installatie wijzen naar rootpool

Even niets...


Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 10-10 13:24
is het wellicht een idee om zfsguru als diskimage kant en klaar aan te bieden zoals freenas? dus dat je het img op een usb stick zet en je niet in een installer komt maar in een reeds geïnstalleerde omgeving zodat je gelijk aan de slag kunt.

of is het gewoon een kwestie van iso naar usb en livecd gebruiken?

[ Voor 12% gewijzigd door matty___ op 13-06-2013 09:57 ]


Acties:
  • 0 Henk 'm!
Dat kan je zelf doen met VMWare Workstation (of virtualbox).

USB stick doorgeven aan een VM, ZFSGuru ISO downloaden, installeren naar USB stick.

Klaar.

[ Voor 5% gewijzigd door FireDrunk op 13-06-2013 10:41 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • B2
  • Registratie: April 2000
  • Laatst online: 22:42

B2

wa' seggie?

Zucht.. is er nou weer een schijf kapot..

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
Jun 13 09:27:22 meterkast kernel: [40436.859104] sd 7:0:2:0: [sdl] Unhandled sense code
Jun 13 09:27:22 meterkast kernel: [40436.859117] sd 7:0:2:0: [sdl]
Jun 13 09:27:22 meterkast kernel: [40436.859118] Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Jun 13 09:27:22 meterkast kernel: [40436.859119] sd 7:0:2:0: [sdl]
Jun 13 09:27:22 meterkast kernel: [40436.859119] Sense Key : Hardware Error [current]
Jun 13 09:27:22 meterkast kernel: [40436.859121] sd 7:0:2:0: [sdl]
Jun 13 09:27:22 meterkast kernel: [40436.859123] Add. Sense: Internal target failure
Jun 13 09:27:22 meterkast kernel: [40436.859124] sd 7:0:2:0: [sdl] CDB:
Jun 13 09:27:22 meterkast kernel: [40436.859125] Read(10): 28 00 00 00 0a 10 00 00 10 00
Jun 13 09:27:22 meterkast kernel: [40436.859130] end_request: critical target error, dev sdl, sector 2576
Jun 13 09:27:22 meterkast kernel: [40436.861275] sd 7:0:2:0: [sdl] Unhandled sense code
Jun 13 09:27:22 meterkast kernel: [40436.861276] sd 7:0:2:0: [sdl]
Jun 13 09:27:22 meterkast kernel: [40436.861277] Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Jun 13 09:27:22 meterkast kernel: [40436.861278] sd 7:0:2:0: [sdl]
Jun 13 09:27:22 meterkast kernel: [40436.861278] Sense Key : Hardware Error [current]


Ik heb alle kabeltjes al gecheckt, zitten allemaal goed.. Na een reboot gaat het even goed, maar zodra er daadwerkelijk wat op de schijf gedaan wordt wordt ie als faulted aangemerkt..

Acties:
  • 0 Henk 'm!

  • robobeat
  • Registratie: Mei 2003
  • Laatst online: 09-09 10:59
hallo heren,

ik had een vraag die ik zo even niet kan terug vinden:

ik draai nu (sinds een week of wat) een ESXi server met daarop onder andere FreeNAS met een 4 disk ZFS pool. Deze zijn rechtstreeks op het mobo aangesloten en worden doorgegeven aan FreeNAS. Ooit wil ik in de toekomst deze 4 HDDs overzetten naar een IBM M1015 kaart. Nu is mijn vraag: kan dit zonder data verlies of moet ik dan de pool weer opnieuw aanmaken en ben ik alles kwijt?

Mijn excuses als dit niet het juiste topic is, maar het leek mij hier meer geslaagd dan in het ESX topic.

Acties:
  • 0 Henk 'm!
Hoe heb je de schijven ' direct ' doorgegeven aan FreeNAS?

Even niets...


Acties:
  • 0 Henk 'm!

  • robobeat
  • Registratie: Mei 2003
  • Laatst online: 09-09 10:59
FireDrunk schreef op donderdag 13 juni 2013 @ 11:54:
Hoe heb je de schijven ' direct ' doorgegeven aan FreeNAS?
dmv RDM via vmdk files met behulp van vmkfstools (zoals op deze link is beschreven)

Acties:
  • 0 Henk 'm!
RDM is ok-ish voor ZFS, maar het is niet echt iets wat we hier aanraden. De werking blijft discutabel. Echte tests met wat er gebeurt bij bad-sectors zijn er nog niet (geweest).

Wel kan je gewoon je disks op een M1015 hangen en daarna je pool weer gewoon gebruiken. Dit kan dus gewoon zonder dataverlies.

Even niets...


Acties:
  • 0 Henk 'm!

  • robobeat
  • Registratie: Mei 2003
  • Laatst online: 09-09 10:59
was mij idd ook al bekend geworden, daarom wil ik ze al omsteken naar een M1015, maar moet dan wel weten of ik dan data verlies heb of niet. thanks voor je antwoord.

Acties:
  • 0 Henk 'm!

  • Nism0
  • Registratie: November 2008
  • Laatst online: 10-09 13:40
Heeft iemand toevallig ook een SSD ZIL & L2ARC Tutorial voor OpenIndiana /napp-it?

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:41

Compizfox

Bait for wenchmarks

@Firedrunk: Is het wel aan te raden om 1 SSD voor zowel SLOG als L2ARC tegelijk te gebruiken? En hoe zit dat met een SSD zonder supercaps, zoals de Crucial M4 die ik heb? Is dat echt een no-go om dat te gebruiken als SLOG of kan het best?
robobeat schreef op donderdag 13 juni 2013 @ 12:02:
[...]


dmv RDM via vmdk files met behulp van vmkfstools (zoals op deze link is beschreven)
Physical RDM of virtual RDM?

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
Nism0 schreef op donderdag 13 juni 2013 @ 13:13:
Heeft iemand toevallig ook een SSD ZIL & L2ARC Tutorial voor OpenIndiana /napp-it?
man zpool ? 8)

Wat wil je precies weten ? Napp-it heeft menu-items om een device aan een pool toe te voegen, als cache (L2ARC) of als log (ZIL). Ik weet niet of je daar ook eerst je SSD kunt partitioneren om 1 SSD voor beide te gebruiken, anders zul je dat via de commandline moeten doen denk ik.

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!
@CompizFox,

Ja hoor, op het moment dat je pool staat te wachten op een ZIL write, gebeurt er toch niets, en voor de rest word je ZIL niet aangesproken, dus kan L2ARC vrolijk aan het werk. Je SSD word dus om-en-om gebruikt voor ZIL en L2ARC, niet tegelijkertijd.

SSD's zonder supercaps zijn niet veilig voor gebruik als ZIL, het risico is dat als de power uitvalt, je pool een paar minuten aan writes kwijt kan raken (worst-case, in de praktijk eerder enkele seconden).

Voor een data array met films en zo geen enkel probleem want je hebt dan hooguit een kapotte film. Bij een VMware NFS pool is het wat lastiger :P

[ Voor 7% gewijzigd door FireDrunk op 13-06-2013 14:08 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Nism0
  • Registratie: November 2008
  • Laatst online: 10-09 13:40
u_nix_we_all schreef op donderdag 13 juni 2013 @ 14:06:
[...]

man zpool ? 8)

Wat wil je precies weten ? Napp-it heeft menu-items om een device aan een pool toe te voegen, als cache (L2ARC) of als log (ZIL). Ik weet niet of je daar ook eerst je SSD kunt partitioneren om 1 SSD voor beide te gebruiken, anders zul je dat via de commandline moeten doen denk ik.
Maar hoe gaat dat precies in zijn werk.
Moet ik dan eerst op een test machine openindiana installeren en dan daar de SSD's aanhangen en de partieties en pools aanmaken. en dan deze SSD's in mijn storage bak hangen en de installatie van Openindiana opniew doen op de nieuwe SSD's met de nieuw aangemaakte boot partities?

Acties:
  • 0 Henk 'm!

  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 23-06 16:04
Stel je hebt twee jaar een ZIL gebruikt en je wilt deze uit de pool verwijderen. Kan je dit dan op een nette manier doen?

Acties:
  • 0 Henk 'm!
Joah, gewoon remove doen, ZFS handelt dan alles af en stampt em er uit...

Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
Nism0 schreef op donderdag 13 juni 2013 @ 14:16:
[...]


Maar hoe gaat dat precies in zijn werk.
Moet ik dan eerst op een test machine openindiana installeren en dan daar de SSD's aanhangen en de partieties en pools aanmaken. en dan deze SSD's in mijn storage bak hangen en de installatie van Openindiana opniew doen op de nieuwe SSD's met de nieuw aangemaakte boot partities?
Hangt er vanaf wat je precies wilt. Als je alleen de L2ARC en ZIL op de SSD wilt hebben, zou je het prima zonder herinstallatie kunnen doen.
Als je ook je root op de SSD wilt hebben, denk ik dat je het handigst opnieuw kunt installeren. Vooraf je SSD partitioneren kan, maar volgens mij moet je wel een BSD-label gebruiken om te kunnen booten. Ik denk dat het dan het handigst is om vanuit de installer in een CLI handmatig te partitioneren. Niet echt gebruikersvriendelijk allemaal waarschijnlijk, maar dat is een beetje inherent aan open-indiana, hoog DIY gehalte ...


Oh, @FireDrunk:
Zou het nog nut hebben om de L2ARC partities eerst in een stripe te zetten voordat je ze als cache toevoegt ? Zo wordt het voor caches > blocksize lekker over de 2 verdeeld, of zou het cachealgorithme daar zelf rekening mee houden ?

Edit
HyperBart schreef op donderdag 13 juni 2013 @ 14:37:
Joah, gewoon remove doen, ZFS handelt dan alles af en stampt em er uit...
Uh, ja, maar niet met elke zpool-versie geloof ik ?

[ Voor 8% gewijzigd door u_nix_we_all op 13-06-2013 14:39 ]

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!
Hmm, weet ik niet, volgens mij striped ZFS zelf al over L2ARC devices. Ik verwacht dat 2 onafhankelijke devices iets sneller zijn, omdat de een kan lezen, en de ander kan schrijven. Bij een stripe kan dat niet.

Maar nooit getest, of benchmarks op gedaan. Misschien interessant om een keer te testen.

Even niets...


Acties:
  • 0 Henk 'm!

  • robobeat
  • Registratie: Mei 2003
  • Laatst online: 09-09 10:59
Compizfox schreef op donderdag 13 juni 2013 @ 13:53:

[...]

Physical RDM of virtual RDM?
wat ik nu dus kan zien is het een virtual RDM...
ik heb gebruik gemaakt van de optie -r (in de link staat -z, maar dit is niet de tut die ik heb gebruikt). Voor nu loopt het nog erg stabiel en snel (trek vanaf mijn eigen bak makkelijk 100MB/s met een 10GB file over het netwerk), maar ik hoop eind van de maand een M1015 aan te kunnen schaffen.

Acties:
  • 0 Henk 'm!
hmm, met Virtual RDM weet ik niet of je je pool zomaar kan overzetten, ik verwacht het wel, maar 100% zeker weten doe ik het niet.

Even niets...


Acties:
  • 0 Henk 'm!

  • robobeat
  • Registratie: Mei 2003
  • Laatst online: 09-09 10:59
tja, wat ik kan zien in mijn freenas is dat deze mijn schijven herkent alsof ze rechtstreeks zijn aangesloten... ik had eerst de -z optie geprobeerd, maar deze gaf problemen (uiteindelijk de hele install verwijderd van freenas en opnieuw begonnen): hij zag de schijven wel, maar de install was traag, kon geen smart uitlezen, de VM bleef na een minuut of 10 hangen en de share was niet meer bereikbaar. Nu, met de "nieuwe" install en de -r optie ziet hij de schijven volledig, gaf ook direct aan dat hij de smart info kon uitlezen en werk het geheel echt goed. maar om problemen te voorkomen in de toekomst en omdat ik er nog wat schijven bij moet hebben (nog niet genoeg, je kent het wel ;) ) maak ik de overstap uiteindelijk wel. het zou alleen zonde zijn als ik het straks over zet en ik niet meer bij de data kan.

Acties:
  • 0 Henk 'm!
Hmm, dat klinkt wel goed... Je kan het altijd proberen... Je bent niet zomaar je data kwijt...

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:41

Compizfox

Bait for wenchmarks

robobeat schreef op donderdag 13 juni 2013 @ 15:41:
tja, wat ik kan zien in mijn freenas is dat deze mijn schijven herkent alsof ze rechtstreeks zijn aangesloten...
Toch is het niet zo. Ze worden als block devices doorgeven en je guest krijgt dus geen echte schijf te zien. Dit betekent dat S.M.A.R.T.-data kunt uitlezen, je geen APM/AAM-parameters kan veranderen van de HDDs, je ze niet kan downspinnen en afhandeling van UREs en bad sectors vaak problematisch gaat.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • robobeat
  • Registratie: Mei 2003
  • Laatst online: 09-09 10:59
dat meende ik ook gelezen te hebben en daarom ga ik het risico niet aan en komt er een M1015 in. ff wachten op de centen van de werkgever... :9

Acties:
  • 0 Henk 'm!

  • B2
  • Registratie: April 2000
  • Laatst online: 22:42

B2

wa' seggie?

Hm, volgens mij heb ik gewoon een rotte SFF kabel... tweede disk aan dezelfde kabel vloog er ook al uit als faulted..
Probleem alleen is dat ik de machine nu niet offline kan gooien om de kabels te vervangen... Wordt ook al router gebruikt (jaja, is in dit soort gevallen niet handig) en er wordt nu net veel data richting EC2 gekopieerd..

[ Voor 48% gewijzigd door B2 op 14-06-2013 09:57 ]


Acties:
  • 0 Henk 'm!
u_nix_we_all schreef op donderdag 13 juni 2013 @ 14:38:
[...]
Uh, ja, maar niet met elke zpool-versie geloof ik ?
Klopt ja, maar ik ga er van uit dat de meesten onder ons v28 draaien?

Acties:
  • 0 Henk 'm!

Verwijderd

Zojuist mijn intel g630 vervangen met een i5 2500k omdat ik hoopte hiermee krachtigere VM's te kunnen draaien. Bij het opnieuw opstarten van de server werkte de VM nog alleen merkte ik niet echt verschil in de performance. Helaas kan ik nu helemaal geen VM's meer draaien, omdat elke keer als ik er een aanmaak of er een opstart ik een fout krijg. Is hier een verklaarbare reden voor?

Acties:
  • 0 Henk 'm!

  • webfreakz.nl
  • Registratie: November 2003
  • Laatst online: 21-08 15:56

webfreakz.nl

el-nul-zet-é-er

Heeft je installatie wel een driver voor de nieuwe processor?

* webfreakz.nl is onbekend met ESX installs.

"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!


Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Verwijderd schreef op zaterdag 15 juni 2013 @ 22:13:
Zojuist mijn intel g630 vervangen met een i5 2500k omdat ik hoopte hiermee krachtigere VM's te kunnen draaien. Bij het opnieuw opstarten van de server werkte de VM nog alleen merkte ik niet echt verschil in de performance. Helaas kan ik nu helemaal geen VM's meer draaien, omdat elke keer als ik er een aanmaak of er een opstart ik een fout krijg. Is hier een verklaarbare reden voor?
Foutcode?

Performance ook getest, meer CPU's toegevoegd?

Waarvoor voor de I5 2500K gekozen? Deze heeft geen VT-D, mits je mobo dat ondersteunt is dat leuk spelen met ESX(I)

Acties:
  • 0 Henk 'm!

Verwijderd

Gekozen voor een 2500k omdat deze toevallig nog over was na een upgrade.
Wat is precies het voordeel van VT-D wat de 2500k niet heeft?
foutcode is
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
Exception Object
(
    [message:protected] => The virtual machine 'Windows' has terminated unexpectedly during startup with exit code 1
    [string:Exception:private] => 
    [code:protected] => 0
    [file:protected] => /usr/local/www/phpvirtualbox/lib/vboxconnector.php
    [line:protected] => 2290
    [trace:Exception:private] => Array
        (
            [0] => Array
                (
                    [file] => /usr/local/www/phpvirtualbox/lib/vboxconnector.php
                    [line] => 918
                    [function] => remote_progressGet
                    [class] => vboxconnector
                    [type] => ->
                    [args] => Array
                        (
                            [0] => Array
                                (
                                    [progress] => 609f22f17fe2111f-00000000000006ea
                                    [_persist] => Array
                                        (
                                            [vboxHandle] => 609f22f17fe2111f-00000000000006e8
                                        )

                                    [fn] => progressGet
                                )

                        )

                )

            [1] => Array
                (
                    [file] => /usr/local/www/phpvirtualbox/lib/ajax.php
                    [line] => 306
                    [function] => __call
                    [class] => vboxconnector
                    [type] => ->
                    [args] => Array
                        (
                            [0] => progressGet
                            [1] => Array
                                (
                                    [0] => Array
                                        (
                                            [progress] => 609f22f17fe2111f-00000000000006ea
                                            [_persist] => Array
                                                (
                                                    [vboxHandle] => 609f22f17fe2111f-00000000000006e8
                                                )

                                            [fn] => progressGet
                                        )

                                    [1] => Array
                                        (
                                            [0] => Array
                                                (
                                                    [data] => Array
                                                        (
                                                            [responseData] => Array
                                                                (
                                                                    [progress] => 609f22f17fe2111f-00000000000006ea
                                                                    [info] => Array
                                                                        (
                                                                            [completed] => 1
                                                                            [canceled] => 
                                                                            [description] => Starting VM
                                                                            [operationDescription] => Creating process for virtual machine "Windows" (headless)
                                                                            [timeRemaining] => Array
                                                                                (
                                                                                )

                                                                            [timeElapsed] => Array
                                                                                (
                                                                                    [days] => 15872
                                                                                    [hours] => 10
                                                                                    [minutes] => 29
                                                                                    [seconds] => 57
                                                                                )

                                                                            [percent] => 0
                                                                        )

                                                                )

                                                            [success] => 1
                                                            [key] => b4863d2664764dc00ff22c83b2d23842
                                                        )

                                                    [errors] => Array
                                                        (
                                                        )

                                                    [persist] => Array
                                                        (
                                                        )

                                                    [messages] => Array
                                                        (
                                                        )

                                                )

                                        )

                                )

                        )

                )

            [2] => Array
                (
                    [file] => /usr/local/www/phpvirtualbox/lib/ajax.php
                    [line] => 306
                    [function] => progressGet
                    [class] => vboxconnector
                    [type] => ->
                    [args] => Array
                        (
                            [0] => Array
                                (
                                    [progress] => 609f22f17fe2111f-00000000000006ea
                                    [_persist] => Array
                                        (
                                            [vboxHandle] => 609f22f17fe2111f-00000000000006e8
                                        )

                                    [fn] => progressGet
                                )

                            [1] => Array
                                (
                                    [0] => Array
                                        (
                                            [data] => Array
                                                (
                                                    [responseData] => Array
                                                        (
                                                            [progress] => 609f22f17fe2111f-00000000000006ea
                                                            [info] => Array
                                                                (
                                                                    [completed] => 1
                                                                    [canceled] => 
                                                                    [description] => Starting VM
                                                                    [operationDescription] => Creating process for virtual machine "Windows" (headless)
                                                                    [timeRemaining] => Array
                                                                        (
                                                                        )

                                                                    [timeElapsed] => Array
                                                                        (
                                                                            [days] => 15872
                                                                            [hours] => 10
                                                                            [minutes] => 29
                                                                            [seconds] => 57
                                                                        )

                                                                    [percent] => 0
                                                                )

                                                        )

                                                    [success] => 1
                                                    [key] => b4863d2664764dc00ff22c83b2d23842
                                                )

                                            [errors] => Array
                                                (
                                                )

                                            [persist] => Array
                                                (
                                                )

                                            [messages] => Array
                                                (
                                                )

                                        )

                                )

                        )

                )

        )

    [previous:Exception:private] => 
)

Acties:
  • 0 Henk 'm!
Heeft er iemand een idee waarom een scrub ineens VEEL meer tijd in beslag neemt?

Ik heb één of 2 maanden geleden een scrub gedraaid, en op de piek haalde hij snelheden à 540MB/s, maar sinds ik mijn laatste scrub heb gedraaid doet hij maximaal iets van een 100 tot 120MB/s...

Acties:
  • 0 Henk 'm!

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Verwijderd schreef op zondag 16 juni 2013 @ 12:31:
Gekozen voor een 2500k omdat deze toevallig nog over was na een upgrade.
Wat is precies het voordeel van VT-D wat de 2500k niet heeft?
foutcode is
Ah dacht even dat je VMware draaide, zo te zien VirtualBox.

Voordeel van VT-D is dat je devices direct kan doorgeven aan je VM's. HDD's kan je direct doorgeven naar je VM in VMware ipv RDM (Raw Device Mapping)

Niks mis met je 2500K in je setup, met je foutcode kan ik je helaas niet helpen. Kan op google wel genoeg vinden.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:41

Compizfox

Bait for wenchmarks

webfreakz.nl schreef op zondag 16 juni 2013 @ 11:09:
Heeft je installatie wel een driver voor de nieuwe processor?

* webfreakz.nl is onbekend met ESX installs.
Driver voor een CPU? :P
Verwijderd schreef op zondag 16 juni 2013 @ 12:31:
Gekozen voor een 2500k omdat deze toevallig nog over was na een upgrade.
Wat is precies het voordeel van VT-D wat de 2500k niet heeft?
PCI-e passthrough.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!
Verwijderd schreef op zondag 16 juni 2013 @ 12:31:
Gekozen voor een 2500k omdat deze toevallig nog over was na een upgrade.
Wat is precies het voordeel van VT-D wat de 2500k niet heeft?
foutcode is
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
Exception Object
(
    [message:protected] => The virtual machine 'Windows' has terminated unexpectedly during startup with exit code 1
    [string:Exception:private] => 
    [code:protected] => 0
    [file:protected] => /usr/local/www/phpvirtualbox/lib/vboxconnector.php
    [line:protected] => 2290
    [trace:Exception:private] => Array
        (
            [0] => Array
                (
                    [file] => /usr/local/www/phpvirtualbox/lib/vboxconnector.php
                    [line] => 918
                    [function] => remote_progressGet
                    [class] => vboxconnector
                    [type] => ->
                    [args] => Array
                        (
                            [0] => Array
                                (
                                    [progress] => 609f22f17fe2111f-00000000000006ea
                                    [_persist] => Array
                                        (
                                            [vboxHandle] => 609f22f17fe2111f-00000000000006e8
                                        )

                                    [fn] => progressGet
                                )

                        )

                )

            [1] => Array
                (
                    [file] => /usr/local/www/phpvirtualbox/lib/ajax.php
                    [line] => 306
                    [function] => __call
                    [class] => vboxconnector
                    [type] => ->
                    [args] => Array
                        (
                            [0] => progressGet
                            [1] => Array
                                (
                                    [0] => Array
                                        (
                                            [progress] => 609f22f17fe2111f-00000000000006ea
                                            [_persist] => Array
                                                (
                                                    [vboxHandle] => 609f22f17fe2111f-00000000000006e8
                                                )

                                            [fn] => progressGet
                                        )

                                    [1] => Array
                                        (
                                            [0] => Array
                                                (
                                                    [data] => Array
                                                        (
                                                            [responseData] => Array
                                                                (
                                                                    [progress] => 609f22f17fe2111f-00000000000006ea
                                                                    [info] => Array
                                                                        (
                                                                            [completed] => 1
                                                                            [canceled] => 
                                                                            [description] => Starting VM
                                                                            [operationDescription] => Creating process for virtual machine "Windows" (headless)
                                                                            [timeRemaining] => Array
                                                                                (
                                                                                )

                                                                            [timeElapsed] => Array
                                                                                (
                                                                                    [days] => 15872
                                                                                    [hours] => 10
                                                                                    [minutes] => 29
                                                                                    [seconds] => 57
                                                                                )

                                                                            [percent] => 0
                                                                        )

                                                                )

                                                            [success] => 1
                                                            [key] => b4863d2664764dc00ff22c83b2d23842
                                                        )

                                                    [errors] => Array
                                                        (
                                                        )

                                                    [persist] => Array
                                                        (
                                                        )

                                                    [messages] => Array
                                                        (
                                                        )

                                                )

                                        )

                                )

                        )

                )

            [2] => Array
                (
                    [file] => /usr/local/www/phpvirtualbox/lib/ajax.php
                    [line] => 306
                    [function] => progressGet
                    [class] => vboxconnector
                    [type] => ->
                    [args] => Array
                        (
                            [0] => Array
                                (
                                    [progress] => 609f22f17fe2111f-00000000000006ea
                                    [_persist] => Array
                                        (
                                            [vboxHandle] => 609f22f17fe2111f-00000000000006e8
                                        )

                                    [fn] => progressGet
                                )

                            [1] => Array
                                (
                                    [0] => Array
                                        (
                                            [data] => Array
                                                (
                                                    [responseData] => Array
                                                        (
                                                            [progress] => 609f22f17fe2111f-00000000000006ea
                                                            [info] => Array
                                                                (
                                                                    [completed] => 1
                                                                    [canceled] => 
                                                                    [description] => Starting VM
                                                                    [operationDescription] => Creating process for virtual machine "Windows" (headless)
                                                                    [timeRemaining] => Array
                                                                        (
                                                                        )

                                                                    [timeElapsed] => Array
                                                                        (
                                                                            [days] => 15872
                                                                            [hours] => 10
                                                                            [minutes] => 29
                                                                            [seconds] => 57
                                                                        )

                                                                    [percent] => 0
                                                                )

                                                        )

                                                    [success] => 1
                                                    [key] => b4863d2664764dc00ff22c83b2d23842
                                                )

                                            [errors] => Array
                                                (
                                                )

                                            [persist] => Array
                                                (
                                                )

                                            [messages] => Array
                                                (
                                                )

                                        )

                                )

                        )

                )

        )

    [previous:Exception:private] => 
)
Controleer de tijd eens van je server en VM. Verder staat er niet echt een foutmelding in deze error, alleen dat je VM unexpectedly gestopt is. Kijk even in de logs van VirtualBox zelf, daar staat misschien iets meer.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

De tijd van de server en VM staan gelijk aan elkaar.
Bij het opstarten krijg ik onderin wel een groene balk te zien bij de naam van de VM met alle gegevens.
Verder is het enige andere de pop-up met "The virtaul machine 'Windows' has terminated unexpectedly during startup with exit code 1'.
Als ik vervolgens bij de logs kijk zijn deze leeg. Ook als ik op refresh druk.

Acties:
  • 0 Henk 'm!
Werk je via X of via phpVirtualBox? phpVirtualBox, ik moet leren lezen ;)

Kan je niet meer logs vinden op het filesystem?

[ Voor 58% gewijzigd door FireDrunk op 17-06-2013 09:43 ]

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Bij de logs van het filesysteem kan ik ook niks vinden.
Heb nu al een aantal keer gewisseld van virtualbox (X) naar de normale met en zonder vnc functie.
Ik zat er aan te denken om maar een nieuwe install te doen van 9.1-005. Heb er nog de install van 9.1-004 op staan. Kan ik dan gewoon terug naar de oude install van 9.1-004 en vervolgens de nieuwe install verwijderen?

Acties:
  • 0 Henk 'm!

  • Remcor2000
  • Registratie: Augustus 2002
  • Laatst online: 14-10 02:49
Ik heb gisteren en vandaag mijn schijven in mijn ZFSGuru nas vervangen.

Ben van 3x 500gb naar 3x 2tb gegaan. Maar na het resilveren van de derde / laatste schijf is er geen nieuwe ruimte bijgekomen.

Reboot geprobeerd maar geeft niets extra's weer. Mis ik misschien nog iets?

Acties:
  • 0 Henk 'm!
Verwijderd schreef op maandag 17 juni 2013 @ 11:04:
Bij de logs van het filesysteem kan ik ook niks vinden.
Heb nu al een aantal keer gewisseld van virtualbox (X) naar de normale met en zonder vnc functie.
Ik zat er aan te denken om maar een nieuwe install te doen van 9.1-005. Heb er nog de install van 9.1-004 op staan. Kan ik dan gewoon terug naar de oude install van 9.1-004 en vervolgens de nieuwe install verwijderen?
Je kan de installatie van 9.1-005 ernaast zetten ja. Als je terug wil, moet je bij de instellingen even je bootable filesystem terugzetten naar 9.1-004 en rebooten, daarna kan je hem verwijderen, mocht dat je probleem niet oplossen.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
# dit geeft de huidige te winnen ruimte weer:
zpool get expandsize <pool>

# stel in dat ZFS de devices tot maximumgrootte gebruiken:
zpool set autoexpand=yes

# zorg dat ZFS je schijven volop benut voor beide schijven:
zpool online -e <pool> <device>

# controleer of je pool weer groot is en de expandsize weer klein of 0:
zpool get expandsize <pool>

Acties:
  • 0 Henk 'm!

  • Remcor2000
  • Registratie: Augustus 2002
  • Laatst online: 14-10 02:49
Verwijderd schreef op maandag 17 juni 2013 @ 13:46:
# dit geeft de huidige te winnen ruimte weer:
zpool get expandsize <pool>

# stel in dat ZFS de devices tot maximumgrootte gebruiken:
zfs set autoexpand=yes

# zorg dat ZFS je schijven volop benut voor beide schijven:
zpool online -e <pool> <device>

# controleer of je pool weer groot is en de expandsize weer klein of 0:
zpool get expandsize <pool>
Volgens mij heb ik data te winnen, maar krijg de autoexpand functie niet aan de praat.
Heb daarna een export en import geprobeerd, maar bij export krijg ik een busy melding.
[root@zfsguru /home/ssh]# zpool get expandsize ZFS1
NAME PROPERTY VALUE SOURCE
ZFS1 expandsize 4.09T -
[root@zfsguru /home/ssh]# zfs set autoexpand=yes ZFS1
cannot set property for 'ZFS1': invalid property 'autoexpand'
[root@zfsguru /home/ssh]# zpool export ZFS1
cannot unmount '/var/log': Device busy

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
pardon:
zpool set autoexpand=yes <pool>

export is niet nodig

Acties:
  • 0 Henk 'm!

  • Remcor2000
  • Registratie: Augustus 2002
  • Laatst online: 14-10 02:49
Verwijderd schreef op maandag 17 juni 2013 @ 14:14:
pardon:
zpool set autoexpand=yes <pool>

export is niet nodig
Top! t werkt nu. De volledige grootte is beschikbaar. Thanks!! _/-\o_

Acties:
  • 0 Henk 'm!

Verwijderd

Ik heb em nu terug gezet naar 9.1-004. Hoe verwijder ik nu alle gegevens van 9.1-005?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Filesystem verwijderen op de Files pagina. Moet je klikken op het linkje in de grijze balk dat je systeem filesystems wilt weergeven. Dan zoeken naar de 9.1-005 en die selecteren. Dan rechtsonder Destroyen. Dan krijg je nog een bevestigingsscherm.

Acties:
  • 0 Henk 'm!

  • OlivierF
  • Registratie: Augustus 2004
  • Laatst online: 13-10 10:12
Ik heb iets vreemds op mijn ZFS pool; ik heb een dataset (freenas terminologie) aangemaakt, maar die had de zelfde naam als een bestaande map. Die map werd (zonder waarschuwing) overschreven. Uiteraard heb ik back-ups, dus dat is geen issue.
Wat wel een issue is, dat die schijfruimte die die map gebruikte, niet wordt vrijgegeven. De data is onvindbaar/weg, maar volgens ZFS is de schijfruimte niet vrijgekomen.
Wat ik al geprobeerd heb:
- Dataset verwijderd (map nog steeds weg)
- Scrub (0 fouten)
- Pool detached en weer ge-importeerd (geen verschil)

Zoals ik al zei, de data die in die map stond hoeft niet terug, maar ik wil wel de schijfruimte terug zonder dat ik de hele pool destroy en opnieuw aanmaak..

Acties:
  • 0 Henk 'm!

  • OlivierF
  • Registratie: Augustus 2004
  • Laatst online: 13-10 10:12
Die heb ik niet. Niet van voor de wijziging en ook niet eentje die de schijfruimte inneemt nu..

Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
Klinkt meer als een zfs die gemount wordt op de bestaande directory, dus umount <naampje> ?

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • OlivierF
  • Registratie: Augustus 2004
  • Laatst online: 13-10 10:12
u_nix_we_all schreef op maandag 17 juni 2013 @ 19:51:
Klinkt meer als een zfs die gemount wordt op de bestaande directory, dus umount <naampje> ?
You saved my day.

Acties:
  • 0 Henk 'm!
gehghe, good spot u_nix_we_all!

Even niets...


Acties:
  • 0 Henk 'm!

  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 23-06 16:04
Wat vinden jullie van deze stelling en wat zijn jullie ervaringen?

It is not recommended to spin down drives that are pools or part of pools in ZFS.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Slechte argumenten zonder onderbouwing. Het zou je systeem laten crashen; nou daar kom je snel genoeg achter. Zelf geen last van in elk geval. Minimal power savings hangt er helemaal vanaf. Als je je schijven van 7W naar 0.7W terugbrengt en dat toch zo'n 80% per dag, vind ik dat toch best heftige power savings.

Dat gezegd, ben ik zelf ook niet zo heel erg fan van spindown. Het probleem is dat je een wachttijd hebt, dat die wachttijd lang kan zijn omdat ZFS per stuk de schijven opspint; al kun je daar een scriptje voor gebruiken. En dan heb je nog mogelijk last van instabielevoltagelijnen als gevolg van opspinnen. Zo vind mijn overige schijf die altijd spinup blijft het niet leuk zodra ik zoveel schijven opspin. Die zou dan eigenlijk aan een andere voedings rail moeten hangen maar dat kan in mijn geval niet.

Het is dus gewoon een beetje uitproberen of spindown in een individuele situatie goed werkt of niet. Maar om als algemeen advies het af te raden? Dan moet je met betere argumenten komen. Waarschijnlijk heeft de auteur van dat stukje er zelf problemen mee gehad. En hij praat ook over USB adapters en spindown problemen; USB->SATA adapters hebben hun eigen problemen, wat toch enigszins los staat van dit vraagstuk. Kortom, beetje geklets als je het mij vraagt. :P

Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
MIjn ervaring is dat ik geen problemen heb met spindown zoals daar beschreven. De drives spinnen altijd weer netjes op, als ik de pool aanspreek. Ik heb de schijven niet via USB aangesloten, dus daar kan ik geen commentaar op geven, maar eerlijk gezegd vind ik dat je voor een NAS geen USB-disks moet gebruiken.

Ik merk soms wel dat de vertraging in sommige applicaties een probleempje kan zijn. Als ik bijvoorbeeld een file download met mijn browser, direct naar de NFS-share op de NAS, wil dat soms niet omdat de pool niet snel genoeg beschikbaar is.

Ik denk dat mijn NAS ruim 90% van de tijd de disks stil heeft staan, dingen als torrents enzo download ik eerst naar de os-disk, een 2,5" diskje, zodat daarvoor mijn pool met 4x3TB niet gebruikt wordt.

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • amx
  • Registratie: December 2007
  • Laatst online: 13-10 22:39

amx

Hoe encrypt ik een bestaande dataset? Een nieuwe aanmaken en encrypten met commando
zfs create -o encryption=on <naam>
lukt, maar bestaande datasets herkent ZFS als zijnde al toegevoegd. (dataset already exists).
Ik draai ZFS op Solaris in virtualbox
(uname -a sunos 5.11 11.1) ik denk dus solaris 11.1 ;)

[edit]
met zfs set help wat verder,
encryption is readonly >> no can do encryptie op bestaande files?

[ Voor 14% gewijzigd door amx op 18-06-2013 19:25 ]


Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
amx schreef op dinsdag 18 juni 2013 @ 19:21:
no can do encryptie op bestaande files?
Ik neem aan dat encryptie zo'n beetje dezelfde beperkingen heeft als dedup en compressie, en dan klopt dat ja.

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • amx
  • Registratie: December 2007
  • Laatst online: 13-10 22:39

amx

ergo sum met voldoende ruimte gewoon cp -r naar een nieuwe dataset. Ik werk vanaf een virtual machine, maar een migratie lijkt me lastig werken

Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
Ja, of zelfs cp -r binnen dezelfde dataset, nadat je encrytie aangezet hebt met zfs set.

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!
Waarom niet gewoon een 2e filesystem en mv doen?

of zelfs zfs Send/Receive

[ Voor 23% gewijzigd door FireDrunk op 18-06-2013 20:16 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • webfreakz.nl
  • Registratie: November 2003
  • Laatst online: 21-08 15:56

webfreakz.nl

el-nul-zet-é-er

Dan zijn je disks wel even zoet :P

"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!


Acties:
  • 0 Henk 'm!
Maar dat zouden ze sowieso al zijn...
Maar dat zijn ze sowieso al ;)

[ Voor 34% gewijzigd door FireDrunk op 18-06-2013 20:21 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
Maakt allemaal niet veel uit volgens mij. Punt van mijn post was aan te geven dat na het zetten van een property op je dataset, de nieuwe files wel die property krijgen (tenminste voor compressie werkt het zo)

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • Kompaan
  • Registratie: Juni 2009
  • Laatst online: 02-12-2022
Hangt helemaal vanaf waar ZFS gebruikt wordt natuurlijk... Thuis is dit prima, als de NAS/SAN rebooten betekend dat ik vervolgens problemen heb met 40 VMs en dat er 300 mensen uit hun neus zitten te eten...

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
In een dergelijke omgeving met 40VMs is het ook bijzonder waarschijnlijk dat de schijven de gelegenheid krijgen om down te spinnen, laat staan dat een administrator het idee krijgt om spindown in te schakelen.

Acties:
  • 0 Henk 'm!
Wat belangrijk is bij spindown is te bedenken hoeveel IO's er ge-queued worden.

Als je 1 pool hebt van 10 schijven in 1 vdev, kan die VDEV maar 1 IO aannemen voordat de disks gaan opspinnen. Als je een pool hebt met 4 vdev's van 4 schijven, zullen er als er genoeg IO requests naar toe gestuurd worden zeer waarschijnlijk 4 schijven tegelijk opgestuurd worden.

Zeker weten doe ik het niet, ik heb het nooit geprobeerd, maar verwacht deze logica.

Als ik genoeg schijven had, had ik het getest, maar helaas ben ik niet meer zo dik bezaait met schijven...

Even niets...


Acties:
  • 0 Henk 'm!

  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 23-06 16:04
FireDrunk schreef op donderdag 20 juni 2013 @ 08:14:
Wat belangrijk is bij spindown is te bedenken hoeveel IO's er ge-queued worden.

Als je 1 pool hebt van 10 schijven in 1 vdev, kan die VDEV maar 1 IO aannemen voordat de disks gaan opspinnen. Als je een pool hebt met 4 vdev's van 4 schijven, zullen er als er genoeg IO requests naar toe gestuurd worden zeer waarschijnlijk 4 schijven tegelijk opgestuurd worden.

Zeker weten doe ik het niet, ik heb het nooit geprobeerd, maar verwacht deze logica.

Als ik genoeg schijven had, had ik het getest, maar helaas ben ik niet meer zo dik bezaait met schijven...
Ik kan je verhaal bevestigen. Heb zelf 10 hdd's, deze spinnen 1 voor 1 op als ze in spindown staan en de ZFS share benaderd wordt.

Acties:
  • 0 Henk 'm!
Dat begrijp ik, enige wat we dan nog moeten bevestigen is dat als je meerdere vdev's hebt, de spinup concurrent word.

Even niets...


Acties:
  • 0 Henk 'm!

  • Neptunus
  • Registratie: Januari 2001
  • Laatst online: 23-06 16:04
FireDrunk schreef op donderdag 20 juni 2013 @ 12:12:
Dat begrijp ik, enige wat we dan nog moeten bevestigen is dat als je meerdere vdev's hebt, de spinup concurrent word.
Net even testje gedaan. Ik heb het idee dat het allemaal sneller verloopt. Als ik op mijn powermeter kijk, dan lijkt het er op dat met twee vdev's er interdaad twee hdd's aangaan. Steeds achter elkaar twee tot ze alle 10 bij zijn.Ik heb nog geen live omgeving dus kon snel even mijn config aanpassen.

PS ik worstel alleen nog een beetje met
FireDrunk in "Het grote ZFS topic"
vraag me af of het allemaal niet onnodig complex wordt op deze manier. Wil bij problemen met mijn disken niet last hebben van een onnodig complexe configuratie waardoor een recover actie bijna onmogelijk wordt.

Wat vinden jullie hiervan?

Acties:
  • 0 Henk 'm!
Wat vind je er complex aan? Mocht je tegen iets aanlopen, verwijder je ZIL, exporteer je pool, en je kan je disks gewoon ergens anders importeren.

Mocht het echt stoek gaan, pak je je disks op en doe je een geforceerde import. Dan mekkert hij dat je devices mist (je log devices) maar je kan nog wel bij je data.

Even niets...


Acties:
  • 0 Henk 'm!

  • Trishul
  • Registratie: December 2008
  • Laatst online: 23:58
Waarschijnlijk een beetje offtopic, maar ik ben er zeer benieuwd naar:

http://www.vgleaks.com/so...station-4-os-development/

Het schijnt dus dat het PS4 OS FreeBSD 9.0 gebaseerd is. Betekend dit dan dat Sony bv. UFS of ZFS kan gebruiken? Ik weet dat het gaat om slechts 1 HDD, maar was benieuwd of het licentie-technisch mogelijk is, omdat er geloof ik ook een NAS fabrikant is dat ZFS als optie aanbiedt op haar systemen.

Acties:
  • 0 Henk 'm!
Ze kunnen natuurlijk ook lui zijn en FAT32 gebruiken...

Even niets...

Pagina: 1 ... 75 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.