Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
Nou ja ik weet het niet meer na opnieuw maken van mijn startpool en opnieuw het ssyteem te instaleren krijg ik nu na een reboot /startpool/kernel/kernel met een cursor blinking.
Als eerste kreeg ik can't find zfsloader?
Iemand een oplossing?
Ik heb nog nooit zon moeite gehad met een fresh install

Edit:Met de live cd kan ik gewoon de pool importeren maar ik kan er dus niet vanaf booten? |:( |:(

[ Voor 16% gewijzigd door ikkeenjij36 op 26-04-2014 20:40 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Een secure erase hoef je niet te doen. ZFSguru heeft bij het formatteren de mogelijkheid om TRIM erase aan te vinken. Dat komt neer grofweg op hetzelfde als een secure erase. Dat is overigens ook allemaal niet nodig. Het is geen windows waar je de schijf moet formatteren omdat er dingen achter blijven. Je kunt gewoon de pool opnieuw aanmaken.

Wat betreft je bootprobleem; check je boot partitie. Heb je de schijf wel weer geformatteerd nadat je deze hebt secure erased? Dat is denk ik het probleem.

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
Verwijderd schreef op zaterdag 26 april 2014 @ 20:40:
Een secure erase hoef je niet te doen. ZFSguru heeft bij het formatteren de mogelijkheid om TRIM erase aan te vinken. Dat komt neer grofweg op hetzelfde als een secure erase. Dat is overigens ook allemaal niet nodig. Het is geen windows waar je de schijf moet formatteren omdat er dingen achter blijven. Je kunt gewoon de pool opnieuw aanmaken.

Wat betreft je bootprobleem; check je boot partitie. Heb je de schijf wel weer geformatteerd nadat je deze hebt secure erased? Dat is denk ik het probleem.
Eens ssd formateren?
Dat is toch uit den boze?
En ja gewoon gefromateerd via de livecd in zfsguru zoals ik het altijd gedaan heb.

[ Voor 5% gewijzigd door ikkeenjij36 op 26-04-2014 20:42 ]


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
Ik denk dat het terug wordt naar versie 10.0.01 voor mij,geen idee waarom het niet gewoon wil lukken/draaien?
IK WORDT ER GEK VAN!!!!
Ik zal eens een apart zfsguru topic openen anders wordt het ipv een zfs topic een zfsguru topic.

Acties:
  • 0 Henk 'm!
Verwijderd schreef op zaterdag 26 april 2014 @ 20:40:
*knip*
Heb je de schijf wel weer geformatteerd nadat je deze hebt secure erased? Dat is denk ik het probleem.
Formatteren bedoel je neem ik aan juist mee: Een partitie aanmaken? Want anders is het natuurlijk een beetje gek 8-)

Even niets...


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
Ik ga het nog 1x proberen
Volgorde;livecd booten
Daarna laatse versie dl
Ssd trim erasen
Pool aanmaken op ssd
Laatste versie instaleren.
Is dit de juiste volgorde?

Heel raar maar na een laatste keer geprobeerd te hebben is het gelukt en werk ik nu aan ee fresh install ook vd services zoals sabznbd,dit mede omdat ik het niet voor elkaar kreeg om mijn sabznb.ini bestand vd server af te halen en te kopieren naar een mapje even op mijn lapto,had iets met rechten te doen maar kreeg het niet opgelost.
Toch bedankt weer hier voor het meedenken.

[ Voor 53% gewijzigd door ikkeenjij36 op 26-04-2014 21:47 ]


Acties:
  • 0 Henk 'm!
tussen SSD TRIM en pool aanmaken zou ik even partitioneren/formatteren. (en even het vinkje aan laten bij create boot partition)

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Het punt is dat je na een secure erase ook moet 'formatteren' (technisch: partitioneren). Echter, omdat er ook bootcode wordt geschreven is formatteren eerder toepasselijk. Dat is ook de benaming die ZFSguru gebruikt voor het gereed maken van disks voor ZFS storage. Zo sluit het ook het beste aan bij de belevingswereld van beginners: een opslagapparaat formatteer je voordat je het gebruikt. De technische nuances hier zijn leuk voor de kenners maar irrelevant voor de beginners. Zij willen duidelijkheid.

Nu ikenjij36 het buiten ZFSguru om heeft gedaan, moet hij ook opnieuw formatteren en daarbij wordt bij standaard opties ook een boot partitie gemaakt. Daar zit hem natuurlijk het punt. Dit is nodig om bootable te zijn. Dus als ikenjij36 hier iets anders heeft gedaan dan de defaults dan kan het zijn dat hij geen bootable ZFS pool had, omdat de bootcode ontbrak.

Het beste is om de ZFSguru tools te gebruiken die er zijn. TRIM erase zit heel handig met een checkbox geïntegreerd op de Disks pagina van ZFSguru. En dat kun je dan ook het beste gebruiken.. voortaan. ;)

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
ikkeenjij36 schreef op zaterdag 26 april 2014 @ 21:03:
Ik ga het nog 1x proberen
Volgorde;livecd booten
Daarna laatse versie dl
Ssd trim erasen
Pool aanmaken op ssd
Laatste versie instaleren.
Is dit de juiste volgorde?

Heel raar maar na een laatste keer geprobeerd te hebben is het gelukt en werk ik nu aan ee fresh install ook vd services zoals sabznbd,dit mede omdat ik het niet voor elkaar kreeg om mijn sabznb.ini bestand vd server af te halen en te kopieren naar een mapje even op mijn lapto,had iets met rechten te doen maar kreeg het niet opgelost.
Toch bedankt weer hier voor het meedenken.
Dus na wat problemen nu alles weer draaiende,ook de probs die ik had in versie 11 met sabnzbd zijn nu opgelost.
Enige waar ik nog tegen aan loop is dat zabbix niet wil werken,krijgt geen toegang tot mysql server en spotweb en dat heeft ook met mysql te maken maar daar moet ik nog even verder in duiken.

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
MMM weet niet of ik het hier mag posten maar zowel zabbix als spotweb kunnen niet aan de db komen omdat er een password gebruikt wordt(duh |:( ),dat heb ik ook ingevoerd maar helaas niet werken.
Als er hier iemand is die dit bij mij misschien via teamviewer even goed wil zetten/maken dan heel graag.
Dit zijn dingen waar ik elke keer tegen aan loop en niet voor elkaar kan krijgen zelf.
Via pm kan natuurlijk ook. _/-\o_ _/-\o_

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Ik neem aan dat je zabbix en spotnet op een andere machine hebt staan... (:?)
Als je dan even kijk in je /var/db/mysql/my.cnf zie je daar een regeltje:
code:
1
2
# do not listen for TCP/IP connections at all but only allow UNIX sockets
skip-networking


Wat je kan doen is MySQL stoppen, skip-networking ff # ervoor en deze in de /var/db/mysql/my.cnf erbij zetten:
code:
1
2
[mysqld]
bind-address = 0.0.0.0

Als je meerdere NIC's met ip-adressen er in hebt zitten, maar je er geen MySQL op wil hebben kan je de 0.0.0.0 vervangen door het ip-adres van je NIC waar je het wel op wil hebben.
Start je MySQL weer op en dan zal ie het weer doen.

[ Voor 15% gewijzigd door ]Byte[ op 27-04-2014 10:00 ]


Acties:
  • 0 Henk 'm!
Kan je dan niet beter bind-address = 127.0.0.1 doen? Als MySQL alleen maar lokaal nodig is heb je hem niet onnodig op je 'externe' ipadressen aan het luisteren.

Is weer een stukje veiliger.

Even niets...


Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Klopt helemaal!
Maar zoals ik al zei, ik ga er even van uit dat hij zabbix en spotnet op een andere machine heeft draaien. (ik kon spotnet zo snel even niet bij de services vinden...)

Acties:
  • 0 Henk 'm!

  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
Zat met een klein probleempje.
Mijn servertje wil niet meer booten, waarschijnlijk omdat er gisteren kort na elkaar de stop eruit ging.

Update nadat ik dus een keer via de usbstick de server kon opstarten na een reboot starte de server weer normaal ??????????? ik begrijp hier helemaal niets van.

Het is een wat aangepaste 9.1-005 installatie deze draait al lang zonder problemen uptime tot gisteren was meerdere maanden.
Het is een vanaf het begin op v28 gebaseerde installatie.

De melding bij het opstarten is dat hij geen blokken kan vinden.(precieze melding komt later ben op de scrub aan het wachten)
ZFS: i/o error - all block copies unavailable
Freebsd/x86 bot
Default: zfs-hdd:/boot/kernel/kernel
boot:
In eerste instantie zocht hij naar /boot/kernel/kernel
Maar nadat ik geprobeerd(en gelukt, hij laad netjes de BTX loader en start verder op vanaf de usbstick)
om vanaf de usbstick op te starten na deze foutmelding
aka op de boot prompt zfs-usbstick:/boot/zfsloader invoeren.
Geeft hij nu de foutmelding met /boot/zfsloader.
In de boot directory staat zfsloader(scrub is nu bezig)

Wat ik heb gedaan:
recente(zfsguru 9.2 usb stick gemaakt) daarvandaan geboot pool gemount geen probleem, as we speak een scrub aan het uitvoeren.

bootcode geupdate van de hardeschijf maar deze was al up to date en geeft nu ook geen verandering aan.

Zoals gezegd van de hardeschijf gestart en na de foutmelding zfs-usbstick:/boot/zfsloader ingevoerd en start netjes BTX loader en kom ik in de usbstick uit.

de usb bootstick boot onderbroken en dan in het menu optie 3 escape to lader prompt alwaar ik set currdev=disk1p1 heb ingevoerd (maar misschien moet ik hier wel wat anders invoeren, ben niet zo slim geweest eerst de variabele uit te lezen)
Dat was idd niet slim .... was namenlijk zfs:zfs-usbstick:/zfsguru/Uba5bfe:

Het lijkt erop dat het systeem op deze manier weer draait .... nu nog repareren ;)

Buiten zfsloader vervangen weet ik nu eigenlijk even niet meer wat ik kan doen (ja een vers 10 systeem installeren ;) )

iemand enig idee?

scrub repaired 0 in 0h28m with 0 errors on Sun Apr 27 08:15:54 2014
Dus dat is gelukkig niet een probleem

[ Voor 13% gewijzigd door Mafketel op 27-04-2014 10:42 . Reden: Anyway ga rebooten en daarna is deze post aangepast ;) ]


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
]Byte\[ schreef op zondag 27 april 2014 @ 10:11:
Klopt helemaal!
Maar zoals ik al zei, ik ga er even van uit dat hij zabbix en spotnet op een andere machine heeft draaien. (ik kon spotnet zo snel even niet bij de services vinden...)
Nee zabbix en spotweb en mysql draaien op dezelfde machine.
Zitten gewoon in de services.
Dus hoe nu verder?
Databases zijn gemaakt en staan in mysql.

Acties:
  • 0 Henk 'm!
Mafketel schreef op zondag 27 april 2014 @ 10:22:
Zat met een klein probleempje.
Mijn servertje wil niet meer booten, waarschijnlijk omdat er gisteren kort na elkaar de stop eruit ging.

Update nadat ik dus een keer via de usbstick de server kon opstarten na een reboot starte de server weer normaal ??????????? ik begrijp hier helemaal niets van.

Het is een wat aangepaste 9.1-005 installatie deze draait al lang zonder problemen uptime tot gisteren was meerdere maanden.
Het is een vanaf het begin op v28 gebaseerde installatie.

De melding bij het opstarten is dat hij geen blokken kan vinden.(precieze melding komt later ben op de scrub aan het wachten)

[...]


In eerste instantie zocht hij naar /boot/kernel/kernel
Maar nadat ik geprobeerd(en gelukt, hij laad netjes de BTX loader en start verder op vanaf de usbstick)
om vanaf de usbstick op te starten na deze foutmelding
aka op de boot prompt zfs-usbstick:/boot/zfsloader invoeren.
Geeft hij nu de foutmelding met /boot/zfsloader.
In de boot directory staat zfsloader(scrub is nu bezig)

Wat ik heb gedaan:
recente(zfsguru 9.2 usb stick gemaakt) daarvandaan geboot pool gemount geen probleem, as we speak een scrub aan het uitvoeren.

bootcode geupdate van de hardeschijf maar deze was al up to date en geeft nu ook geen verandering aan.

Zoals gezegd van de hardeschijf gestart en na de foutmelding zfs-usbstick:/boot/zfsloader ingevoerd en start netjes BTX loader en kom ik in de usbstick uit.

de usb bootstick boot onderbroken en dan in het menu optie 3 escape to lader prompt alwaar ik set currdev=disk1p1 heb ingevoerd (maar misschien moet ik hier wel wat anders invoeren, ben niet zo slim geweest eerst de variabele uit te lezen)
Dat was idd niet slim .... was namenlijk zfs:zfs-usbstick:/zfsguru/Uba5bfe:

Het lijkt erop dat het systeem op deze manier weer draait .... nu nog repareren ;)

Buiten zfsloader vervangen weet ik nu eigenlijk even niet meer wat ik kan doen (ja een vers 10 systeem installeren ;) )

iemand enig idee?

scrub repaired 0 in 0h28m with 0 errors on Sun Apr 27 08:15:54 2014
Dus dat is gelukkig niet een probleem
Ik ben maar slecht thuis in de bootloader van BSD, maar ik weet dat hij 2 staged is, eerste stage is een soort grub, daarna krijg je je menutje, daarna komt de 2e stage waarin een hoop kernel modules geladen worden enzo (zoals ZFS).

Volgens mij moet je bij USB goed opletten dat in beide alles goed gaat. De allereerst boot loader (de BTX loader) moet je USB device herkennen, maar de 2e stage moet ook je root partitie goed herkennen.

Wat je precies gedaan hebt weet ik niet, en hoe je het precies moet repareren ook niet :P

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Mafketel schreef op zondag 27 april 2014 @ 10:22:
Zat met een klein probleempje.
Mijn servertje wil niet meer booten, waarschijnlijk omdat er gisteren kort na elkaar de stop eruit ging.

(..)

De melding bij het opstarten is dat hij geen blokken kan vinden.
Kort gezegd betekent dit dat ZFS niet bij de data kon komen. Bijvoorbeeld omdat één disk niet was aangesloten/gedetecteerd.

Bij USB-sticks kan het vaak voorkomen dat een pool corrupt raakt, met name als je de stick eruit trekt zonder netjes te verwijderen of de computer uit te schakelen. Maar dat hoeft niet jouw probleem te zijn.

Als je bootproblemen hebt met ZFSguru, helpt het om met een LiveCD te booten en zo te kijken of alle disks er zijn en de pool intact is. En eventueel een nieuwe installatie te doen.

En update je bootcode met beta9 eens; je gebruikt nu denk ik de oude v28 bootcode. Ook al is je probleem opgelost zou ik dit aanraden.
ikkeenjij36 schreef op zaterdag 26 april 2014 @ 23:45:
zowel zabbix als spotweb kunnen niet aan de db komen omdat er een password gebruikt wordt(duh |:( ),dat heb ik ook ingevoerd maar helaas niet werken.
Ze hebben een username, password en database nodig. De database heb je denk ik gecreëerd. Dat is zo simpel als create new database: spotweb *enter*. Maar dan moet je ook nog een user account creeëren wat toegang heeft tot deze database. Zoals een 'spotweb' gebruiker met wachtwoord die alleen toegang heeft tot de 'spotweb' database.

Daarna geef je de username/password/database combinatie aan Spotweb; kun je instellen bij de setup. Hetzelfde geldt voor Zabbix; aan het einde van de tutorial wordt gevraagd om de SQL logingegevens. Overigens een waarschuwing: als je Zabbix werkend hebt moet je zelf nog veel configureren. Het is niet zo heel erg newbievriendelijk. ;)

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 13:52
Gezeur van mij tussendoor: vanaf begin af aan heb ik een haat / liefde verhouding met ZFS. Mijn indruk was altijd dat het ZFS-kamp je probeert bang te maken voor risico's die in werkelijkheid niet zo groot zijn als wordt gesuggereerd.

Met name de kans op een leesfout van 1 op 3 bij een 8 disk RAID 5 met 2 TB disks rebuild (ZDNET artikel) heeft enorm bijgedragen aan dit hele verhaal.

Hier een oud artikel (9 jaar oud) die actief URE's test.

http://arxiv.org/pdf/cs/0701166.pdf

Resultaat: veel beter dan de 10 x 10^14 die de fabrikanten voor de disks opgeven.

Puur afgaand op mijn eigen ervaring met disks kan ik die statistieken niet rijmen met wat ik heb waargenomen over de jaren. Mijn indruk is dat de URE veel meer op 10 x 10^15 ligt (mijn 20 x 1 TB spinpoints hebben die classificatie) en dat disks veel betrouwbaarder zijn dan wordt weergegeven.

Misschien moet ik maar eens een zooi disks gaan testen en kijken wat voor resultaten ik kan behalen. Dus data er op zetten, wat md5sums er overheen en lezen maar. Gewoon voor een week of langer. Afhankelijk van de disks waar mee ik test (reeds fouten geconstateerd) verwacht ik zelf eigenlijk nul URE's.

Een bezwaar wat ik heb betreffende te test van Microsoft, is dat niet de hele oppervlakte van de betreffende disks wordt benut, maar alleen een vers stukje. Bij een ouderwetse RAID rebuild moet ook data worden ingelezen die maanden niet is aangeraakt en mogelijk een rotte sector heeft.

Een x keer een RAID array stuk maken, rebuilden en de md5sum checken lijkt mij een mooie test om te zien hoe vaak je echt op een URE moet rekenen. Disk errors zie ik vanzelf wel in syslog.

[ Voor 16% gewijzigd door Q op 27-04-2014 13:34 ]


Acties:
  • 0 Henk 'm!

  • Kortfragje
  • Registratie: December 2000
  • Laatst online: 17:36

Kortfragje

......

Verdorie, heb ik weer, na dat gezeik met die failed disk vorige week geeft nu ook de zfs array op mn backup server problemen :

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
root@gertdus-backup:~# zpool status
  pool: zfspool
 state: ONLINE
status: One or more devices has experienced an unrecoverable error.  An
    attempt was made to correct the error.  Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
    using 'zpool clear' or replace the device with 'zpool replace'.
   see: http://zfsonlinux.org/msg/ZFS-8000-9P
  scan: resilvered 12K in 0h0m with 0 errors on Sun Apr 27 12:29:21 2014
config:

    NAME        STATE     READ WRITE CKSUM
    zfspool     ONLINE       0     0     0
      raidz2-0  ONLINE       0     0     0
        2tb1    ONLINE       0     0     0
        2tb2    ONLINE       0     0     0
        2tb3    ONLINE       0     0     0
        2tb4    ONLINE       0     0     0
        2tb5    ONLINE       0     0     0
        2tb6    ONLINE       0     0     4

errors: No known data errors


Uit de documentatie blijkt dat dit gewoon een hickup / bit flip of wat dan ook kan zijn (de server crashte tijdens boot en had een harde reset nodig, dus het lijkt me dat dat het is).

Maar ben er toch niet heel happy mee .... :S

Heb nu zpool clear gegeven, maar even in de gaten houden... iemand ervaring mee?

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
root@gertdus-backup:~# zpool status
  pool: zfspool
 state: ONLINE
  scan: resilvered 12K in 0h0m with 0 errors on Sun Apr 27 12:29:21 2014
config:

    NAME        STATE     READ WRITE CKSUM
    zfspool     ONLINE       0     0     0
      raidz2-0  ONLINE       0     0     0
        2tb1    ONLINE       0     0     0
        2tb2    ONLINE       0     0     0
        2tb3    ONLINE       0     0     0
        2tb4    ONLINE       0     0     0
        2tb5    ONLINE       0     0     0
        2tb6    ONLINE       0     0     0

errors: No known data errors

[ Voor 8% gewijzigd door Kortfragje op 27-04-2014 13:38 ]

http://www.gjpvanwesten.nl


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Verdorie, heb ik weer, na dat gezeik met die failed disk vorige week geeft nu ook de zfs array op mn backup server problemen :
Niets aan de hand... gewoon een paar checksum errors die zijn gecorrigeerd. Je hebt RAID-Z2 dus je data is niet in gevaar geweest.

De waarschuwing die ZFS geeft is erg overtrokken en wordt verkeerd geïnterpreteerd.

One or more devices has experienced an unrecoverable error.
Het apparaat zelf heeft niet de juiste data geleverd. Dit wordt gezien als een 'unrecoverable error' aan de zijde van de disk. Echter, voor ZFS is het natuurlijk wel recoverable. Dus misleidend om te spreken van een unrecoverable error.

An attempt was made to correct the error.
ZFS heeft geprobeerd (met succes) om de checksums te corrigeren.

Applications are unaffected.
Je data is precies zoals hij hoort te zijn en dus draaien alle applicaties ook zoals ze horen, corruptievrij.


In plaats van zo'n cryptische melding zou ik eerder zeggen:

Some data on one or more devices did not correspond with the data that ZFS expected. A total of 12 kilobytes have been corrected. If this happens more frequently, it could indicate memory or disk failure.

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
ikkeenjij36 schreef op zondag 27 april 2014 @ 11:26:
[...]

Nee zabbix en spotweb en mysql draaien op dezelfde machine.
Zitten gewoon in de services.
Dus hoe nu verder?
Databases zijn gemaakt en staan in mysql.
Hmmmm....
Reset de wachtwoorden dan nog eens via phpMyAdmin en probeer het dan nog eens.
En zet het bind-address in my.cnf eens op 127.0.0.1 zoals FireDrunk al zei, en start MySQL eens opnieuw op.
code:
1
2
[mysqld]
bind-address = 127.0.0.1

Acties:
  • 0 Henk 'm!

  • Kortfragje
  • Registratie: December 2000
  • Laatst online: 17:36

Kortfragje

......

Cipher dank voor je duidelijke toelichting. Ik zag net ook dat ik die disk (2tb6) via externe controller aangesloten had. Het is Ubuntu met ZoL en er is een bug bekend dat soms 'mountall' zfs mount voordat de externe controllers geinitialiseed zijn. (https://github.com/zfsonl.../Troubleshooting-mountall)

Uit voorzorg nu alles via de mobo chip geplugged en de bootdrive via de externe controller. Als t probleem blijft maar 'sleep 60' in de config toevoegen.

http://www.gjpvanwesten.nl


Acties:
  • 0 Henk 'm!

  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 02-10 19:22
Hmm 8 active bad sectoren op een harde schijf. Een scrub heeft niets uitgemaakt, moet ik me zorgen maken?

De vorige keer (dit is al een replacement) ging het van 100 bad sectoren naar 3000 tot 4000 ;) na een scrub (en vele passieve sectoren).

[ Voor 6% gewijzigd door EnerQi op 27-04-2014 16:44 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Actieve bad sectors in ongebruikte gebieden is niet erg. Daar hoef je niets aan te doen en gaan automatisch weg zodra ZFS de ruimte in die gebieden claimt.

Wel erg zijn passieve sectoren die flink oplopen, dat is een teken van fysieke schade. Een paar zoals 2 of 9 of 13 is niet erg zolang dit maar niet regelmatig oploopt. Een schijf die jarenlang stabiel op x passieve bad sectors (Reallocated Sector Count) blijft is gewoon een goede schijf qua mediumkwaliteit betreft - dus dat staat los van de mechanische kwaliteit.

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
Error connecting to database [Access denied for user 'zabbix'@'localhost' (using password: YES)]
antwoord na de testknop voor zabbix.
Heb de db en had/heb ook een user genaamd zabbix maar nog steeds dit antwoord,ook bij de gebruiker eric dan krijg ik dit in response:The frontend does not match Zabbix database.
Wat heb ik hier fout gedaan?
Spotweb draait eindelijk na verschillende reboots vd server.

Acties:
  • 0 Henk 'm!

  • C0rnelis
  • Registratie: Juni 2010
  • Laatst online: 26-08 22:21
ikkeenjij36 schreef op zondag 27 april 2014 @ 19:41:
Error connecting to database [Access denied for user 'zabbix'@'localhost' (using password: YES)]
antwoord na de testknop voor zabbix.
Heb de db en had/heb ook een user genaamd zabbix maar nog steeds dit antwoord,ook bij de gebruiker eric dan krijg ik dit in response:The frontend does not match Zabbix database.
Wat heb ik hier fout gedaan?
Spotweb draait eindelijk na verschillende reboots vd server.
Bij het aanmaken van een gebruiker in MySQL moet je even goed opletten dat je de gebruiker aanmaakt voor 'localhost' en niet voor '%'. Je hebt vermoedelijk toegang gegeven voor de gebruiker zabbix@% en niet zabbix@localhost zoals de melding doet vermoeden.

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
C0rnelis schreef op zondag 27 april 2014 @ 19:47:
[...]


Bij het aanmaken van een gebruiker in MySQL moet je even goed opletten dat je de gebruiker aanmaakt voor 'localhost' en niet voor '%'. Je hebt vermoedelijk toegang gegeven voor de gebruiker zabbix@% en niet zabbix@localhost zoals de melding doet vermoeden.
Ok ik ga dan even een nwe gebruiker aanmaken op localhost.
Dat moet/kan in mysql?
EDIT:nou de gebruiker zabbix bestaat dus al op de localhost en ja ik gebruik een pw wat ik zelf heb aangemaakt.
Ik blijf echter de melding houden. 8)7

[ Voor 14% gewijzigd door ikkeenjij36 op 27-04-2014 20:12 ]


Acties:
  • 0 Henk 'm!

  • C0rnelis
  • Registratie: Juni 2010
  • Laatst online: 26-08 22:21
Dat kan gewoon vanuit een MySQL console inderdaad. Zie bijvoorbeeld http://stackoverflow.com/...serlocalhost-not-the-same.

mysql> CREATE USER 'zabbix'@'localhost' IDENTIFIED BY 'zabbixpassword';
mysql> GRANT ALL ON zabbix_database.* TO 'zabbix'@'localhost' IDENTIFIED BY 'zabbixpassword';

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
Wel ik ben een stukje verder,ik krijg nu geen acces denied meer maar deze melding
code:
1
The frontend does not match Zabbix database.

Wat moet ik hier nu weer verder mee?
Bedankt alvast weer voor je antwoorden

Acties:
  • 0 Henk 'm!

  • C0rnelis
  • Registratie: Juni 2010
  • Laatst online: 26-08 22:21
Hmm, ik heb 'm hier zelf lokaal nog niet omdat ik nog de upgrade moet uitvoeren, maar het kan zijn dat je een aantal tabellen moet aanmaken ipv dat de zabbix-frontend die voor jouw aanmaakt.

Geeft dit een leeg resultaat ? (i.e. geen tabellen)

mysql> SHOW TABLES FROM zabbix_database;

Indien ja dan moet je even uitvogelen waar de tabellen staan gedefinieerd. Volgens de documentatie staan ze in (afhankelijk van welk versienummer je precies hebt)
/usr/share/doc/zabbix-server-mysql-2.2.0/create

Met onderstaande commando's kan je de tabellen toevoegen aan 'zabbix_database' via de gebruiker 'zabbix', maar je moet wel het wachtwoord invullen
cd /usr/share/doc/zabbix-server-mysql-2.2.0/create
mysql -u zabbix -p zabbix_database < schema.sql
mysql -u zabbix -p zabbix_database < images.sql
mysql -u zabbix -p zabbix_database < data.sql


Bron: https://www.zabbix.com/do...ion/install_from_packages

Acties:
  • 0 Henk 'm!

  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
@hierboven, lijkt me een versie mismatch tussen de database opzet en zabbix. er zit vast wel een update of initialiseer bestandje bij zabbix om die foutmelding te verhelpen.
FireDrunk schreef op zondag 27 april 2014 @ 12:29:
[...]
Ik ben maar slecht thuis in de bootloader van BSD, maar ik weet dat hij 2 staged is, eerste stage is een soort grub, daarna krijg je je menutje, daarna komt de 2e stage waarin een hoop kernel modules geladen worden enzo (zoals ZFS).
wat ik er van begrijp zelfs drie stages. eerst 512byte gedeelte om de btx loader aan te roepen die weer dat menuutje en wat daar bijhoort oproept. Die dan het eigenlijke systeem opstart.
Volgens mij moet je bij USB goed opletten dat in beide alles goed gaat. De allereerst boot loader (de BTX loader) moet je USB device herkennen, maar de 2e stage moet ook je root partitie goed herkennen.
usb was het probleem niet het was de harddisk die niet meer wilde(BTX loader om precies te zijn)
Wat je precies gedaan hebt weet ik niet, en hoe je het precies moet repareren ook niet :P
Ik weet wat ik gedaan heb maar geen idee waarom het weer werkt. en daar ben ik niet blij mee.

Wat ik heb gedaan nadat ik een beetje begreep hoe en wat er werd aangeroepen, is langszaam testen wat er wel en niet werkte.

dus eerste boot werkte, dan werd de BTX loader opgeroepen dat gaf de foutmelding.
Dat de /boot/kernel/kernel niet gevonden kon worden, terwijl daar als het goed is /boot/zfsloader moet worden opgeroepen.

Nu van de livecd USBSTICK de BTX loader opgeroepen met zfs-usbstick:/boot/zfsloader
Kom je in het menuutje terecht.

Daar weer uitgegaan (escape to prompt) en met set currdev=zfs:hdd/zfsguru/9.1-005: en daarna het commando boot het systeem weer verder van de hardeschijf opgestart.
Dit werkte en het vreemde is dat het systeem nu dus normaal volledig van de hdd opstart zonder dit tussenstukje.
Verwijderd schreef op zondag 27 april 2014 @ 12:36:
[...]

Kort gezegd betekent dit dat ZFS niet bij de data kon komen. Bijvoorbeeld omdat één disk niet was aangesloten/gedetecteerd.

Bij USB-sticks kan het vaak voorkomen dat een pool corrupt raakt, met name als je de stick eruit trekt zonder netjes te verwijderen of de computer uit te schakelen. Maar dat hoeft niet jouw probleem te zijn.
Het probleem zat niet op een usb stick, die heb ik juist gebruikt om het systeem weer aan de praat te krijgen
Als je bootproblemen hebt met ZFSguru, helpt het om met een LiveCD te booten en zo te kijken of alle disks er zijn en de pool intact is. En eventueel een nieuwe installatie te doen.
vandaar de usbstick
En update je bootcode met beta9 eens; je gebruikt nu denk ik de oude v28 bootcode. Ook al is je probleem opgelost zou ik dit aanraden.
Is misschien een idee maar dat moet ik helaas nog even uitstellen.

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
C0rnelis schreef op zondag 27 april 2014 @ 20:45:
Hmm, ik heb 'm hier zelf lokaal nog niet omdat ik nog de upgrade moet uitvoeren, maar het kan zijn dat je een aantal tabellen moet aanmaken ipv dat de zabbix-frontend die voor jouw aanmaakt.

Geeft dit een leeg resultaat ? (i.e. geen tabellen)

mysql> SHOW TABLES FROM zabbix_database;

Indien ja dan moet je even uitvogelen waar de tabellen staan gedefinieerd. Volgens de documentatie staan ze in (afhankelijk van welk versienummer je precies hebt)
/usr/share/doc/zabbix-server-mysql-2.2.0/create

Met onderstaande commando's kan je de tabellen toevoegen aan 'zabbix_database' via de gebruiker 'zabbix', maar je moet wel het wachtwoord invullen
Eeehm ik krijg asl antwoord op [code]
cd /usr/share/doc/zabbix-server-mysql-2.2.0/create
mysql -u zabbix -p zabbix_database < schema.sql
mysql -u zabbix -p zabbix_database < images.sql
mysql -u zabbix -p zabbix_database < data.sql


Bron: https://www.zabbix.com/do...ion/install_from_packages
Ik krijg op deze
mysql> SHOW TABLES FROM zabbix_database;

dit antwoord
code:
1
 ERROR 1049 (42000): Unknown database 'zabbix_database'

Dus ineens is de database zabbiz er niet/onbekend?

Acties:
  • 0 Henk 'm!

  • C0rnelis
  • Registratie: Juni 2010
  • Laatst online: 26-08 22:21
Het is een voorbeeldnaam van de database die door zabbix wordt gebruikt ;) Als ik snel de docs er even op na lees, dan is het simpelweg 'zabbix'.

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
Ja ik had dat ook al zelf bedacht sorry.
Maar als ik die ingeef krijg ik niks terug enkel '>

Acties:
  • 0 Henk 'm!

  • C0rnelis
  • Registratie: Juni 2010
  • Laatst online: 26-08 22:21
Ik krijg het volgende op een lege database 'zabbix'
mysql> show tables from zabbix;
Empty set (0.00 sec)

mysql>

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
Ja ik ook precies hetzelfde.
Dus hij bestaat en hij wordt gezien dus
En nu?

Acties:
  • 0 Henk 'm!

  • C0rnelis
  • Registratie: Juni 2010
  • Laatst online: 26-08 22:21
Die link naar de docs lijkt in mijn geval out-of-date te zijn

De database moet nu gevuld worden met tabellen; ik kon dat doen met:
cd /usr/local/share/zabbix22/server/database/mysql
cat schema.sql images.sql data.sql | mysql -uzabbix -p zabbix

(duurde bij mij 2-3 minuten)

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
Nou idd dat was het bij mij ook.
Bedankt om het draaiende te krijgen bij/voor mij.

Acties:
  • 0 Henk 'm!

  • C0rnelis
  • Registratie: Juni 2010
  • Laatst online: 26-08 22:21
Geen probleem! Nu draait hij tenminste bij mij zelf ook - ook al heb ik alles via ports geinstalleerd :9

[ Voor 5% gewijzigd door C0rnelis op 27-04-2014 22:10 ]


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
Te vroeg gejuicht.
Als ik in wil loggen geeft ie geen toegang en de melding dat de zabbix server niet draait.
Ik kan nu dus niet inloggen met zabbix/password en ook niet met de gebruiekr die ik had aangemaakt.
Dan geeft ie login/pw incorrect
code:
1
Database error: Error connecting to database [Access denied for user 'zabbix'@'localhost' (using password: YES)]

Alleennu in de interface van zabbix :? :?

[ Voor 26% gewijzigd door ikkeenjij36 op 27-04-2014 22:13 ]


Acties:
  • 0 Henk 'm!

  • C0rnelis
  • Registratie: Juni 2010
  • Laatst online: 26-08 22:21
De standaardlogin is admin/zabbix, de zabbix/password die je bedoelt is misschien die voor mysql ?

Standaard schrijft de zabbix-server weg naar /tmp/zabbix_server.log, staat daar iets in ?

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 17:57
(jarig!)
ikkeenjij36 schreef op zondag 27 april 2014 @ 22:11:
code:
1
Database error: Error connecting to database [Access denied for user 'zabbix'@'localhost' (using password: YES)]
Dan zoek je uit welk wachtwoord er gebruikt wordt voor de connectie met de database en log je in op PhpMySQL om je de user zabbix@localhost aan te maken of aan te passen :P

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Is er een mogelijkheid om een scrub die eenmaal gestart is, om die weer handmatig te stoppen?

Acties:
  • 0 Henk 'm!
zpool scrub -s [poolnaam]


volgens mij :) Zeker weten :)

[ Voor 43% gewijzigd door FireDrunk op 28-04-2014 08:54 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
d:)b Tnx.
Dan kan ik nu even goed testen zonder mogelijke 'ruis' in de getallen.
Performance van disken lijkt voorzichtig gezegd wat bijzonder vreemd te reageren op mijn HDD's.

[update]
Oke... Scrub was dus de oorzaak.....
Scrub performance liep ergens met 27 MB/s op mijn HDD-pool van 10*4TB in Z2 :F
Dacht even dat 1 van de disken mogelijk rot was.
Tijdens de scrub een dd-perf test draaien is niet handig. Speed liep uiteen van 0 MB/s tot 400 MB/s
Nu scrub gestopt is en ik eens met een dd heb getest kom ik uit op een 820 MB/s.
Dat is een stuk beter. ;)

[ Voor 52% gewijzigd door ]Byte[ op 28-04-2014 09:51 ]


Acties:
  • 0 Henk 'm!

  • Destiny
  • Registratie: December 2002
  • Laatst online: 09:08
ikkeenjij36 schreef op zondag 27 april 2014 @ 20:32:
Wel ik ben een stukje verder,ik krijg nu geen acces denied meer maar deze melding
code:
1
The frontend does not match Zabbix database.

Wat moet ik hier nu weer verder mee?
Bedankt alvast weer voor je antwoorden
Deze melding heb ik ook gehad toen ik de verkeerde versie van de front-end geinstalleerd had. Er staat zabbix22 en zabbix2 in de ports directory. Je moet de server, front-end en agent van dezelfde versie hebben (dus zabbix22 of zabbix2). Ik had per ongeluk de zabbix2 frontend bij de zabbix22 server geinstalleerd en dat gaf dezelfde melding.

Acties:
  • 0 Henk 'm!

  • Simkin
  • Registratie: Maart 2000
  • Laatst online: 03-10 10:00

Simkin

Bzzzzz

Ik heb een verzoekje aan een senior ZFS gebruiker om een blik te werpen op een probleem wat ik heb met een kapotte disk te vervangen. Ik heb hier een apart topic voor geopend. Alvast bedankt voor je tijd! link

Acties:
  • 0 Henk 'm!

Verwijderd

Ik zou data moeten kopiëren van iemand zijn nas (windows 7 met areca 1882) naar een nieuwe nas met zfs.

Aangezien het om veel data gaat, zou het kopiëren via netwerk vrij lang duren. We zouden op de nieuwe nas (zfs omni os met napp-it) de data van de oude nas (windows + areca) moeten krijgen. Is het toevallig mogelijk
als de nieuwe nas met napp-it geinstalleerd is , om hier ook die areca controller bij te pluggen met schijven en dit aan de praat te krijgen. Ik zou dan graag de data intern kopiëren , niet over het netwerk, wat heel veel sneller zou moeten gaan.

Als iemand mij kan helpen, graag :)

Acties:
  • 0 Henk 'm!
Waarom niet gewon in je ZFS machine NTFS installeren? :)

*kuch* Linux *kuch*

[ Voor 23% gewijzigd door FireDrunk op 29-04-2014 22:48 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 03-10 10:04

Pantagruel

Mijn 80486 was snel,....was!

Verwijderd schreef op dinsdag 29 april 2014 @ 22:06:
Ik zou data moeten kopiëren van iemand zijn nas (windows 7 met areca 1882) naar een nieuwe nas met zfs.

Aangezien het om veel data gaat, zou het kopiëren via netwerk vrij lang duren. We zouden op de nieuwe nas (zfs omni os met napp-it) de data van de oude nas (windows + areca) moeten krijgen. Is het toevallig mogelijk
als de nieuwe nas met napp-it geinstalleerd is , om hier ook die areca controller bij te pluggen met schijven en dit aan de praat te krijgen. Ik zou dan graag de data intern kopiëren , niet over het netwerk, wat heel veel sneller zou moeten gaan.

Als iemand mij kan helpen, graag :)
Tweakers mentaliteit??, trail and error ;) .

Installeer OmniOS, steek de areca in de machine zonder hdd's eraan en kijk of de controler sec werkt.
Zo ja, feestje mbt hardware ondersteuning, de volgende horde wordt dan NTFS, geen idee of OmniOS NTFS out of the box doet, misschien kun je ntfs-3g support na-installeren.

Bij twijfel blijf de netwerk optie over en dat kost helaas tijd.

En anders wat FD zegt, linux,ZoL en Napp-it beta, ntfs krijg je er gratis bij

[ Voor 3% gewijzigd door Pantagruel op 29-04-2014 22:55 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!
*kuch* kies linux... *kuch*

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Ik zou gerust trial & error willen toepassen, helaas zit de tijd niet mee. Heb slechts een kleine marge, aangezien al de data van de ene op de andere moet komen.

Ik kan het proberen de kaart gewoon in te pluggen. Ik vraag me alleen af je in zfs dan gewoon een array bij krijgt, of hij dat gaat zien ? Er mag uiteraard niets met de data van de schijven gebeuren voor het kopiëren.

Ondersteunt Napp-it beta alleen direct ntfs ? kan ik erna gewoon ntfs niet beta op installeren zonder die gekopieerde data dan kwijt te zijn ?

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 13:52

*KUCH!*


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 03-10 21:45
reken eerst eens uit hoe lang het kopiëren via het netwerk met 120 MB/s (~10TB / dag) duurt. Bedenk dan hoe snel je ZFS nas gaat zijn met schrijven. Misschien kun je 3x zo snel? Naar mijn idee is het alleen bij 40TB+ of zoiets de moeite waard om tijd effectief tijd te winnen door de Areca en NTFS in zelfde systeem werkend te krijgen.
Mijn ervaring is dat het niet zo vervelend is als het vooraf lijkt om veel data over te kopiëren zolang dat unattended lukt. Wat maakt het uit dat de PC's er bijvoorbeeld twee dagen(?) over doen?

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Bart, dat was ook zojuist mijn idee.
Alleen al het er over nadenken, hardware gaan pluggen en proberen het aan de praat krijgen gaat meer tijd kosten.
Zet gewoon een rsync-job aan de gang en laat die lekker alles overpompen.
Voordeel ervan is ook dat je data al die tijd gewoon online beschikbaar blijft.
Mochten er nog bestanden gewijzigd zijn hoef je op het laatste moment alleen er nog ff een rsync overheen te gooien en worden eventueel gewijzigde files alsnog overgezet.
* ]Byte[ heeft ooit eens een storage-array met 160 TB met een bosje rsync-jobs overgezet (oké, dat was dan met een 10 GbE link)

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 03-10 10:04

Pantagruel

Mijn 80486 was snel,....was!

Verwijderd schreef op dinsdag 29 april 2014 @ 23:19:
Ik zou gerust trial & error willen toepassen, helaas zit de tijd niet mee. Heb slechts een kleine marge, aangezien al de data van de ene op de andere moet komen.

Ik kan het proberen de kaart gewoon in te pluggen. Ik vraag me alleen af je in zfs dan gewoon een array bij krijgt, of hij dat gaat zien ? Er mag uiteraard niets met de data van de schijven gebeuren voor het kopiëren.

Ondersteunt Napp-it beta alleen direct ntfs ? kan ik erna gewoon ntfs niet beta op installeren zonder die gekopieerde data dan kwijt te zijn ?
Met een krappe plannig moet je niet dralen en gaan voor de optie die de meest ekans van slagen heeft om in 1x te werken.
Zoals de anderen al aan geven rsync de boel via t netwerk.

NTFS ondersteuning vindt plaats door t OS niet door Napp-it, Napp-it is simpel gezegd niets meer dan een beheer oppervlakte voor t OS+ZFS (en een zwik andere dingen).
Nog harder hoesten ;) , denk dat de oren dicht zitten
]Byte\[ schreef op woensdag 30 april 2014 @ 07:49:
Bart, dat was ook zojuist mijn idee.
Alleen al het er over nadenken, hardware gaan pluggen en proberen het aan de praat krijgen gaat meer tijd kosten.
Zet gewoon een rsync-job aan de gang en laat die lekker alles overpompen.
Voordeel ervan is ook dat je data al die tijd gewoon online beschikbaar blijft.
Mochten er nog bestanden gewijzigd zijn hoef je op het laatste moment alleen er nog ff een rsync overheen te gooien en worden eventueel gewijzigde files alsnog overgezet.
* ]Byte[ heeft ooit eens een storage-array met 160 TB met een bosje rsync-jobs overgezet (oké, dat was dan met een 10 GbE link)
Held _/-\o_ , 't is de bedoeling om binnenkort een 18TB array tijdelijk ' te verhuizen' met een Linux bak als tussen stap. Over 10Gb Infiniband moet dat wel te doen zijn. Daarna mag de boel weer terug naar de ZFSguru machine. (de enige upgrade aan de machine is het vervangen van de 10 x 2 TB disks, dor 10 x 4 TB disks).

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Pantagruel schreef op woensdag 30 april 2014 @ 09:06:
[...]

Held _/-\o_ , 't is de bedoeling om binnenkort een 18TB array tijdelijk ' te verhuizen' met een Linux bak als tussen stap. Over 10Gb Infiniband moet dat wel te doen zijn. Daarna mag de boel weer terug naar de ZFSguru machine. (de enige upgrade aan de machine is het vervangen van de 10 x 2 TB disks, dor 10 x 4 TB disks).
Alvast een tip...
Om de doorlooptijd te verkorten kan je zonder problemen 3 of 4 rsync-jobs parallel starten. (begin maar eens met 2 rsync's en kijk wat je doorvoersnelheid is) - waarschijnlijk overbodig, maar zeg het toch: je maximale doorvoersnelheid is gelijk aan de traagste component!
Als je 10 Gb op IB niet vol zit, kan het zijn dat de machine zelf, lees- of de schrijfkant de bottleneck is.
En laat ze per job een eigen share pompen.
Om geen last te krijgen van onvoorziene netwerk-hikups en je rsync er uit klapt... zorg dat je 'screen' hebt geïnstalleerd op je server waar je de rsync start (1 rsync per screen).
Mocht je ssh om welke reden dan ook er uit klappen, blijft je rsync doorlopen.
(of je moet het via het console starten... dan heb je er geen last van)
Zelf had ik 6 jobs per server draaien, en deed het met 3 servers parallel.
Door de extreem grote hoeveelheid files (er waren dir's met meer dan 4 miljoen files (< 700kB/file)) kregen de storage-arrays het ook redelijk voor hun kiezen.

Acties:
  • 0 Henk 'm!

Verwijderd

Okay stel dat ik gewoon voor kopiëren ga over netwerk. Ik ga dus meteen tegen die limiet van gbit aanlopen. Ik heb nog wel wel een gbit nic liggen en mijn switch heeft support voor link aggregation. Dan kan ik de snelheid toch verdubbelen. Is dit eenvoudig om toe te passen ? Werkt dit beter met napp it of met zfsguru ?

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 03-10 21:45
met windows 7 werkt dat voor een enkele PC naar PC verbinding niet.

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 03-10 10:04

Pantagruel

Mijn 80486 was snel,....was!

Screen is idd super handig. Heb geregeld dingen op de achtergrond draaien in een screen sessie.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Voor de ZFSguru users: screen zit in de Shell Utilities service, inclusief mc en andere meuk die je voor shell gebruik goed kunt gebruiken. Inclusief de Nano editor, die sommigen fijner vinden dan 'ee' omdat nano vooral onder Linux OS populair is.

Acties:
  • 0 Henk 'm!

  • syl765
  • Registratie: Juni 2004
  • Laatst online: 12-09 14:47
Ik gebruikte screen ook altijd, totdat ik tmux ontdekte. Tmux bied net dat beetje meer.

Vooral het zoeken binnen je terminals...

http://www.serverwatch.co...NU-Screen-Alternative.htm

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 03-10 10:04

Pantagruel

Mijn 80486 was snel,....was!

Verwijderd schreef op woensdag 30 april 2014 @ 19:36:
Voor de ZFSguru users: screen zit in de Shell Utilities service, inclusief mc en andere meuk die je voor shell gebruik goed kunt gebruiken. Inclusief de Nano editor, die sommigen fijner vinden dan 'ee' omdat nano vooral onder Linux OS populair is.
mc is idd ook zo'n golden oldie. vi(m) en niks anders >:)

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
Vroegah, toen het leven nog overzichtelijk was, had ik een synology. Ik had daar een dagelijkse cron backup draaien die de belangrijke zooi naar een e-sata disk gooide en een mailtje stuurde wanneer dat proces klaar was.

Nu is het leven complex....Ik ben erg verguld met ZFSguru onder ESXi. Maarrrrrr, zo'n backupscript als op mijn Syno draaide heb ik zo 1,2,3 niet onder FreeBSD c.q. ZFSguru draaien.

Mijn strategie (tips en verbeteringen: graag!)
- maak een snapshot van het te backuppen fs
- rsync dat snapshot naar een e-sata disk.

De bedoeling is om allerlei versies van de snapshots lokaal te houden en de backupschijf dagelijks om te wisselen (de laatste backup is dan altijd off-site, ivm ongenode gasten, brand, you name it).
De backupschijf bevat in principe alleen de laatse versie van het filesysteem.

Maar nu loop ik tegen het volgende aan:
- hoe vertel ik zfsguru dat er een e-sata disk is aangekoppeld? Via de GUI red ik het natuurlijk wel, maar eea moet dus door een script geregeld worden. Ik zag dat ik een pool moet importeren....
- hoe vertel ik zfsguru dat de disk losgekoppeld mag worden? Ik kan me niet voorstellen dat ik de schijf zomaar kan lostrekken.

Ik ben nog niet ver genoeg in de 'zfs' en 'zpool' commando's, helaas. Kan iemand me een zetje in de goede richting geven? Snapshots maken, rsyncen, misschien send/receive...Dat red ik wel. Maar de basics...

[ Voor 4% gewijzigd door hansdegit op 30-04-2014 23:20 ]

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!

  • syl765
  • Registratie: Juni 2004
  • Laatst online: 12-09 14:47
De e-sata schijf, is dat altijd dezelfde?
Zo ja, dan kun je een mount opdracht mee geven in je script en tevens een umount opdracht.
Start het script, mount de disk, doe je ding umount de disk en stuur een mail met een overzicht van de mounts. Staat je e-sata disk er niet bij, weet je dus dat hij ontkoppelt is en je hem dus zo los kan trekken.

Als het nou niet steeds dezelfde disk is, kun je het ook gewoon doen, ik zou dan alleen mounten op een label, kan BTW ook prima met 1 disk. De disks 1 maal labelen en partitioneren met gpart.

stel de disk is ada6
code:
1
2
#  gpart create -s GPT /dev/ada6
# gpart add -t freebsd-ufs -l LABELNAAM -a4k /dev/ada6

Nu kun je disk mounten met
code:
1
# mount /dev/gpt/LABELNAAM /koppelpunt


Je noemt snapshot, rsync en zfs send/receive.

Als je rsync gebruikt is het niet nodig een snapshot te maken, rsync is zelf redelijk in staat alleen de verschillen te sturen.
Ga je zfs send en receive gebruiken, dan zul je snapshots moeten maken en deze over moeten zenden.
Je hoeft de disk dan niet te mounten, maar je moet de pool in en exporteren.
vervang dan # gpart add -t freebsd-ufs -l LABELNAAM -a4k /dev/ada6 door # gpart add -t freebsd-zfs -l LABELNAAM -a4k /dev/ada6

Maar het meest makkelijke is rsync.
Maar de snapshots hebben natuurlijk als voordeel dat je ook op je backup schijf weer terug kan naar bepaalde data.

Ik heb met mijn minimale script kunsten een scriptje gemaakt dat eerst alle snapshots leest op de lokale machine, en de remote machine.
Dan pakt hij de laatste snaphot van de backup pool, en kijkt of hij deze nog heeft.
Zo ja, dan zend hij zijn de verschillen tussen de laatste snapshot aan de overkant met het laatste snapshot lokaal.

In mijn geval zijn beide pools altijd online, ik hoef dus niet te mounten en te unmounten

gr
Johan

Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
Hé bedankt!

Ik heb 2 backupschijven. Eentje ligt altijd offsite en de ander hangt aan de machine of vice versa. Met andere woorden: ik wissel ze regelmatig om.

De reden om eerst een snapshot te maken is dat ik een read consistent, redelijk atomaire split van mijn data wil hebben. Zo voorkom ik dat ik bijvoorbeeld database tabellen moet repairen als ik ze restore.
De snapshots zal ik altijd lokaal proberen te houden; is meer een oplossing voor user error.

Ik wil idealiter de schijf wél met ZFS uitrusten, juist vanwege die mooie features zoals foutcorrectie etc.

Ik ga eens zoeken op "zfs import" etc.

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!
syl765 schreef op donderdag 01 mei 2014 @ 12:30:
De e-sata schijf, is dat altijd dezelfde?
Zo ja, dan kun je een mount opdracht mee geven in je script en tevens een umount opdracht.
Start het script, mount de disk, doe je ding umount de disk en stuur een mail met een overzicht van de mounts. Staat je e-sata disk er niet bij, weet je dus dat hij ontkoppelt is en je hem dus zo los kan trekken.

Als het nou niet steeds dezelfde disk is, kun je het ook gewoon doen, ik zou dan alleen mounten op een label, kan BTW ook prima met 1 disk. De disks 1 maal labelen en partitioneren met gpart.

stel de disk is ada6
code:
1
2
#  gpart create -s GPT /dev/ada6
# gpart add -t freebsd-ufs -l LABELNAAM -a4k /dev/ada6

Nu kun je disk mounten met
code:
1
# mount /dev/gpt/LABELNAAM /koppelpunt


Je noemt snapshot, rsync en zfs send/receive.

Als je rsync gebruikt is het niet nodig een snapshot te maken, rsync is zelf redelijk in staat alleen de verschillen te sturen.
Ga je zfs send en receive gebruiken, dan zul je snapshots moeten maken en deze over moeten zenden.
Je hoeft de disk dan niet te mounten, maar je moet de pool in en exporteren.
vervang dan # gpart add -t freebsd-ufs -l LABELNAAM -a4k /dev/ada6 door # gpart add -t freebsd-zfs -l LABELNAAM -a4k /dev/ada6

Maar het meest makkelijke is rsync.
Maar de snapshots hebben natuurlijk als voordeel dat je ook op je backup schijf weer terug kan naar bepaalde data.

Ik heb met mijn minimale script kunsten een scriptje gemaakt dat eerst alle snapshots leest op de lokale machine, en de remote machine.
Dan pakt hij de laatste snaphot van de backup pool, en kijkt of hij deze nog heeft.
Zo ja, dan zend hij zijn de verschillen tussen de laatste snapshot aan de overkant met het laatste snapshot lokaal.

In mijn geval zijn beide pools altijd online, ik hoef dus niet te mounten en te unmounten

gr
Johan
Doe eens delen dat script, dat klinkt exact als wat ik nodig heb!

Acties:
  • 0 Henk 'm!

  • syl765
  • Registratie: Juni 2004
  • Laatst online: 12-09 14:47
Is het goed als ik die morgen even plaats, ik ben erg druk vanavond..

Gr
Johan

Acties:
  • 0 Henk 'm!
Heeeeeelemaal geen probleem, doe maar rustig ;)

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
* ]Byte[ spiekt gelijk even mee met het script...

Ik wil mijn Samsung en OCZ SSD's gaan vervangen voor twee Intel's die ik gebruik om van te booten een partitie voor SLOG en een partitie voor L2ARC.

Is er een mogelijkheid als ik dit 'slim' aanpak om dit zo zonder herinstallatie te doen?
(ik zat te denken ok er eerst 1 te vervangen en opnieuw mirror van te maken en alles klaar is pas de 2e...)
Heeft iemand daar misschien al ervaring mee?

Acties:
  • 0 Henk 'm!

Verwijderd

Kan ik met zfsguru of freenas ook mijn usbsticks mirroren zoals je bij napp-it kan ? Of is napp-it de enige waarbij je die mogelijkheid hebt ?

Kan je van zfsguru achteraf nog overschakelen naar bv napp-it , zonder al je data kwijt te spelen ? Ik zou dan denken door gewoon een andere usb stick te nemen daar het os op te installen , en mijn raid pool te importeren ? Of is dat niet mogelijk omdat ze data op een verschillend schijfformat bijhouden ?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Zolang je ZFS pool geen v5000 features heeft die napp-it niet ondersteunt, kun je gewoon migreren. Wel heeft Solaris-platform moeite met GPT partities die niet van het type Solaris zijn. Je kunt achteraf in ZFSguru de partitie-type aanpassen, of je kunt geom_label format gebruiken dat is zeg maar whole disk.

Een mirror van USB-sticks kan prima met ZFSguru, omdat ZFSguru op de pool wordt geïnstalleerd. Maar de beperking van maximaal één vdev voor bootable pools geldt volgens mij nog steeds. Dus een enkele mirror van 2 of meer devices is prima, maar meerdere mirrors die door ZFS automatisch worden ge-loadbalanced (zeg maar RAID0) betekent dat je er niet meer van kunt booten, met een paar uitzonderingen.

Acties:
  • 0 Henk 'm!

Verwijderd

Okay thanks, hij is nu aan het installeren op de pool, nadat ik met de livecd heb geboot. Ik heb een pool aangemaakt van 10 schijven raidz2. Ik heb voor het installeren even een benchmark (standaard, 64gb) op los gelaten. Ik kreeg speeds van 700 mb/s read en 67mb/s write. Die snelheden lijken me vrij laag, of ben ik verkeerd.

Het zijn 10 wd red 4tb schijven @ supermicro x10 met 8 schijven op de sas controller (it mode) en 2 schijven op de sata600 controller. 16gb ram.

Acties:
  • 0 Henk 'm!

Verwijderd

Net nog uitvoerig getest , nas wilt niet sneller dan 70 mb/s schrijven. Dit lijkt me echt niet normaal voor 10 schijven. Hoe kan ik kijken of er iets mis is, waarom ik zulke lage snelheid haal ? De raidpool ziet groen, geeft geen foutmelding, en dit is ook de score die ik haalde tijdens de benchmark van zfsguru zelf.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Zo laag is dat niet. Het heeft hoogstwaarschijnlijk ook niets met je pool snelheid te maken maar met je netwerk interface. Heb je normaal onboard netwerk dan haal je niet altijd de max doorvoer. En zelfs met goede hardware, kan een softwareconfiguratie bij zowel server als client zorgen voor lager dan de maximale snelheden. Ik heb nog nooit in mijn leven een optimale snelheid bij SMB/CIFS transfers gezien. Wel bij andere protocollen, maar Samba is altijd een probleem geweest qua performance.

Dat gezegd, schrijven @ 110MB/s en lezen @ 90MB/s lukt wel aardig over gigabit. Ik ben tevreden met die snelheden.

In jouw geval zul je eerst het netwerk moeten gaan testen. iPerf is al voorgeïnstalleerd bij ZFSguru; dus nu nog een client voor je (Windows) desktop en je kunt je netwerkperformance gaan testen. Als je out of the box bij iPerf geen optimale performance haalt, denk ik dat je daar je oorzaak kunt zoeken.

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
Verwijderd schreef op vrijdag 02 mei 2014 @ 01:15:
[...], nas wilt niet sneller dan 70 mb/s schrijven. Dit lijkt me echt niet normaal voor 10 schijven. [...]
:? Nee dat is zeker veel teweinig.
Zelf haal ik op mijn Z2-pool met 10 disks (WD Red's - 4 TB) 800 MB/s write en 1000-1100 MB/s read.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Ook over je gigabit netwerk? Want daar hebben we het toch over, of heb ik het verkeerd begrepen? :P

Edit 1: Volgens mij heb ik het verkeerd gelezen; het gaat idd om local disk performance..

In dat geval zou ik kijken naar gstat wat er exact gebeurt tijdens sequential write. Kan zijn dat één disk er langer over doet en de array/vdev vertraagt. Vooral RAID-Z familie is hier kwetsbaar voor, omdat voor elke record alle disks betrokken worden.

Edit 2: Het kan ook zijn dat hij met de LiveCD heeft getest. Deze heeft ZFS beperkt tot 64MB RAM dus dan is het logisch dat je veel lagere snelheden haalt. Pas nadat je in je installatie bent geboot, kun je gaan benchmarken.

[ Voor 84% gewijzigd door Verwijderd op 02-05-2014 07:49 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Ik heb ook hele andere resultaten gezien. Zelfs met de benchmark van zfsguru zelf was het ook maar 70 mb/s read. Niet moeilijk dat hij dan niet hoger over het netwerk kan , als hij intern dan al niet sneller kan kopieren. Die 70/s is trouwens nu maar gemiddeld 60 mb/s. Alle instellingen heb ik standaard gelaten.
Elke schijf geformateerd als GMT en een naam gegeven. Als ik op een schijf klik dan zie ik dat niets is aangevinkt van (zero-write, random data, trim entire surface). Bios van de supermicro staat ook standaard, heb enkel de sas controller naar IT mode geflasht. Heb ik dan iets verkeerd gedaan, of over het hoofd gezien ? ?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Je kunt op de Disks->Benchmark de Simple benchmark uitvoeren. Dat kun je doen voor alle disks. Is een simpele transfer benchmark zodat je kunt zien of alle disks ongeveer evengoed presteren. Dat dien je uit te voeren als je verder niets doet op de NAS.

Mocht dat niets opleveren dan moet je met gstat aan de slag. Als je me SSH toegang geeft zou ik eventueel ook zelf kunnen kijken. Met gstat kun je zien wat je disks aan het doen zijn en of er bijvoorbeeld een grote wachtrij is voor één disk terwijl de overige disks veel sneller zijn. Dat komt nog wel eens voor, dan heb je een lamme schijf er tussen zitten.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 29-09 22:09
Wellicht issues met de driver voor de onboard sas controller op je supermicro X10 moderbord ?
Ik heb een x9 serie bord met een IBM 1015 en dat draait ook 800+ MB/sec write met interne test op een raidz2 volume met 10x 4TB 7200 rpm. 8 drives op de m1015 en 2 op mainbord.

Heb er nu ook 1 met seagates 4 TB maar nog niet getest. Data moven over 10 GE gaat wel over de 200 MB/sec, maar dat is hier limitering door de wintel pc waar de data vanaf komt.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

Verwijderd

Ik heb alles gedaan vie de live cd. Dus geen driver moeten selecteren. Het enige wat ik aan de controller heb gedaan is deze in it mode gezet. Ik vermoed dat die snelheden te maken hebben door die geheugen beperking van booten met de live cd

Acties:
  • 0 Henk 'm!

  • syl765
  • Registratie: Juni 2004
  • Laatst online: 12-09 14:47
Ik gebruik zfs-periodic om mijn snapshots te maken op de source
Dit gebeurt ieder uur, en ieder uur draai ik het volgende script, tevens bewaard de source machine maximaal 24 snapshots. Je moet er zelf voor zorgen dat de machines in de pas blijven lopen. mocht het niet lukken alle datasets binnen 24 uur te verzenden, dan heeft de source niet meer de laatste snapshot aan de ovelkant, en kan dus geen incremental meer sturen. Deze zal dus helemaal opnieuw moeten.

Het script haalt eerst van beide machines de lijst met snapshots op, en kijkt dan welk snapshot hij al aan de overkant heeft, en zal dan een incremental sturen tussen zijn laatste en de laatste aan de overkant.
Het script heeft de naam zfs-send.sh, hier doe ik een pgrep op om te kijken of er nog een send loopt.
Loopt er nog een send, dan stoppen we. Als je dus een andere naam aan het script geeft, pas dan even de pgrep regel aan. Dit script draai ik op FreeBSD machines, met Linux heb ik geen ervaring!!

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
#!/bin/sh

# check if we already running
if pgrep -f zfs-send.sh > /dev/null
then
    echo "replication already running"
    exit 1
fi

lpool="storage"   # local pool name
rpool="storage"   # remote pool name
host="backup02.domain.com"  # Host to send to
port="8922"  # remote ssh port

   type=$1

   case "$type" in
        hourly)
        now=`date +"$type-%Y-%m-%d-%H"`
        ;;
        daily)
        now=`date +"$type-%Y-%m-%d"`
        ;;
        weekly)
        now=`date +"$type-%Y-%U"`
       ;;
        monthly)
        now=`date +"$type-%Y-%m"`
        ;;
        *)
        echo "unknown snapshot type: $type"
        exit 1
    esac

# Create local file with local snapshots to speadup snapshot search
echo "Create local snapshot list"
/sbin/zfs list -H -o name -t snapshot | sort > /tmp/zfs-snapshots

# Create local file with remote snapshots to speadup snapshot search
echo "Create snapshot list from destination"
ssh -p $port root@$host /sbin/zfs list -H -o name -t snapshot | grep $type | sort > /tmp/zfs-remote-snapshots

# Find the snapshots we want to work with
snapshot_now=`cat /tmp/zfs-snapshots | grep $now`

for i in $snapshot_now; do

        echo "Do replication for $i"
        rsnapshot=`echo $i  | sed s/$lpool/$rpool/ | sed s/$now//g`
        lastrsnapshot=`cat /tmp/zfs-remote-snapshots | grep $rsnapshot | sort | tail -1`
        replicatesnapshot=`echo $lastrsnapshot | sed s/$rpool/$lpool/`

    if [ -z $lastrsnapshot ] ; then
        echo "No remote snapshot by this name."
        echo "Send the first snapshot manually"
        echo ""
    else
# check if we have the remote snapshot locally.
        if  [ `cat /tmp/zfs-snapshots | grep $replicatesnapshot | wc -l` -eq "0" ]; then
                echo "missing last snapshot aborting, I need $replicatesnapshot"
                echo ""
            else
                if [ $i = $replicatesnapshot ]; then
                    echo " Replication already done"
                   # echo " Proceed with the next snapshot!"
                    echo ""
                else
                    # echo "last snapshot on destination is $lastrsnapshot,"
                    # echo "we still have it, so lets proceed with replication"
                    /sbin/zfs send -i $replicatesnapshot $i | ssh -p $port root@$host /sbin/zfs receive -Fduv $rpool
                    #echo "replication for $i complete"
                    echo ""
                fi
            fi
        fi
    done
# remove the file /tmp/zfs-snapshots
echo "remove the tmp snapshots files"
/bin/rm /tmp/zfs-snapshots
/bin/rm /tmp/zfs-remote-snapshots

exit


het script roep ik ieder uur aan met:
code:
1
/root/scripts/zfs-send.sh hourly


hourly moet dan in de snapshot naam staan.

Dit is mijn eigen browsel, en ik ben geen ster in scripten !!
Test het dus even goed.

Hier nog een script gemaakt door iemand anders in python.
Dit script maakt ook de snapshots volgens mij. Ik heb het nog niet geprobeerd wegens tijdgebrek.
https://github.com/thenin...blob/master/ninja_snap.py


gr

Nogmaals voorzichtig !!! ;)

Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
Hallo ff een vraag.
Kado gehad van mijn meisje een dune hd base3.0.
Echter kan ik geen van mn nfs shares benaderen van mijn zfsguru server.
Nfs shares gemaakt via de gui van guru.
Daarna nog bij de file manager ook op share gezet
Met guest acces de files gemmaakt.
Echter mijn dune ziet ze niet ook mn rpi kan nog steeds geen nfs shares vinden.
Wat kan ik het beste doen om mn nfs shares zichtbaar te maken?

Acties:
  • 0 Henk 'm!
Dat is echt een beetje hetzelfde als vragen, hoe zorg ik dat mijn auto rijd... We hebben meer context nodig... Post je stappenplan eens met wat je al geprobeerd hebt. Dan kunnen wij zeggen waar je misschien iets verkeerd doet.

Even niets...


Acties:
  • 0 Henk 'm!

  • ikkeenjij36
  • Registratie: Juli 2012
  • Laatst online: 13:21
Zoals de vraag gesteld wordt beste firedrunk.
Ik kan mijn nfs shares dus niet zien op mijn dune.
Ik heb alle shares verwijderd,daarna de mappen films/tvseries/muziek opnieuw een nfs share gemaakt via de gui van acces op de zfsguru server.
Echter zijn de shares niet te zien benaderen,als i in de dune opgeef nfs protocol als server ipadres daarna de gesharede map films/tvseries/muziek invoer en protocol tcp wordt er netjes een icoontje gemaakt,als ik daarna erop klik wordt er gezegd netwerk map niet bereikbaar.
Ik hoop dat het zo een beetje duidelijker is?
O ja de mappen staan op public acces.

Edit:opgelost door de shares opnieuw aan te maken en het goede pad in te vullen op de dune.

[ Voor 7% gewijzigd door ikkeenjij36 op 03-05-2014 12:18 ]


Acties:
  • 0 Henk 'm!
NFS shares werken met absolute paden niet met relatieve paden.

Een NFS share begint dus altijd met een /

Het is dus iets in te trant van:

/[poolnaam]/[filesystemnaam]/eventuele_sub_directories

Even niets...


Acties:
  • 0 Henk 'm!

  • B2
  • Registratie: April 2000
  • Laatst online: 03-10 18:23

B2

wa' seggie?

Hmz, zojuist weer eens ZFSGuru in een vm gezet, system 10.0-002 met beta9. Netatalk krijg ik niet gestart. Ten eerste problemen met set_rcvar, en vervolgens segmentation faults.. Weinig verdere logging ook.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Segfaults is niet goed. Krijg je die ook bij de nieuwere 10.1 image?

Acties:
  • 0 Henk 'm!

  • ]Byte[
  • Registratie: April 2000
  • Laatst online: 13-09-2020
B2 schreef op zaterdag 03 mei 2014 @ 19:54:
Hmz, zojuist weer eens ZFSGuru in een vm gezet, system 10.0-002 met beta9. Netatalk krijg ik niet gestart. Ten eerste problemen met set_rcvar, en vervolgens segmentation faults.. Weinig verdere logging ook.
Probleem had ik ook!
Met 10.1-001 was dit opgelost en werkt netatalk ook weer.
* ]Byte[ gebruikt het voor zijn TimeMachine...

Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
Interessant.... Moest zojuist een individuele file terugzetten vanaf een zfs snapshot. Dat lijkt niet te lukken; de gehele snapshot wordt dan teruggezet:

code:
1
cp /ssdtier/mysql/.zfs/snapshots/20140503/stroomfabriek/pvtotals.* /ssdtier/mysql/stroomfabriek


Het lukte me alleen wanneer ik de file eerst "los" trok van het originele filesysteem. Denkfoutje? Of is dit specifiek voor ZFSguru?

Ik denk het wel te snappen; je loopt met dit soort trucs natuurlijk een risico op circulaire relaties tussen de snapshots en de onderliggende data.

[ Voor 21% gewijzigd door hansdegit op 04-05-2014 12:18 ]

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!

  • Bigs
  • Registratie: Mei 2000
  • Niet online
hansdegit schreef op zondag 04 mei 2014 @ 12:17:
Interessant.... Moest zojuist een individuele file terugzetten vanaf een zfs snapshot. Dat lijkt niet te lukken; de gehele snapshot wordt dan teruggezet:

code:
1
cp /ssdtier/mysql/.zfs/snapshots/20140503/stroomfabriek/pvtotals.* /ssdtier/mysql/stroomfabriek


Het lukte me alleen wanneer ik de file eerst "los" trok van het originele filesysteem. Denkfoutje? Of is dit specifiek voor ZFSguru?

Ik denk het wel te snappen; je loopt met dit soort trucs natuurlijk een risico op circulaire relaties tussen de snapshots en de onderliggende data.
En als je de snapshot gewoon ergens mount, werkt het dan wel?

Acties:
  • 0 Henk 'm!
@hansdegit. Dat moet gewoon werken. Zo doe ik het tenminste al jaren.

Iets meer uitleg over mijn structuur. Ik heb de volgende filesystems:
code:
1
2
3
4
5
6
7
8
9
10
11
12
data
data/curlymo
data/curlymo/Hobby
data/gezinslid
data/gezinslid/Hobby
[...]
data/shared/Audio
data/shared/Video
[...]
data/snapshots/curlymo
data/snapshots/gezinslid
[...]


De shared mappen krijgen een symlink naar elk gezinslid:
code:
1
2
3
4
ls -Al /data/curlymo/
[...]
lrwxrwxrwx   1 root     wheel        19 Nov 27  2011 Audio -> /data/shared/Audio/
drwxrwxrwx   7 curlymo  staff         7 Jan  4 12:18 Hobby


code:
1
2
3
4
ls -Al /data/gezinslid/
[...]
lrwxrwxrwx   1 root      wheel        19 Nov 27  2011 Audio -> /data/shared/Audio/
drwxrwxrwx   7 gezinslid staff         7 Jan  4 12:18 Hobby


Dan de snapshots:
code:
1
2
3
4
5
6
7
ls -Al /data/snapshots/curlymo/
[...]
drwxr-xr-x  2 curlymo staff  10 Apr  6 00:00 GMT-2014.04.05-22.00.00
drwxr-xr-x  2 curlymo staff  10 Apr  7 00:00 GMT-2014.04.06-22.00.00
drwxr-xr-x  2 curlymo staff  10 Apr  8 00:00 GMT-2014.04.07-22.00.00
drwxr-xr-x  2 curlymo staff  10 Apr  9 00:00 GMT-2014.04.08-22.00.00
[...]


In die folders:
code:
1
2
3
4
ls -Al /data/snapshots/curlymo/GMT-2014.04.05-22.00.00/
lrwxr-xr-x  1 curlymo staff  57 Apr  6 00:00 Audio -> /data/shared/Audio/.zfs/snapshot/GMT-2014.04.05-22.00.00/
lrwxr-xr-x  1 curlymo staff  58 Apr  6 00:00 Hobby -> /data/curlymo/Hobby/.zfs/snapshot/GMT-2014.04.05-22.00.00/
[...]


code:
1
2
3
4
ls -Al /data/snapshots/gezinslid/GMT-2014.04.05-22.00.00/
lrwxr-xr-x  1 gezinslid staff  57 Apr  6 00:00 Audio -> /data/shared/Audio/.zfs/snapshot/GMT-2014.04.05-22.00.00/
lrwxr-xr-x  1 gezinslid staff  58 Apr  6 00:00 Hobby -> /data/gezinslid/Hobby/.zfs/snapshot/GMT-2014.04.05-22.00.00/
[...]


Die /data/snapshots/curlymo folder heb ik tot een samba share gemaakt zodat ieder gezinslid door zijn snapshots kan zoeken.

Elke nacht worden er nieuwe snapshots + symlinks gemaakt en alle snapshots ouder dan 30 dagen worden verwijderd.

Regelmatig kopieer ik dus bestanden via samba van de snapshot share naar mijn data share zonder problemen.

[ Voor 106% gewijzigd door CurlyMo op 04-05-2014 13:16 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • B2
  • Registratie: April 2000
  • Laatst online: 03-10 18:23

B2

wa' seggie?

Verwijderd schreef op zaterdag 03 mei 2014 @ 20:03:
Segfaults is niet goed. Krijg je die ook bij de nieuwere 10.1 image?
Inderdaad, deze lost het op. Stom dat ik er over heen gelezen hebt, ik zag alleen -001 en -002 staan :)
We gaan eens bekijken of het met FreeBSD 10 inmiddels een stuk zuiniger kan dan met 9. Hopelijk linux kernel 3.14 gelijkwaardig.

Acties:
  • 0 Henk 'm!
Ook goed om te weten. In de kernels van alle versies < 10.0-STABLE zit een bug waardoor op mijn moederbord de ACHI codes van mijn crucial M500 SSDs verkeerd worden geïnterpreteerd en daardoor eruit worden geknald.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
(aprobe0:ahcich0:0:0:0): SETFEATURES ENABLE SATA FEATURE. ACB: ef 10 00 00 00 40 00 00 00 00 05 00
(aprobe0:ahcich0:0:0:0): CAM status: ATA Status Error
(aprobe0:ahcich0:0:0:0): ATA status: 51 (DRDY SERV ERR), error: 04 (ABRT )
uhub1: 4 ports with 4 removable, self powered
(aprobe0:ahcich0:0:0:0): RES: 51 04 00 00 00 40 00 00 00 05 00
(aprobe0:ahcich0:0:0:0): Retrying command
(aprobe1:ahcich1:0:0:0): SETFEATURES ENABLE SATA FEATURE. ACB: ef 10 00 00 00 40 00 00 00 00 05 00
(aprobe1:ahcich1:0:0:0): CAM status: ATA Status Error
(aprobe1:ahcich1:0:0:0): ATA status: 51 (DRDY SERV ERR), error: 04 (ABRT )
(aprobe1:ahcich1:0:0:0): RES: 51 04 00 00 00 40 00 00 00 05 00
(aprobe1:ahcich1:0:0:0): Retrying command
(aprobe0:ahcich0:0:0:0): SETFEATURES ENABLE SATA FEATURE. ACB: ef 10 00 00 00 40 00 00 00 00 05 00
(aprobe0:ahcich0:0:0:0): CAM status: ATA Status Error
(aprobe0:ahcich0:0:0:0): ATA status: 51 (DRDY SERV ERR), error: 04 (ABRT )
(aprobe0:ahcich0:0:0:0): RES: 51 04 00 00 00 40 00 00 00 05 00
(aprobe0:ahcich0:0:0:0): Error 5, Retries exhausted
(aprobe1:ahcich1:0:0:0): SETFEATURES ENABLE SATA FEATURE. ACB: ef 10 00 00 00 40 00 00 00 00 05 00
(aprobe1:ahcich1:0:0:0): CAM status: ATA Status Error
(aprobe1:ahcich1:0:0:0): ATA status: 51 (DRDY SERV ERR), error: 04 (ABRT )
(aprobe1:ahcich1:0:0:0): RES: 51 04 00 00 00 40 00 00 00 05 00
(aprobe1:ahcich1:0:0:0): Error 5, Retries exhausted


De enige manier om vanaf een 9.1 livecd te installeren was de SATA op IDE mode, ZFSGuru installeren en daarna weer terug op ACHI te zetten. Nu werkt het als een zonnetje 8)

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • hansdegit
  • Registratie: Februari 2005
  • Laatst online: 27-09 20:51
CurlyMo schreef op zondag 04 mei 2014 @ 13:01:
@hansdegit. Dat moet gewoon werken. Zo doe ik het tenminste al jaren.

[...]

Die /data/snapshots/curlymo folder heb ik tot een samba share gemaakt zodat ieder gezinslid door zijn snapshots kan zoeken.

Elke nacht worden er nieuwe snapshots + symlinks gemaakt en alle snapshots ouder dan 30 dagen worden verwijderd.

Regelmatig kopieer ik dus bestanden via samba van de snapshot share naar mijn data share zonder problemen.
Hmmm. Eigenlijk is dat wel goed nieuws.
Ik zal het nog eens op een andere manier proberen. Ws is mijn waarneming ietwat vertroebeld doordat ik met MySql tabellen aan de gang was gegaan.

[ Voor 54% gewijzigd door hansdegit op 04-05-2014 13:45 ]

Gitje's Stroomfabriek: 6095 Wp Yingli Panda, 2520 Wp Suntech, Tigo Monitoring & Schaduwmanagement, Kostal Piko 10.1


Acties:
  • 0 Henk 'm!

  • B2
  • Registratie: April 2000
  • Laatst online: 03-10 18:23

B2

wa' seggie?

Hoe zit het eigenlijk met hibernate en suspend ondersteuning in FreeBSD 10 (en zfsguru natuurlijk)?
Ik laat mijn Nas (ubuntu met 3.14) nu elke nacht in hibernate gaan. 's ochtends wordt deze door de router middels wol opnieuw opgestart.

Acties:
  • 0 Henk 'm!

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 03-10 21:03
Ik heb een DIY NAS met 10 x 4TB in RAID-Z2 die draait op ZFSguru. Nu had ik verwacht dat ik 8 x 3,6TB = 28,8TB schijfruimte zou hebben, maar in de praktijk blijkt dat maar 27,1TB te zijn. Ik kan het verschil van 1,7TB niet verklaren. Iemand die het weet?

Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
-Moondust- schreef op dinsdag 06 mei 2014 @ 17:28:
Ik heb een DIY NAS met 10 x 4TB in RAID-Z2 die draait op ZFSguru. Nu had ik verwacht dat ik 8 x 3,6TB = 28,8TB schijfruimte zou hebben, maar in de praktijk blijkt dat maar 27,1TB te zijn. Ik kan het verschil van 1,7TB niet verklaren. Iemand die het weet?
daar zit iig een deel metadata bij (1/64e iig)

Acties:
  • 0 Henk 'm!

  • Loekie
  • Registratie: Juli 2001
  • Laatst online: 03-10 14:01
Klinkt als de 5% gereserveerd voor root...

specs

Pagina: 1 ... 119 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.