Even niets...
Sinds de 2 dagen regel reageer ik hier niet meer
Even niets...
Ik zou vanuit het APCUPSD script eerst eens 'echo "hoi" > /tmp/text.txt` doen om te kijken of hij wel wordt afgetrapt. Anders zou ik het SSH commando in een eigen script stoppen en dat script locaal aanroeppen met dat apcupsd ding. Onder welke user rechten draait apcupsd?Eagleman7 schreef op zaterdag 11 januari 2014 @ 14:08:
[...]
./doshutdown
Sluit alles netjes af op de ESXi machine, zonder een wachtwoord te vragen.
De SSH keys werken ook, omdat als ik ssh root@192.168.1.10 uitvoer er niet gevraagd wordt om credentials en hij maakt connectie.
Het probleem is dat hij weigert om dit custom scriptje te draaien.
[ Voor 3% gewijzigd door Q op 11-01-2014 16:27 ]
Ik heb sinds een aantal weken een FreeNas ZFS thuisservertje draaien en ben daar erg blij mee.
Maar... ik heb een issue waar ik maar geen vinger op kan leggen.
Op random momenten (2 a 3 keer per uur oid) spint steeds 1 pool van schijven op om vervolgens na 10 min ongebruikt weer in standby te gaan.
Ik heb al gezocht maar kan nergens vinden wat deze pool kan triggeren om ineens actief te worden.
Heeft iemand enig idee waar dit aan kan liggen of hoe ik beter zelf onderzoek kan doen hiernaar?
Informatie voor betere analyse:
Specs:
Versie: FreeNAS-9.1.1-RELEASE-x64
Processor: Intel Pentium G2020
Geheugen: Crucial 1x8GB, DDR3, PC12800, CL11
Mobo: ASRock B75 Pro3-M
Voeding: Be Quiet Pure Power L7 300W
Raid Z1 Pool1: 3x Samsung Spinpoint F4 HD204UI 2TB
Raid Z1 Pool2: 3x Samsung Spinpoint F4 HD204UI 2TB
FreeNas instellingen die van belang zouden kunnen zijn:
PowerD: on
Alle schijven: HDD Standby = 10 / Energiebeheer = 128
dev.cpu.0.cx_lowest=C3
dev.cpu.1.cx_lowest=C3
De schijven worden via CIFS share gedeeld met een 3 tal Windows 7 computers en 1 Android tablet (aangeroepen via ES Explorer).
Een of meerdere PC's staan alleen aan als ik thuis ben, de tablet staat altijd aan maar in standby.
Met een aantal bios tweaks uit het zuinige server topic heb ik de volgende verbruikscijfers weten te behalen:
Idle: 21.5W
1 Pool spinning: 29.7
2 Pools spinning: 37.7W
Full load: 52W
Als iemand mij in de goede richting kan wijzen hoor ik dat graag!
Alvast bedankt.
Q schreef op zaterdag 11 januari 2014 @ 16:27:
[...]
Ik zou vanuit het APCUPSD script eerst eens 'echo "hoi" > /tmp/text.txt` doen om te kijken of hij wel wordt afgetrapt. Anders zou ik het SSH commando in een eigen script stoppen en dat script locaal aanroeppen met dat apcupsd ding. Onder welke user rechten draait apcupsd?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
| 2014-01-11 09:42:57 +0100 apcupsd 3.14.10 (13 September 2011) redhat startup succeeded 2014-01-11 09:43:04 +0100 Power failure. 2014-01-11 09:43:10 +0100 Running on UPS batteries. 2014-01-11 09:43:21 +0100 Reached run time limit on batteries. 2014-01-11 09:43:21 +0100 Initiating system shutdown! 2014-01-11 09:43:21 +0100 User logins prohibited (vim.fault.InvalidPowerState) { dynamicType = <unset>, faultCause = (vmodl.MethodFault) null, requestedState = "poweredOn", existingState = "poweredOff", msg = "The attempted operation cannot be performed in the current state (P owered off).", } (vim.fault.InvalidPowerState) { dynamicType = <unset>, faultCause = (vmodl.MethodFault) null, requestedState = "poweredOn", existingState = "poweredOff", msg = "The attempted operation cannot be performed in the current state (P owered off).", } (vim.fault.InvalidPowerState) { dynamicType = <unset>, faultCause = (vmodl.MethodFault) null, requestedState = "poweredOn", existingState = "poweredOff", msg = "The attempted operation cannot be performed in the current state (P owered off).", } (vim.fault.InvalidPowerState) { dynamicType = <unset>, faultCause = (vmodl.MethodFault) null, requestedState = "poweredOn", existingState = "poweredOff", msg = "The attempted operation cannot be performed in the current state (P owered off).", } 2014-01-11 09:44:25 +0100 apcupsd exiting, signal 15 2014-01-11 09:44:25 +0100 apcupsd shutdown succeeded |
Ik heb hem een uurtje geleden voor de eerste keer werkende gehad. De grap is dat ik het nu weer niet werkend krijg.
Ik heb al een aantal keer met echo's gewerkt maar het programma heeft zijn eigen wil.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
| [root@debian apcupsd]# ls -lah /root total 52K dr-xr-x---. 4 root root 4.0K Jan 11 09:43 . dr-xr-xr-x. 22 root root 4.0K Jan 11 11:17 .. -rw-------. 1 root root 5.5K Jan 11 10:27 .bash_history -rw-r--r--. 1 root root 18 May 20 2009 .bash_logout -rw-r--r--. 1 root root 176 May 20 2009 .bash_profile -rw-r--r--. 1 root root 176 Sep 23 2004 .bashrc -rw-r--r--. 1 root root 100 Sep 23 2004 .cshrc -rw-r--r-- 1 root root 7 Jan 11 09:43 got_called drwxr-----. 3 root root 4.0K Jan 10 16:18 .pki drwx------. 2 root root 4.0K Jan 10 16:36 .ssh -rw-r--r--. 1 root root 129 Dec 3 2004 .tcshrc -rw------- 1 root root 1.5K Jan 11 09:42 .viminfo [root@debian apcupsd]# date Sat Jan 11 11:19:48 CET 2014 |
got_called is dus de echo die ik er in gebouwd heb. Alleen deze is tot nu toe ook nog maar 1 keer aangemaakt.
1
2
| [root@debian apcupsd]# /usr/bin/ssh root@192.168.1.10 '/scripts/shutdown-all-vms.sh' sh: /scripts/shutdown-all-vms.sh: not found |
Faaltje
Alles in de /root van ESXi wordt volgens mij verwijderd.
Dat is dan maar een klein deel van het antwoord of de vraag die ik steldeFireDrunk schreef op zaterdag 11 januari 2014 @ 16:16:
Beide cpu's ondersteunen vt-x.
Sinds de 2 dagen regel reageer ik hier niet meer
Als je Linux gebruikt kan je wel de LSI Logic SAS controller gebruiken en kan je zonder vCenter werken (RDM's aanmaken en direct met de vSphere Client doorgeven aan Linux).
Of het nou Linux, FreeBSD is, en of ze virtueel draaien maakt niet uit. Zolang de VM dezelfde schijven ziet, kan hij gewoon de pool importeren.
Even niets...
Paravirtualisatie wil je net, je bent paravirtualisatie door mekaar aan het halen met het leveragen van VT-x.Xudonax schreef op zaterdag 11 januari 2014 @ 11:40:
Het lijkt te kunnen, maar je zit wel met de passthrough van je schijven wat ESXi dan moet doen. Plus dat je, vanwege het ontbreken van VT-x, enkel 32 bit CPU's kunt virtualiseren. En hoewel VMWare altijd wel een fatsoenlijke performance heeft kunnen leveren met paravirtualisatie, is de performance daarvan nog steeds ruk vergeleken met VT-x performance. Mijn advies is dan ook om het niet te doen als het niet strikt noodzakelijk is.
Ter vergelijking, ik heb recentelijk VT-x/VT-d ingeschakeld op de server op werk, en ineens draaide de verschillende VM's in ESXi (versie 4.0.0, dat dan weer wel...) merkbaar een héél stuk soepeler. Ik heb helaas geen benchmarks want tsja, werk
http://www.vmware.com/fil...re_paravirtualization.pdf
Ik zou alle apparaten uitzetten en kijken of ie nog steeds opspint. Zo ja = NAS, zo nee 1 van de andere apparaten vraagt data op. Zodra het nee is, systeemmatisch 1 voor 1 aanzetten en kijken of het nogmaals gebeurd.
Ik kan momenteel eigenlijk niets vinden over het scenario dat een harde schijf - zonder errors te geven - corrupte data terugstuurt naar de host.
Wat ik voornamelijk tegen kom zijn artikelen over latente leesfouten. Zwakke sectoren die op het moment dat ze worden ingelezen onleesbaar blijken. (URE)
Ik zie niet echt bewijs dat er een probleem is met echte bitrot, maar dat bitrot tot het niet kunnen lezen van data resulteert. En dat is knap lastig (dodelijk) als je net je non-ZFS RAID array aan het rebuilden bent.
Iemand tips / links?
Het script om ESXi uit te voeren wordt nu ook gewoon uitgevoerd en met wat sleep hier en daar is er genoeg tijd om alles keurig af te sluiten, en weer op te starten als de stroom terug is.
Het laatste probleem is om uit te zoeken waarom de UPS soms op de batterij terugvalt nadat ik de UPS weer aan het stroom heb aangesloten. Nadat dit gebeurt valt de UPS weer uit, dus de machines worden opgestart en worden daarna gewoon niet meer van stroom voorzien en vallen uit. Dit komt eigenlijk alleen voor als het stroom te "snel" weer terug is nadat de UPS afgesloten is.
Valt de UPS uit omdat hij leeg is op dat moment? Mogelijk sneller afsluiten --> meer lading over?
Of kan het zijn dat de UPS overbelast is en afsluit?
Beide niet, de UPS zit rond de 80-100% vol.Q schreef op zaterdag 11 januari 2014 @ 22:27:
Mooi!
Valt de UPS uit omdat hij leeg is op dat moment? Mogelijk sneller afsluiten --> meer lading over?
Of kan het zijn dat de UPS overbelast is en afsluit?
En de UPS wordt bij lange na niet overbelast, ong 50 watt, hij kan 560watt hebben. Ik doe zo'n 2 uur op de batterij.
EDIT:
Het zou natuurlijk kunnen zijn dat dit het is:

Ik heb het volgende gemeten
UPS en aangesloten apparatuur krijgen geen stroom meer:
265 Sec
UPS kan weer veilig aan het netstroom gekoppeld worden zonder dat hij overschakelt op de batterij:
297 Sec
30 seconden, in de screenshot is het 20 seconden.
EDIT:
Aangepast naar:
Turn off after 1 sec
Turn on after 1 min
Maar nadat ik hem weer aangesloten had op mijn CentOS machine doet hij weer precies hetzelfde.
Nu heb ik alles werkende alleen een "time frame" van 30 sec waar alles fout kan gaan (UPS aan,uit,aan,uit enz)
[ Voor 57% gewijzigd door Eagleman7 op 11-01-2014 23:06 ]
Duidelijk!FireDrunk schreef op zaterdag 11 januari 2014 @ 19:23:
Als jouw systeem geen VT-d ondersteund, kan je door middel van RDM werken, dat is lastig icm FreeBSD want dan moet je minimaal ESXi 5.5 draaien, inclusief vCenter server omdat je naar Hardware Level 11 moet om een AHCI controller te gebruiken in de VM (enige wat werkt icm ZFS en FreeBSD).
Als je Linux gebruikt kan je wel de LSI Logic SAS controller gebruiken en kan je zonder vCenter werken (RDM's aanmaken en direct met de vSphere Client doorgeven aan Linux).
Of het nou Linux, FreeBSD is, en of ze virtueel draaien maakt niet uit. Zolang de VM dezelfde schijven ziet, kan hij gewoon de pool importeren.
Zijn er in mijn geval duidelijke voordelen of nadelen in het draaien van:
- FreeBSD ZFS + 2x Ubuntu + 1x Windows als 3 aparte guests in ESXI host
of
- 2x Ubuntu + 1x Windows in een FreeBSD ZFS host (huidige situatie).
Sinds de 2 dagen regel reageer ik hier niet meer
Hoewel het wel kan, is het altijd beter om het te laten als het niet hoeft.
Even niets...
Sinds de 2 dagen regel reageer ik hier niet meer
Ik heb net qBittorrent geinstalleerd maar krijg 'm niet startend. De service is gestopt en krijg ik ook niet aan omdat het "control" button ontbreekt bij manage services. Ook het service panel is gelinkt aan 8080 wat al vergeven is aan sabnzbd.
En nu?
p.s. overigens kan ik X-Graphics-Server ook niet starten, misschien samenhangend in dit geheel.
@Edit: of ik moet leren lezen: Warning: qBittorrent is not running! Please start the service first on your graphical desktop and enable web UI in the options.
Waar moet ik nu zijn? X-Graphics-Server is ook gestopt (nooit gestart geweest).
@Edit2: Of moet ik soms de gnome desktop installeren?
@Edit 3: geinstalleerd maar krijg 'm ook niet aan de praat. De start button staat er niet bij. Ik kan 'm overigens wel de instelling "autostart" meegeven, alleen wil ik dat niet omdat ik 'm eenmalig wil gebruiken
Transmission gebruikte 9190 als webinterface, waardoor ik dus wel vanalles kon instellen etc. Ik wilde eens kijken of qBittorrent beter voor mij is
[ Voor 42% gewijzigd door EnerQi op 12-01-2014 12:16 ]
Het maakt niet uit of je van VT-d -> RDM -> Fysiek gaat met je schijven. Zolang de schijven dezelfde inhoud hebben kan je je pool gewoon importeren.CurlyMo schreef op zondag 12 januari 2014 @ 11:25:
Nu gebruik ik virtualbox, maar ik de toekomst wil ik met vt-d rekening houden zodat ik zonder veel performance verlies kan virtualiseren.
Even niets...
[ Voor 4% gewijzigd door CurlyMo op 12-01-2014 11:43 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Clients in ESXi zijn (denk ik) iets veiliger omdat de synced writes fatsoenlijk gehonoreerd worden. Misschien is dat in VirtualBox ook wel te wijzigen, maar dat zou ik verder niet weten.
Voor de rest, wat noem je veilig?
Even niets...
Daarnaast is het probleem wel dat ik FreeBSD ZFS alleen als een 32bit systeem kan installeren aangezien ik geen vt-d heb.
Sinds de 2 dagen regel reageer ik hier niet meer
Je hebt geen vt-d nodig, maar vt-x, voor het draaien van een 64-bit guest OS. Volgens FireDrunk ondersteunt jouw processor dat ook. Hooguit geen vt-d. Vt-x = virtualisatie, Vt-d = PCI passthrough, simpel gezegd. Bijna alle chips hebben Vt-x behalve heel oude chips. Zie Intel Ark.
@EnerQi: na het installeren van grafische desktop (Gnome inderdaad) moet je rebooten; die melding krijg je ook na het installeren van Gnome. Gnome start op een speciale manier namelijk.
Als qBitTorrent dezelfde poort gebruikt als een van de apps in SABnzbd+ dan kunnen we kijken of de poort standaard veranderd kan worden.
Kijk eerst eens of je de grafische desktop werkend krijgt. Rebooten en dan zie je de desktop voor je, dan dubbelklikken op qBitTorrent. Alle desktop applicaties werken zo; die start je niet via de WebUI maar via de grafische desktop via een icon waar je 2x op klikt.
[ Voor 37% gewijzigd door Verwijderd op 12-01-2014 12:23 ]
Je hebt gelijk dat dit offtopic is, maar het topic zou in 3 verschillende topics geplaatst kunnen worden, ESXi, OH, Linux. Als ik naar andere "UPS" topics kijk sterven dezen een stille dood zonder ooit antwoordt te krijgen.Q schreef op zondag 12 januari 2014 @ 10:23:
Hmm, het is niet helemaal kies om dit topic te kapen voor UPS problemen. Ik heb een APC ups en nooit dit soort problemen gehad. Ik gebruik deze software niet. Ik laat alles 100% over aan apcupsd onder linux.
Ik heb alleen de PowerChute software gebruikt om bovenstaande waardes in te stellen, maar dit heeft dan nog geen nut.
Ik zit nu dus gewoon met die 30 seconden "time frame" waar als ik de computer ( met apcupsd ) opstart en de USB kabel er nog in zit, dat hij in een boot loop komt waarbij de UPS/PC iedere keer uit en aan gaat.
Door de USB kabel er uit te halen in die 30 seconden en dan de PC ( met apcupsd ) opstart, gebeurt er gewoon wat er moet gebeuren. Hij komt dan dus niet in een boot loop terecht.
Ik heb dus een topic/mailing list gevonden waar mensen precies hetzelfde probleem hebben met apcupsd ( ik heb dit probleem dus niet op windows met powerchute, maar dit is dan ook geen optie )
In dit topic zegt iemand dat het komt door een "overload" maar volgens mij heb ik geen last van dat probleem.
Iemand anders in dat zelfde topic zegt dat hij het probleem opgelost heeft door de computer de tweede keer, dus nadat hij op de batterij is overgegaan, "normaal" af te sluiten inplaats van een halt shutdown.
Dit werkte wel bij mij, en deze methode doorbrak dus ook de "boot loop". Alleen voor mijn situatie is het nog niet een gepaste oplossing.
Ik heb op dit moment zowieso een tweede pc nodig die dus de UPS beheert met apcupsd, dit is op het moment een pctje met een i3tje die ik nog had staan, maar dit zou later mogelijk een raspberry PI kunnen worden met raspbian, mja dat zit ik weer met de opstart tijden, als die boven de 39 seconden zijn kan ik dus niet de "boot loop" doorbreken met een "normale shutdown"
Daarnaast moet de ESXi machine ook worden aangesloten op de UPS ( want daar heb ik de UPS voor aangeschaft ). Als ik dan in de boot loop terecht kom wordt deze ESXi machine dus 1x "niet netjes" afgesloten, of meerdere keren als ik niet uit de "boot loop" kan komen.
Dit is bijvoorbeeld wel op te lossen door de ESXi uit te laten staan na een powerloss, en dan de een scripie te maken om de apcupsd machine dit er voor zorgt dat als de apcupsd machine meer dan 3-5 min uptime heeft, er een WoL packetje gestuurdt wordt naar de ESXi machine om hem weer aan te zetten.
Maar dit is natuurlijk een soort van work around. Het probleem moet op een of andere manier gewoon opgelost worden
Conclusie is dus gewoon dat ik 30 seconden heb waar alles mis kan gaan, hier is wel een oplossing voor zoals ik net beschreven had alleen dit is nog niet de "echte" oplossing.
Omdat geduld bij mij moeilijk op te brengen is, heb ik inderdaad de gnome desktop geinstalleerd en gereboot.Kijk eerst eens of je de grafische desktop werkend krijgt. Rebooten en dan zie je de desktop voor je, dan dubbelklikken op qBitTorrent. Alle desktop applicaties werken zo; die start je niet via de WebUI maar via de grafische desktop via een icon waar je 2x op klikt.
Het probleem is dat die gnome desktop er niet is. Wel running volgens ZFSguru maar ik zie niets anders dan normaal. Of moet ik letterlijk een beeldscherm aan mijn Nas aansluiten? (ondertussen ga ik dit wel doen ja
@Edit: Ja, ik moest dus een beeldscherm aansluiten op mijn NAS + toetsenbord/muis. Wie verzint dit nu?


[ Voor 22% gewijzigd door EnerQi op 12-01-2014 14:05 ]
Hoe pakken jullie dit aan?
[ Voor 25% gewijzigd door ilovebrewski op 12-01-2014 14:00 ]
Overigens raad ik altijd aan om de instellingen in een word documentje te zetten, migreren kan fout gaan en je moet toch de instellingen hebben
Ik doe nu hetzelfde maar dan handmatig; een dir maken op mijn ZFS bak en daar alle bestanden naartoe kopiëren met -p flag (cp -p /etc/rc.conf ./). Dan later weer terugkopiëren. Maar dan moet je wel precies weten wat je nodig hebt. De migration manager maakt dat allemaal heel makkelijk via de web-interface. Tot die tijd is het even behelpen. Je kunt in elk geval altijd weer terug mocht je de nieuwe installatie niet werkend kunnen krijgen.
Ik zorg altijd zelf dat ik de sabnzbd.ini op een externe bron heb staan.ilovebrewski schreef op zondag 12 januari 2014 @ 13:50:
Kan iemand mij vertellen welke config files van Sabnzbd ik moet kopiëren naar een nieuwe install van ZFSguru op een nieuw systeem? Red ik dit met alleen /services/sabnzbd/data/config.ini?
Hoe pakken jullie dit aan?
Kijk eens naar: /boot_mirror/zfsguru/services/9.2-001/sabnzbdplus/config/sabnzbd.ini
Er is in principe altijd maar 1 configfile.
Waarom deze bij ZFSguru op 3 plaatsen staat is mij ook niet helemaal duidelijk.
/boot_mirror/zfsguru/services/9.2-001/sabnzbdplus/config/sabnzbd.ini
/boot_mirror/zfsguru/services/9.2-001/sabnzbdplus/data/sabnzbd.ini
/boot_mirror/zfsguru/services/9.2-001/sabnzbdplus/data/sabnzbd/sabnzbd.ini
Die weirdo's van ZFSguru natuurlijk.EnerQi schreef op zondag 12 januari 2014 @ 13:42:
Het probleem is dat die gnome desktop er niet is. Wel running volgens ZFSguru maar ik zie niets anders dan normaal. Of moet ik letterlijk een beeldscherm aan mijn Nas aansluiten? (ondertussen ga ik dit wel doen ja)
@Edit: Ja, ik moest dus een beeldscherm aansluiten op mijn NAS + toetsenbord/muis. Wie verzint dit nu?
Maar zo gek is het niet om een grafische omgeving te hebben. ZFSguru kan ook als HTPC worden gebruikt. Uiteraard is de direct aangesloten monitor waar je je beeld op krijgt.
Wat jij wilt is een remote desktop. Die service is nog niet beschikbaar. Toch is ZFSguru daar al op voorbereid, doordat Gnome is gescheiden van de X server. Je kunt straks dus X-vncserver of X-xrdp gebruiken voor remote VNC/RDP toegang, en dan Gnome installeren. Eventueel zijn meer window managers mogelijk. Maar Jason wilde het eenvoudig houden, totdat services in ZFSguru duidelijker geïnstalleerd kunnen worden. Dan kan een aparte 'wizard' worden gemaakt voor de grafische services met de vraag of je local desktop of remote desktop wilt, of je Gnome,XFCE,KDE of een mini window manager wilt, etcetera.
Alle grafische services (shortname begint met X- zoals X-firefox) werken via een desktop icon. Dat is niet zo heel vreemd; hoe anders ga je dat programma gebruiken.Een remote computer met randapparatuur![]()
. Het werkt maar ik hoop dat er meer services komen die remote werken on-the-fly ipv eerst via de desktop.....
Als jij een niet-grafische versie wilt, die zijn er ook. X-transmission is grafisch, maar transmission is de niet-grafische versie met een panel web-interface, ook kun je transmission local laten connecten naar de transmission-daemon. VirtualBox geldt hetzelfde, een grafische en niet-grafische versie. En nog bij een aantal andere services heb je keuze.
Kortom, wat mis je precies behalve een remote desktop? Dat laatste is nog niet beschikbaar maar Jason en ik hadden al wel wat gespeeld met X-vncserver en X-xrdp - beide kunnen denk ik wat jij wilt met VNC/RDP connecten en dan een grafische omgeving hebben, maar die spreek je dan aan vanaf je eigen Windows/Linux desktop via een VNC/RDP viewer, ipv direct op de server aangesloten monitor. Correct?
Verwijderd
Eerste vraag:
Wanneer ik dit zou doen over SSH en enkel de SSH poort forward zijn deze systemen dan voldoende beschermd tegen het internet of is het alsnog noodzakelijk om de pf-firewall op de nas zelf in te stellen? Ik maak gebruik van een beperkte ISP (telenet) router hier en heb verder geen firewall bescherming in mijn netwerk.
Tweede vraag:
Is de data zelf die verstuurd wordt hiermee voldoende beveiligd of is een vpn tunnel (eventueel bovenop de SSH) een aan te raden aanvulling?
Nog bedankt voor die tip (FireDrunk in "Het grote ZFS topic") om de sata versie te forceren naar 2.
Met die instellingen heb ik 'm nog niet over de zeik gekregen, waar me dat voorheen met een paar benchmarks al wel lukte.
't Is meer een workaround dan een fix, maar iets beters is er waarschijnlijk niet?
Ik gebruik een behoorlijk oude versie van de BIOS (zodat m'n onboard NIC werkt), en in de changelog kom ik niks tegen m.b.t. SATA. Is dat nog het proberen waard? Zoveel verlies ik toch niet met SATA2, 't zijn maar simpele laptopschijfjes?
Iets heel anders:
Ik zou graag willen dat ZFSGuru de APM instellingen voor m'n disks naar 254 forceert. Dat heb ik geconfigureerd in /etc/rc.conf
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
| ## ZFSguru autostart zfsguru_enable="YES" # APM or Advanced Power Management controls power saving features of your hard # drives. To disable the dreaded 'headparking' feature, it is common to enable # APM to a setting of 254, to disable headparking altogether. zfsguru_apm_disks="ada0 ada1 ada2 ada3 ada4 ada5" zfsguru_apm_level="254" # To enable your disks to spindown whenever inactive for a number of seconds, # configure both the timer (in seconds) and the disks you want to be spun down. zfsguru_spindown_enable="NO" #zfsguru_spindown_timer="900" #zfsguru_spindown_disks="ada0 ada1 ada2 ada3 ada4 ada5" # If you have a pool with L2ARC cache devices present, you might want to warm # up the L2ARC right after boot with metadata. We can do that by scanning all # directory layout which will cause metadata to be written to the L2ARC cache. zfsguru_l2arc_warmup_enable="NO" |
Kennelijk niet de juiste plek? Waar moet ik wel zijn in version: 0.2.0-beta8 (op 9.1-006/FreeBSD 9.1-RELEASE-p4)
Is het echt nodig voor ZFS om deze kaart naar de IT firmware te flashen?
Het punt is dat standaard de M1015 alle aangesloten hard disks gewoon via passthrough direct al doorsluist naar het OS en zich dus als een domme HBA opstelt.
Dat is heel anders dan het (ongewenste) gedrag van zeg een HighPoint kaart waarbij je van iedere disk een losse jbod moet maken om door het OS gezien te kunnen worden.
Wat voegt de IT-mode dan toe? Het enige voordeel wat ik zie is dat je de boot tijd wat kunt verkorten door de bootrom niet mee te flashen, maar die paar seconden extra maken mij niet uit.
Ik heb een poging gedaan om de IT firmware op een van de kaarten te zetten, maar de sas2flash.efi tool herkent de kaart niet.
[ Voor 12% gewijzigd door Q op 12-01-2014 19:39 ]
zfsguru gebruikt 4,7gb virtueel geheugen en er wordt niks van mijn 16 gb ram gebruikt?
[ Voor 34% gewijzigd door ikkeenjij36 op 12-01-2014 20:00 ]
De IT-mode gebruikt een heel andere driver (mps) dan de IR-mode firmware (mfi). Voor zover ik weet zit er veel verschil tussen beide drivers. In feite is de IR-mode altijd RAID geactiveerd; het zijn allemaal enkele RAID0-arrays, zeg maar. Bij Areca passthrough overigens niet anders.
IR-mode werkte eerst niet voor de SAS2008-chips (6Gbps LSI) onder FreeBSD, maar nu is daar dus een nieuwe driver voor die wel redelijk werkt. IT mode kun je denk ik het beste draaien; volgens mij heb je dan minder kans op driver issues.
@RudolfR: wat werkt er niet aan die instellingen? Als je reboot is ada0 bijvoorbeeld niet op APM 254 ingesteld? Je disks ondersteunen wel APM? Wat zegt camcontrol identify ada0 ?
[ Voor 14% gewijzigd door Verwijderd op 12-01-2014 19:58 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Ik kan hem nog nergens vinden?
Ik mis inderdaad remote desktop. Ik wil eigenlijk niet naar mijn NAS moeten lopen om iets te installerenVerwijderd schreef op zondag 12 januari 2014 @ 15:08:
Kortom, wat mis je precies behalve een remote desktop? Dat laatste is nog niet beschikbaar maar Jason en ik hadden al wel wat gespeeld met X-vncserver en X-xrdp - beide kunnen denk ik wat jij wilt met VNC/RDP connecten en dan een grafische omgeving hebben, maar die spreek je dan aan vanaf je eigen Windows/Linux desktop via een VNC/RDP viewer, ipv direct op de server aangesloten monitor. Correct?
Wat ik nog meer "mis" is dat de installatie van qBittorrent niet duidelijk zijn. Bij de installatie geeft ie aan welke onderdelen ie mist en vraagt deze eerst te installeren (dat is goed!). Waar het mis ging, is dat ie niet vroeg of gnome desktop geinstalleerd moet worden. Wat nog makkelijker zou zijn, is het installeren van een service met 1 click ipv 4 (1 de service en 3 andere onderdelen).
Overigens zit er een (mogelijk) bug in beta 8 bij qBittorrent. Na installatie EN activatie van WebUI via de desktop is nog nog steeds niet mogelijk via het "service paneel' van ZFSguru in qBittorrent te komen. Zfsguru blijft aangeven dat je de desktop moet gebruiken om qBittorrent te activeren.
@CiPHER: Dat klopt, volgens de ZFSGuru webinterface staat de APM na 't booten op 128.Verwijderd schreef op zondag 12 januari 2014 @ 19:57:
@RudolfR: wat werkt er niet aan die instellingen? Als je reboot is ada0 bijvoorbeeld niet op APM 254 ingesteld? Je disks ondersteunen wel APM? Wat zegt camcontrol identify ada0 ?
Via de webinterface heb ik nu 254 ingesteld, en dat zie ik daar ook terug. Ook camcontrol identify bevestigt dat het instellen gewerkt heeft. Tijdens het booten zie ik altijd wel een zfsguru control script uitgevoerd worden, maar die geeft weinig output of doet niets.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
| pass2: <SAMSUNG HN-M101MBB 2AR10001> ATA-8 SATA 2.x device pass2: 300.000MB/s transfers (SATA 2.x, UDMA6, PIO 8192bytes) protocol ATA/ATAPI-8 SATA 2.x device model SAMSUNG HN-M101MBB firmware revision 2AR10001 serial number S2R8J9BB908460 WWN 50024e92061c31f5 cylinders 16383 heads 16 sectors/track 63 sector size logical 512, physical 512, offset 0 LBA supported 268435455 sectors LBA48 supported 1953525168 sectors PIO supported PIO4 DMA supported WDMA2 UDMA6 media RPM 5400 Feature Support Enabled Value Vendor read ahead yes yes write cache yes yes flush cache yes yes overlap no Tagged Command Queuing (TCQ) no no Native Command Queuing (NCQ) yes 32 tags SMART yes yes microcode download yes yes security yes no power management yes yes advanced power management yes yes 254/0xFE automatic acoustic management yes no 0/0x00 254/0xFE media status notification no no power-up in Standby yes no write-read-verify no no unload yes yes free-fall no no data set management (TRIM) no |
--------
Het forceren van de SATA revisie heeft wel iets geholpen, de foutmelding is niet weg, maar m'n pool blijft online.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
| Jan 12 18:54:44 zfsguru kernel: ahcich0: Timeout on slot 21 port 0 Jan 12 18:54:44 zfsguru kernel: ahcich0: is 00000000 cs 00000000 ss fe200003 rs fe200003 tfd 40 serr 00000000 cmd 0000c117 Jan 12 18:54:44 zfsguru kernel: (ada0:ahcich0:0:0:0): READ_FPDMA_QUEUED. ACB: 60 80 e5 b4 aa 40 0a 00 00 00 00 00 Jan 12 18:54:44 zfsguru kernel: (ada0:ahcich0:0:0:0): CAM status: Command timeout Jan 12 18:54:44 zfsguru kernel: (ada0:ahcich0:0:0:0): Retrying command Jan 12 18:54:52 zfsguru kernel: (ada0:ahcich0:0:0:0): READ_FPDMA_QUEUED. ACB: 60 80 e5 b4 aa 40 0a 00 00 00 00 00 Jan 12 18:54:52 zfsguru kernel: (ada0:ahcich0:0:0:0): CAM status: ATA Status Error Jan 12 18:54:52 zfsguru kernel: (ada0:ahcich0:0:0:0): ATA status: 41 (DRDY ERR), error: 40 (UNC ) Jan 12 18:54:52 zfsguru kernel: (ada0:ahcich0:0:0:0): RES: 41 40 30 b5 aa 40 0a 00 00 00 00 Jan 12 18:54:52 zfsguru kernel: (ada0:ahcich0:0:0:0): Retrying command Jan 12 18:54:59 zfsguru kernel: (ada0:ahcich0:0:0:0): READ_FPDMA_QUEUED. ACB: 60 80 e5 b4 aa 40 0a 00 00 00 00 00 Jan 12 18:54:59 zfsguru kernel: (ada0:ahcich0:0:0:0): CAM status: ATA Status Error Jan 12 18:54:59 zfsguru kernel: (ada0:ahcich0:0:0:0): ATA status: 41 (DRDY ERR), error: 40 (UNC ) Jan 12 18:54:59 zfsguru kernel: (ada0:ahcich0:0:0:0): RES: 41 40 30 b5 aa 40 0a 00 00 00 00 Jan 12 18:54:59 zfsguru kernel: (ada0:ahcich0:0:0:0): Retrying command Jan 12 18:55:09 zfsguru kernel: (ada0:ahcich0:0:0:0): READ_FPDMA_QUEUED. ACB: 60 80 e5 b4 aa 40 0a 00 00 00 00 00 Jan 12 18:57:48 zfsguru kernel: (ada0:ahcich0:0:0:0): CAM status: ATA Status Error Jan 12 18:57:48 zfsguru kernel: (ada0:ahcich0:0:0:0): ATA status: 41 (DRDY ERR), error: 40 (UNC ) Jan 12 18:57:48 zfsguru kernel: (ada0:ahcich0:0:0:0): RES: 41 40 e8 50 2e 40 0a 00 00 00 00 Jan 12 18:57:48 zfsguru kernel: (ada0:ahcich0:0:0:0): Retrying command Jan 12 18:57:48 zfsguru kernel: (ada0:ahcich0:0:0:0): READ_FPDMA_QUEUED. ACB: 60 80 6c 50 2e 40 0a 00 00 00 00 00 Jan 12 18:57:48 zfsguru kernel: (ada0:ahcich0:0:0:0): CAM status: ATA Status Error Jan 12 18:57:48 zfsguru kernel: (ada0:ahcich0:0:0:0): ATA status: 41 (DRDY ERR), error: 40 (UNC ) Jan 12 18:57:48 zfsguru kernel: (ada0:ahcich0:0:0:0): RES: 41 40 e8 50 2e 40 0a 00 00 00 00 Jan 12 18:57:48 zfsguru kernel: (ada0:ahcich0:0:0:0): Error 5, Retries exhausted |
10.0.001 is inderdaad gereleased (system --> instal --> root-on-zfs --> versie kiezen)ikkeenjij36 schreef op zondag 12 januari 2014 @ 20:01:
Beste cipher is het nwe image al gereleased?
Ik kan hem nog nergens vinden?
Beta 9 is nog niet gereleased en komt binnen enkele dagen, er is namelijk een bug gevonden in FreeBSD.
Beta 9 is nog niet gereleased en komt binnen enkele dagen, er is namelijk een bug gevonden in FreeBSD.
[/quote]
Ja dat 10.0.001 er al was dat wist ik maar daar zitten ook een paar bugs in nog:bv.gnome desktop wil niet downloaden.
Nou dan wacht ik tot volgend weekend tot beta9 er wel is.


ikkeenjij36 schreef op zondag 12 januari 2014 @ 20:32:
10.0.001 is inderdaad gereleased (system --> instal --> root-on-zfs --> versie kiezen)
Beta 9 is nog niet gereleased en komt binnen enkele dagen, er is namelijk een bug gevonden in FreeBSD.
[/quote]
Ja dat 10.0.001 er al was dat wist ik maar daar zitten ook een paar bugs in nog:bv.gnome desktop wil niet downloaden.
Nou dan wacht ik tot volgend weekend tot beta9 er wel is.![]()

Bedankt CiPHER, ik gebruik ZFS on Linux, ik zal verder kijken hoe het zit.Verwijderd schreef op zondag 12 januari 2014 @ 19:57:
@Q:
De IT-mode gebruikt een heel andere driver (mps) dan de IR-mode firmware (mfi). Voor zover ik weet zit er veel verschil tussen beide drivers. In feite is de IR-mode altijd RAID geactiveerd; het zijn allemaal enkele RAID0-arrays, zeg maar. Bij Areca passthrough overigens niet anders.
IR-mode werkte eerst niet voor de SAS2008-chips (6Gbps LSI) onder FreeBSD, maar nu is daar dus een nieuwe driver voor die wel redelijk werkt. IT mode kun je denk ik het beste draaien; volgens mij heb je dan minder kans op driver issues.
Dat is geen bug in FreeBSD, dat is een outdated port (of missende sourceball)
"Religion is an insult to human dignity. With or without it you would have good people doing good things and evil people doing evil things. But for good people to do evil things, that takes religion." - Steven Weinberg
@EnerQi:
Is geen bug, maar een feature van qBitTorrent. Je moet eerst in de instellingen van QBitTorrent de remote functionaliteit inschakelen; dat doe je dus via de desktop icon en daar heb je Gnome en het ratteplan nodig. Pas daarna kun je de interface via de web-interface bereiken op afstand.Overigens zit er een (mogelijk) bug in beta 8 bij qBittorrent. Na installatie EN activatie van WebUI via de desktop is nog nog steeds niet mogelijk via het "service paneel' van ZFSguru in qBittorrent te komen. Zfsguru blijft aangeven dat je de desktop moet gebruiken om qBittorrent te activeren.
Bij Transmission heb je een duidelijke scheiding (-daemon en -qt4 en -gtk frontends) maar bij qBitTorrent niet. Vandaar dat je qBitTorrent niet zonder grafische schil kunt draaien. Daar kan ZFSguru niets aan doen, afgezien van helemaal niet supporten.
Nu gebeurde het bij het verwijderen van een ramdisk.
1
| [root@zfsguru ~]# ctladm remove -b ramdisk -l 0 |
Dit is nu vandaag al de 4e keer.
Hebben meer mensen hier gelijke ervaringen mee?
Ik denk dat het wel een bug is. De webinterface moet inderdaad via de desktop geactiveerd worden en dit werkt ook (zfsguru:9090 bij mij ). Mocht ik via ZFSguru services panel naar qbittorrent gaan, lukt dit niet. Blijkbaar gaat het service paneel naar zfsguru:8080.Pas daarna kun je de interface via de web-interface bereiken op afstand.
@EnerQi: oh in dat geval kan het zijn dat qBitTorrent is geswitched van port nummer. Ik zal het doorgeven aan Jason, volgende systeemversie zou het dan op 9090 ingesteld moeten zijn. Bedankt voor het doorgeven!
Zie hier de smartctl -A /dev/sdk output:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
| # smartctl -A sdk smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.11.1-200.fc19.x86_64] (local build) Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org === START OF READ SMART DATA SECTION === SMART Attributes Data Structure revision number: 16 Vendor Specific SMART Attributes with Thresholds: ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x000b 092 092 062 Pre-fail Always - 2162699 2 Throughput_Performance 0x0005 100 100 040 Pre-fail Offline - 0 3 Spin_Up_Time 0x0007 167 167 033 Pre-fail Always - 1 4 Start_Stop_Count 0x0012 100 100 000 Old_age Always - 480 5 Reallocated_Sector_Ct 0x0033 001 001 005 Pre-fail Always FAILING_NOW 0 7 Seek_Error_Rate 0x000b 100 100 067 Pre-fail Always - 0 8 Seek_Time_Performance 0x0005 100 100 040 Pre-fail Offline - 0 9 Power_On_Hours 0x0012 082 082 000 Old_age Always - 8235 10 Spin_Retry_Count 0x0013 100 100 060 Pre-fail Always - 0 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 135 191 G-Sense_Error_Rate 0x000a 100 100 000 Old_age Always - 0 192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 37 193 Load_Cycle_Count 0x0012 045 045 000 Old_age Always - 558820 194 Temperature_Celsius 0x0002 176 176 000 Old_age Always - 34 (Min/Max 15/49) 196 Reallocated_Event_Count 0x0032 001 001 000 Old_age Always - 7158 197 Current_Pending_Sector 0x0022 100 100 000 Old_age Always - 8 198 Offline_Uncorrectable 0x0008 100 100 000 Old_age Offline - 0 199 UDMA_CRC_Error_Count 0x000a 200 200 000 Old_age Always - 0 223 Load_Retry_Count 0x000a 100 100 000 Old_age Always - 0 |
P.S: Ik ben alweer aan het mailen met de webshop om de schijf terug te sturen. Lang leve RAID-Z2 \o/
EDIT: Ook zie ik nu al dat mijn Raw_Read_Error_Rate echt belachelijk hoog is... 2.162.699, ruim 2 miljoen lees fouten dus, dat lijkt me geen heel fijn iets

[ Voor 50% gewijzigd door Xudonax op 13-01-2014 00:21 ]
Uit zelf zoeken kwam ik de Dell PowerEdge 6Gbps SAS HBA tegen, die -lijkt- zeer sterk op de 9200-8e, maar daar kan ik verder weinig uit opmaken.. plus, deze zijn ook best prijzig.. dus dan kan ik net zo goed de 9200 kopen
Wat voor schijf is het? Verschilt per vendor hoe de RER moet worden geinterpreteerd.Xudonax schreef op maandag 13 januari 2014 @ 00:06:
Dan zal ik de mail naar de winkel nog even laten voor wat het isDe schijf heb ik iig eruit geplukt omdat ik ook regelmatig up/down spins hoorde, en dat irriteerde me.
EDIT: Ook zie ik nu al dat mijn Raw_Read_Error_Rate echt belachelijk hoog is... 2.162.699, ruim 2 miljoen lees fouten dus, dat lijkt me geen heel fijn ietsZeker aangezien alle 5 de andere schijven deze gewoon keurig op 0 hebben staan. Wel heeft deze schijf minder powercycles (ongeveer 10) gehad dan de rest van de serie. Raar gedoe.
Het maffe is, als ik op ESX de disk met fdisk een partitie aanmaak en sluit af met een 'w' en doe daarna weelr een fdisk /dev/sdg de partitie weer weg is!Verwijderd schreef op zondag 12 januari 2014 @ 23:33:
@Byte: schop je de disk er zo bruut uit terwijl hij mounted/inuse is ofzo?
Het zelfde gedrag heb ik met een disk die ik op de pool heb aangemaakt.
truncate -s 100g /ssd_pool1/share/FC1
ctladm -b block -o /ssd_pool1/share/FC1
Dus, tja.... definieer bruut/mounted/inuse/...
Is er dan een andere manier van een disk verwijderen via ctladm?
Als een client het niet leuk zal vinden bij een gemounte/actieve disk.... daar kan ik mij iets bij voorstellen.
Maar dat ZFSguru er van over de ..... gaat, is op zijn zachts gezegd bijzonder te noemen.
Ik heb een maand of vier geleden voor netto €90 een "echte" LSI in HBA-variant van eBay gehaald. Scheelde een hoop gedoe met firmware enzo t.o.v. de M1015.DXaroth schreef op maandag 13 januari 2014 @ 01:20:
Heeft iemand toevallig een idee of er ook rebranded (en goedkopere) versies zijn van de LSI 9200-8e ? .. de chip lijkt dezelfde te zijn als die van de IBM M1015 (wat de LSI 9240-8i lijkt te zijn), wat dus mooi zou moeten werken voor mijn esxi+zfs idee.
Kia e-Niro 2021 64 kWh DynamicPlusLine. See my GitHub and my blog for articles on security and other stuff.
Het zijn allemaal Hitachi Travelstar 5K1000 schijfjes, en de schijf waar het hier over gaat die zegt sinds gisteren ook af en toe "tsak"Panzy schreef op maandag 13 januari 2014 @ 02:15:
[...]
Wat voor schijf is het? Verschilt per vendor hoe de RER moet worden geinterpreteerd.
Dat is wellicht idd een optie ... krijg ook net te horen van Silverstone in taiwan dat het geen haast heeft; hun enclosure komt pas Q2 2014 uitgertvdijk schreef op maandag 13 januari 2014 @ 07:14:
[...]
Ik heb een maand of vier geleden voor netto €90 een "echte" LSI in HBA-variant van eBay gehaald. Scheelde een hoop gedoe met firmware enzo t.o.v. de M1015.
DXaroth schreef op maandag 13 januari 2014 @ 10:01:
Dat is wellicht idd een optie ... krijg ook net te horen van Silverstone in taiwan dat het geen haast heeft; hun enclosure komt pas Q2 2014 uit
welke enclosure?
Ontopic: Ik ben best wel ongeduldig naar de zfsguru updat
\\ Baloo \\ Mijn iRacing profiel
MikeVM schreef op maandag 13 januari 2014 @ 11:46:
[...]
offtopic:
welke enclosure?
Ontopic: Ik ben best wel ongeduldig naar de zfsguru updatik kijk er naar uit!

Mijn ruimte is erg beperkt, en als je dus wel mee wilt doen aan het 10-TB-plus topic, dan moet men creatief worden
[ Voor 7% gewijzigd door DXaroth op 13-01-2014 12:21 ]
Vers van de pers, beta9 aangeboden. Prijs: gratis.

Release notes
Dear ZFSguru users,
I'm very pleased to announce the availability of the much anticipated 'beta9' web-interface release. Worked on for months, the name really does injustice to all the work. It is an important release and also a good step forward for the ZFSguru project.
Special care was given to the user interface for the new functionality. The user interface has been designed to please both casual users as well as more experienced users, who want more control. The drag&drop functionality in beta9 may please many users, since it makes configuring permissions such a delight. An interface that would be easy to use for many - without help or documentation. That was a real challenge! It is up to you to judge whether we succeeded. ;-)
Beta9 highlights:
- ZFS v5000 compatibility, now supports ZFS v5000 feature flags such as LZ4 compression.
- Samba overhaul. All Samba functionality has been redesigned to meet user expectations.
- User permissions can now be easily managed using a drag & drop interface.
- NFS overhaul. All NFS functionality has been redesigned to meet user expectations.
- NFS and Samba permissions now compatible with default configuration.
- Easier SSH access configuration on the Access->SSH page.
- Services page redesigned; service panels now are given their own page, as requested by users.
- Extended System->Booting page with functionality to delete unused ZFSguru installations.
- Fixed known bugs in beta8 interface.
- Updated MBR bootcode to allow booting from v5000 pools.
- Graphical enhancements.
Totdat ik eens die lange reactie krijg:
Kosten: Geen
Prijs: Gratis
[ Voor 17% gewijzigd door CurlyMo op 13-01-2014 21:12 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Pun intended?Verwijderd schreef op maandag 13 januari 2014 @ 20:19:
[color=#d22][font=sansserif,28]ZFSguru beta9 is beschikbaar![/font][/color]
....
An interface that would be easy to use for many - without help or documentation.
Ik ben wel benieuwd naar de NFS en Samba verbeteringen. Vooral of er meer ook wat zaken onder de motorkap aangepakt zijn, dus niet alleen het user deel. Maar hoe dan ook, mooi dat beta9 er is.
[ Voor 4% gewijzigd door Dadona op 13-01-2014 22:07 ]
drag en drop werkt bij mij niet, zowel in chrome als IE, wat doe ik verkeerd?
Edit: FreeBSD 9.2 BTW
[ Voor 11% gewijzigd door MikeVM op 14-01-2014 09:55 ]
\\ Baloo \\ Mijn iRacing profiel
Bij mij ook niet.MikeVM schreef op dinsdag 14 januari 2014 @ 09:45:
@zfsguru Beta9
drag en drop werkt bij mij niet, zowel in chrome als IE, wat doe ik verkeerd?
Windows: ie en chrome
Osx: safari en chrome
Alle 4 werkt niet dus het zal niet aan de browser/browsercache liggen
IE11 en Chrome 31.0.1650.63 m werken niet.
[ Voor 26% gewijzigd door RudolfR op 14-01-2014 14:03 ]
De CSS in elk geval is zo geschreven dat andere browsers ook supported zouden moeten zijn, door de verschillende vendortags (-webkit- -ie- -o- -moz- etc).
Ik weet al wat hieraan ontbreekt:RudolfR schreef op zondag 12 januari 2014 @ 18:18:
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 ## ZFSguru autostart zfsguru_enable="YES" # APM or Advanced Power Management controls power saving features of your hard # drives. To disable the dreaded 'headparking' feature, it is common to enable # APM to a setting of 254, to disable headparking altogether. zfsguru_apm_disks="ada0 ada1 ada2 ada3 ada4 ada5" zfsguru_apm_level="254" # To enable your disks to spindown whenever inactive for a number of seconds, # configure both the timer (in seconds) and the disks you want to be spun down. zfsguru_spindown_enable="NO" #zfsguru_spindown_timer="900" #zfsguru_spindown_disks="ada0 ada1 ada2 ada3 ada4 ada5" # If you have a pool with L2ARC cache devices present, you might want to warm # up the L2ARC right after boot with metadata. We can do that by scanning all # directory layout which will cause metadata to be written to the L2ARC cache. zfsguru_l2arc_warmup_enable="NO"
zfsguru_apm_enable="YES"

Dan werkt het stukken beter.
Hier werkt het gedeeltelijk in IE10, als ik de user sleep naar "User with full acces" - "drag here" gebeurd er niets zichtbaars in de interface , maar onderliggend werkt het wel, kan dus wel inloggen met username en password op betrefende share.MikeVM schreef op dinsdag 14 januari 2014 @ 09:45:
@zfsguru Beta9
drag en drop werkt bij mij niet, zowel in chrome als IE, wat doe ik verkeerd?
Edit: FreeBSD 9.2 BTW
Ik heb vandaag mijn Mellanox (MHGH28-XTC) kaartjes binnen gekregen.
Ik ben nu alleen op zoek naar een howto om ze aan de gang te krijgen onder ZFSguru.
Kan iemand mij een richting aanwijzen?
Zodra de kaart (goed) gezien wordt en je de ipoib en mlxen modules laad, zou je een ethernet interface erbij moeten krijgen. (kan je zien met ifconfig -a)
Daar kan je dan gewoon een ip op zetten en gaan met de banaan
Even niets...
Iemand die iets kan maken van die SMART gegevens? Aka, is de schijf nu echt kapot (ik denk het zelf heel erg van wel) of is er gewoon iets raars mee aan de hand wat te fixen valt?Xudonax schreef op zondag 12 januari 2014 @ 23:53:
Ik heb weer eens een dooie disk, dit keer meld SMART het me ipv dat ik het in zpool status terug zie. Hoe komt het nu dat ik dit wél in de SMART data zie, maar dat dit niet terug te vinden is in de ZFS tools?
Zie hier de smartctl -A /dev/sdk output:http://pastebin.com/VC1c5AdD
Ziet er niet goed uit, maar zolang de schijf het zelf nog kan repareren heeft ZFS hier ook geen last van.
Wat ik wel raar vind is deze
FAILING_NOW terwijl alles nog op 0 staat.
Als smart aangeeft FAILING_NOW, dan kun je maar beter het zekere voor het onzekere nemen en de schijf wisselen.
Hier een link naar een blog
http://www.dlaube.com/201...-a-sata-drive-is-failing/
gr
johan
EDIT: Oh wow, binnen 2 minuten al een reactie op mijn RMA verzoek. Die zijn snel!
[ Voor 31% gewijzigd door Xudonax op 14-01-2014 22:05 ]
Even niets...
Hmmmm...FireDrunk schreef op dinsdag 14 januari 2014 @ 19:27:
https://forums.freebsd.org/viewtopic.php?t=28792
Zodra de kaart (goed) gezien wordt en je de ipoib en mlxen modules laad, zou je een ethernet interface erbij moeten krijgen. (kan je zien met ifconfig -a)
Daar kan je dan gewoon een ip op zetten en gaan met de banaan
Die ging ff niet helemaal goed. Na de buildkernel en installkernel de reboot...
Het duurde 1208 seconden om weer terug 'online' te komen
De pings fluctueren tussen de 2 ms en 4700 ms en het lijkt er op dat de services als lighttpd en ssh etc ook allemaal niet gestart zijn.
<<zucht>>
Morgen maar eens een monitor en keyboard aan hangen en wat damagecontrol gaan uitvoeren...
[oeps]
Ik zie net in de logging dat ik de 'make buildworld' heb overgeslagen

Is dat desastreus in deze situatie?
[ Voor 7% gewijzigd door ]Byte[ op 14-01-2014 22:37 ]
Desastreus is dat 'nooit' (POLA); binary compatibility is erg belangrijk voor de developers.]Byte\[ schreef op dinsdag 14 januari 2014 @ 22:17:
Ik zie net in de logging dat ik de 'make buildworld' heb overgeslagen![]()
Is dat desastreus in deze situatie?
Als je bij dezelfde major- en minorversie van FreeBSD blijft kan je alsnog een buildworld uitvoeren. Vergeet ook 'mergemaster' niet
Zie ook 23.7. Rebuilding “world”
Wat ik doe deed, qua stappen, met -CURRENT op een quadcore (dit geldt ook voor 9.2-R waar de source (uit src.txz) aanwezig is in /usr/src) is:
1
2
| # cd /usr/src # make -s -j4 buildworld buildkernel installkernel |
-s betekent 'silent'.
• Herstarten, en opstarten in single user mode.
• Eventueel 'mount -a' inrammen als je normaal gesproken UFS-slices mount.
1
2
3
4
| # mergemaster -p # cd /usr/src # make installworld # mergemaster |
• Herstarten.
Kortom, what he said: https://forums.freebsd.or...d8fe7066ef8495823#p160915
[ Voor 35% gewijzigd door 0xDEADBEEF op 14-01-2014 23:33 ]
"Religion is an insult to human dignity. With or without it you would have good people doing good things and evil people doing evil things. But for good people to do evil things, that takes religion." - Steven Weinberg
Kan nu wel inloggen.
De CPU heeft het ergens extreem druk mee. Zit nu op een load van rond de 20.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
| [root@zfsguru ~]# top last pid: 2758; load averages: 21.03, 18.40, 17.69 up 0+08:25:47 06:55:56 71 processes: 7 running, 63 sleeping, 1 zombie CPU: 3.7% user, 0.0% nice, 62.6% system, 16.2% interrupt, 17.5% idle Mem: 466M Active, 198M Inact, 1541M Wired, 29G Free ARC: 690M Total, 297M MFU, 147M MRU, 1380K Anon, 5201K Header, 239M Other Swap: 2048M Total, 2048M Free PID USERNAME THR PRI NICE SIZE RES STATE C TIME WCPU COMMAND 2746 root 1 36 0 16596K 2572K CPU2 2 0:16 4.79% top 1667 _sabnzbd 1 22 0 108M 25296K select 4 6:33 3.17% python2.7 1255 root 8 20 0 121M 49816K uwait 7 24:56 3.08% istgt 2380 root 1 52 0 18136K 13364K zio->i 2 14:57 2.98% find 2759 zabbix 1 22 0 14536K 2136K wait 3 0:00 2.98% sh 1409 _sabnzbd 12 20 0 167M 32888K usem 2 9:47 1.95% python2.7 1347 _sabnzbd 21 20 0 258M 63384K tx->tx 6 37:44 1.86% python2.7 1680 _sabnzbd 16 20 0 193M 47516K select 2 13:40 1.07% python2.7 1340 _sabnzbd 32 20 0 197M 38880K usem 0 29:28 0.59% python2.7 1513 _sabnzbd 13 20 0 202M 37712K select 6 12:27 0.39% python2.7 1653 _sabnzbd 13 20 0 159M 21144K RUN 3 11:33 0.39% python2.7 1441 www 1 20 0 33156K 4384K kqread 4 1:10 0.39% lighttpd 1671 avahi 1 21 0 30364K 3200K select 6 5:25 0.10% avahi-daemon 1219 zabbix 1 20 0 19860K 2180K RUN 3 4:09 0.10% zabbix_agentd 1217 zabbix 1 20 0 19860K 2296K piperd 3 1:46 0.10% zabbix_agentd 1660 clamav 1 20 0 45460K 14128K tx->tx 4 9:35 0.00% freshclam [...] |
Wie: wat en wat
Wat: wat en wat?
Heppu het over, mensch?
En daarom gebruik je dus jQuery... Die doet dat al voor je...Verwijderd schreef op dinsdag 14 januari 2014 @ 14:08:
Oke, dat kan nog gefixed worden. Nou dacht ik wel dat Jason het ook in Chrome had getest, dat zal ik nog eens vragen. Maar goed het werkt dus in feite alleen in Firefox nu en niet in andere browsers (IE/Chrome/Safari).
De CSS in elk geval is zo geschreven dat andere browsers ook supported zouden moeten zijn, door de verschillende vendortags (-webkit- -ie- -o- -moz- etc).
iets met: I told you so...
Even niets...
Dat de nieuwe functionaliteit nog niet in alle browsers werkt is ook niet zo erg; zolang bestaande functionaliteit er maar niet op achteruit gaat, is het niet erg dat nieuwe dingen nog verbetering behoeft. Bovendien volgen de web-interface releases elkaar nu sneller op, zodat de fixes die we aanbrengen ook relatief snel naar de gebruiker vloeit.
PS. Discussie hierover kan beter in het ZFSguru topic. jQuery heeft natuurlijk niets met ZFS te maken.
[ Voor 8% gewijzigd door Verwijderd op 15-01-2014 08:35 ]
idd, firefox werkt wel. thxVerwijderd schreef op dinsdag 14 januari 2014 @ 13:49:
Ik heb zelf enkel met Firefox getest; kunnen jullie dat ook eens proberen?
\\ Baloo \\ Mijn iRacing profiel
Ik heb ook met Safari en Chrome op OSX getest. Werkte ook beiden niet. Daarna maar weer terug geswitched naar de versie ervoor.Verwijderd schreef op dinsdag 14 januari 2014 @ 13:49:
Ik heb zelf enkel met Firefox getest; kunnen jullie dat ook eens proberen?
MacBook Pro 2023 [14-inch, M2 Pro, 32GB RAM, 512GB]
De juiste manier is om de juiste CSS aan te leveren, kost paar regels meer in je .css , maar het werkt beter dan met javascript.FireDrunk schreef op woensdag 15 januari 2014 @ 08:12:
[...]
En daarom gebruik je dus jQuery... Die doet dat al voor je...
iets met: I told you so...
Reden is ook simpel; CSS wordt toegepast vanaf het moment dat het wordt gelezen, javascript vanaf het moment dat de DOM klaar is (tenzij je vage truukjes gaat toepassen die niet altijd lekker werken)... dan krijg je dus FUOC
Dat het drag en drop van zfsguru onder Windows 8.1 in internet Explorer en chrome en mac osx met safari en chrome niet werktGralgrathor schreef op woensdag 15 januari 2014 @ 08:00:
[...]
Wie: wat en wat
Wat: wat en wat?
Heppu het over, mensch?
Ik heb nu Firefox getest en dat werkt wel in beide
... Gaan we schelden?mcied schreef op woensdag 15 januari 2014 @ 11:28:
[...]Dat het drag en drop van zfsguru onder in en en met en niet werkt
Lees op verschillende plekken dat sleeps via hdparams setten niet verstandig is aangezien het OS niet weet wanneer welke disk wat moet wegschrijven van de ZFS software en je zo iets kan missen... tips?
Als iemand een handige manier weet om via Android foon een Ubuntu systeem uit te schakelen en, lastiger, weer op te starten (wake on lan?) dan vind ik dat ook een prima oplossing
[ Voor 15% gewijzigd door CU2morO op 15-01-2014 15:01 ]
Even niets...
De enige schijven die constant draaien zitten niet in een ZFS pool
Toch goed om te zien dat het anderen ook bezighoud en er steeds meer aandacht voor komt!
maar dit duurt toch vrij lang imo.
nu heb ik opgezocht hoe dat kan versneld worden en ik stuit hierop
bronmv -- move files
-h If the target operand is a symbolic link to a directory, do not
follow it. This causes the mv utility to rename the file source
to the destination path target rather than moving source into the
directory referenced by target.
nu is mijn vraag, heeft zfs (ZFSGURU) een "symbolic link"?
\\ Baloo \\ Mijn iRacing profiel
Sinds de 2 dagen regel reageer ik hier niet meer
Leuk artikeltje!Mystic Spirit schreef op woensdag 15 januari 2014 @ 21:14:
Misschien een iets te newbie post voor dit topic, maar ik wilde het jullie toch niet onthouden. Ars technica heeft een lekker leesbaar artikel geschreven over "next gen" filesystems (ZFS en voornamelijk btrfs). http://arstechnica.com/in...ide-next-gen-filesystems/
Toch goed om te zien dat het anderen ook bezighoud en er steeds meer aandacht voor komt!
Even niets...
maar de bestanden blijven op één en dezelfde pool,CurlyMo schreef op donderdag 16 januari 2014 @ 08:24:
Verplaatsen tussen pools doe je nooit met mv of cp. Die checken niet of bestanden ook daadwerkelijk correct aankomen. Gebruik de interne ZFS send / receive of tools zoals rsync.
edit: zfs Send/Receive is veel te ingewikkeld
rsync geinstalleerd, en nu doe ik dit
1
| rsync -rv /Bron /Doel |
maar echt veel sneller lijkt dit niet
een bestand verplaatsen moet toch echt instant gaan, en niet tegen 100MB/s
ik moet nog 15TB verplaatsen.. (het is op dezelfde pool, ik hem maar 1 datapool)
[ Voor 32% gewijzigd door MikeVM op 16-01-2014 10:20 ]
\\ Baloo \\ Mijn iRacing profiel
Dat is wel laag ja.MikeVM schreef op donderdag 16 januari 2014 @ 09:21:
[...]
een bestand verplaatsen moet toch echt instant gaan, en niet tegen 100MB/s
Heb je ook al eens geprobeerd te experimenteren met een grote blocksize? (-B)
Maar je bent niet zozeer aan het verplaatsen als wel aan het kopieren. Feitelijk dus gewoon terabytes aan nieuwe bestanden naar je array aan het schrijven. 100MB/s lijkt me geen onredelijke schrijfsnelheid. Misschien dat je met de nodige tweaks nog een kleine performance-verbetering kunt behalen, maar toch echt geen wonderen...MikeVM schreef op donderdag 16 januari 2014 @ 09:21:
[...]
een bestand verplaatsen moet toch echt instant gaan, en niet tegen 100MB/s
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.