Dan maakt het inderdaad weinig uit wat je kiest qua disks en/of OS. Als het alleen maar om platte media/storage gaat zijn Red's en/of Green's prima, en is elk os toereikend.
Even niets...
Even niets...
Hier ben ik het totaal mee oneens..FireDrunk schreef op donderdag 18 september 2014 @ 12:38:
De configuratie van de FreeBSD in-kernel iSCSI implementatie is net zo moeilijk als onder Linux, dus dat maakt het verschil niet.
Nee, eigenlijk niet. Tot zover ik weet is het enige verschil tussen Reds en Greens de apm/aam parameters in de firmware.Loekie schreef op donderdag 18 september 2014 @ 12:21:
Ik zit qua schijven te twijfelen tussen, de WD Red en Green. De langere garantie van de RED spreekt mij aan(heb paar greens buiten de 2 jaar moeten vervangen). Zijn er buiten de prijs andere redenen om de green boven de red te verkiezen? Voor mij is het geen probleem om met WDIDLE wat settings aan te passen qua apm.
[ Voor 6% gewijzigd door Compizfox op 18-09-2014 21:01 ]
Gewoon een heel grote verzameling snoertjes
dat dos verhaal..blobber schreef op donderdag 18 september 2014 @ 00:13:
[...]
Gelukkig is er een tooltje van wd, genaamd wdidle3.exe.Dit is een dos tooltje, waarmee je de idle tijd kunt vergroten tot maximaal 300 seconden.
even googlen op wdidle3 en je vindt veel meer info
\\ Baloo \\ Mijn iRacing profiel
Klinkt misschien een beetje raar uit mijn toetsenbord na de probleempjes van afgelopen week, maar wat precies zijn jouw ervaringen met die combi waardoor je niet zo enthousiast bent?FireDrunk schreef op donderdag 18 september 2014 @ 12:38:
ZFS + NFS en ESXi gaan niet zo lekker samen in mijn ervaring, en ik zou je van harte aanraden om iSCSI te gebruiken. De verschillen in performance (zelfs met een SLOG, of zelfs SYNC=Disabled) zijn fenomenaal.
Kijk hier maar eens: https://superuser.com/que...te-bootable-dos-usb-stickMikeVM schreef op donderdag 18 september 2014 @ 20:51:
[...]
dat dos verhaal..
moet ik dan in DOS booten (via een CD ofzo?) om dan het deze ulility (die ik via het web download) uitvoeren?
To See A World In A Grain Of Sand, And A Heaven In A Wild Flower, Hold Infinity In The Palm Of Your Hand, And Eternity In An Hour
Bron: The ZFS Storage Blog! (mijn eigen blogBerkeley schreef op donderdag 18 september 2014 @ 16:26:
[...]
Hier ben ik het totaal mee oneens..
Misschien omdat ik beter bekend ben met FreeBSD dan met Gnu/linux.. Maar als je het handboek(https://www.freebsd.org/doc/handbook/network-iscsi.html) gebruikt ben je er zo uit.. Dit is in mijn ervaring bij Debian(de rest weet ik niet) niet het geval..
apt-get install targetcli --no-install-recommends targetcli [enter] Nu zie je iets als: (Als je voor de eerste keer de targetcli start, krijg je wat groene meldingen van kernel modules die geladen worden, dat hoort zo) root@NAS:~# targetcli targetcli GIT_VERSION (rtslib GIT_VERSION) Copyright (c) 2011-2013 by Datera, Inc. All rights reserved. /> Nu is het eigenlijk heel simpel: cd backstores/iblock create lun0 /dev/zvol/jepoolnaam/jefilesystem/zvolnaam cd /iscsi create cd iqn[tab]/tpgt1 set attribute authentication=0 cd portals create [ip adres] cd .. cd acls create [wwn van je guest] cd .. cd luns create /backstores/iblock/lun0 cd / saveconfig En klaar!
NFS levert bij mij gewoon substantieel lagere performance. Ik heb wel ergens harde cijfers, maar die staan op mijn desktop... Je gaat het vooral merken in Random IO (wat altijd trager is bij NFS, zelfs op SSD's, en zelfs met Sync uit. Je gaat het nog meer merken bij multipathing. NFS doet (bij versie 2 en 3) gewoon geen Multipathing... Stapel je dus meerdere 1 Gbit verbindinge, haal je gewoon maximaal maar 1 Gbit.hansdegit schreef op donderdag 18 september 2014 @ 22:37:
[...]
Klinkt misschien een beetje raar uit mijn toetsenbord na de probleempjes van afgelopen week, maar wat precies zijn jouw ervaringen met die combi waardoor je niet zo enthousiast bent?
Ik ben er eigenlijk wel positief over: OS schijven allemaal op de SSD tier, datadisken op WD-red. Voor ESXi zijn dat natuurlijk gewoon files op een NFS volume. Ik vind de performance prima en ik acht de setup ook redelijk flexibel.
Ik sta open voor nieuwe leerervaringen
Even niets...
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Even niets...
Je zou nog een 4x4TB vdev toe kunnen voegen of backup maken van je data een een nieuwe pool opbouwen.FireDrunk schreef op maandag 29 september 2014 @ 12:00:
Om maar weer eens een goede use case op tafel te smijten... Mijn array is zo goed als vol
Ik heb 4*4TB in RAIDZ 1, maar zou best 2 of 3 schijven bij willen plaatsen...
Lastige is nu, hoe doe je dat?
Mensen met ideeën?
Even niets...
Die vdev heeft weer zijn eigen redundancy, je hebt dan 2x 4 schijven waarvan ieder één schijf redundancy.FireDrunk schreef op maandag 29 september 2014 @ 12:05:
2e vdev kan idd, maar dan word de redundancy wel weer matig... 8 schijven en eigenlijk maar 1 schijf redundancy...
Als je ergens één 4 TB schijf kunt lenen dan kan het wel. Of als je 4 TB vrij hebt (of kunt maken) op je array dmv wat USB-schijven of zo.Liefst zou ik denk ik naar 10 schijven in RAIDZ2 gaan, maar het migratie scenario is dan niet echt makkelijk
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Even niets...
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Even niets...
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Even niets...
Bedankt voor je reactie.Paul schreef op zondag 28 september 2014 @ 19:35:
Je data blijft gewoon staan. Desnoods maak je een backup van je settings en installeer je 9 op een andere USB-stick, dan kun je het proberen. Zolang je het ZFS-level niet ophoogt (ik weet niet of er wijzigingen zijn op dat gebied tussen 8 en 9) kun je gewoon terug naar 8.
In de guidestaat een stuk over updaten.
Hoe dat in 8 zit weet ik niet, in 9 kun je gewoon in de webinterface aangeven welke storage je jail moet krijgen.
[ Voor 20% gewijzigd door FireDrunk op 29-09-2014 15:21 ]
Even niets...
Even niets...
Ken 't dilemma en 't pijnlijke gevoel bij de gedachten aan t geldFireDrunk schreef op maandag 29 september 2014 @ 12:50:
Mja, in 1 klap even 900 euro aan nieuwe schijven uitgeven
Misschien toch maar een keertje wat opschonen
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Ja, de informatie over de pool die er voor zorgt dat ik de complete pool weer kan importeren alsof er niets aan de hand isFireDrunk schreef op maandag 29 september 2014 @ 15:47:
Bedoel je de informatie *over* de pool? Want die staat gewoon op de schijven zelf...
pool: pool1 state: ONLINE scan: resilvered 12K in 0h0m with 0 errors on Tue Feb 5 19:08:27 2013 config: NAME STATE READ WRITE CKSUM pool1 ONLINE 0 0 0 raidz1-0 ONLINE 0 0 0 gpt/ada0 ONLINE 0 0 0 gpt/ada1 ONLINE 0 0 0 gpt/ada2 ONLINE 0 0 0 errors: No known data errors
[ Voor 12% gewijzigd door Plato112 op 29-09-2014 21:39 ]
Speed limits are like herpes.
[ Voor 3% gewijzigd door Kortfragje op 29-09-2014 23:10 ]
13 duizend reallocated sectors is inderdaad kolere veel; maar ook de andere schijf heeft 1300+ omgewisselde sectoren. Dat is echt véél te hoog. Dus beide zou ik afschrijven. Een paar reallocated sectors is geen enkel probleem.Plato112 schreef op maandag 29 september 2014 @ 20:32:
Twee van mijn schijven hebben nu active bad sectors en één heeft veel bad sectors.
Ik heb ook Seagate 7200.14 en die doen het tot nu toe vrij aardig. Mijn schijven komen wel allemaal uit Thailand.Daar was ik natuurlijk onaangenaam door verrast en dus heb ik vandaag alvast een nieuwe schijf aangeschaft zodat ik in ieder geval de slechte schijf kan vervangen. Het gaat hier trouwens om drie Seagate 3TB's waarvan twee uit China (de falende) samen met een uit Thailand.
Als je een nieuwe schijf hebt, plaats deze dan erbij terwijl je de bestaande schijven aangesloten laat. Dan opstarten en je systeem ziet je ZFS pool met drie schijven, plus de nieuw kersverse schijf die klaar is om gebruikt te worden. Je hebt je schijven niet geformatteerd via ZFSguru, dus dat zou ik nu dan ook niet doen. Nadeel is wel dat ze niet bootable zijn, maar daar kun je nu toch niets meer aan veranderen.Ik ben dus nog geen data kwijt als ik het goed begrijp. Mijn vraag is nu wat ik het beste kan doen.
Eerst een scrub voordat ik de slechtste schijf vervang? Of juist niet en de slechtste schijf zsm eruit gooien en vervangen.
Dat was uiteindelijk ook mijn beredenering, maar wist het niet zeker.Kortfragje schreef op maandag 29 september 2014 @ 23:06:
Ik ben absoluut geen expert, dus neem niet mijn advies aan. Kan je slechts vertellen wat ik zou doen. Ik zou wachten op advies v Firedrunk, Q, of Cipher..
Ik zou niet scrubben omdat dat veel stress op de schijven geeft, evenals een replace. Dus scrub + replace is erger dan alleen replace. In principe gebruiken replace en scrub dezelfde techniek en is je data in orde. DWZ een scrub voegt niets toe. Volgens mij kan je wel een replace doen waarbij je 4 schijven eraan hebt hangen en hij een falende door goede vervangt. Volgens mij was dat ook het snelst en minst stressvol omdat er dan geen parity reconstruction is, maar slechts kopieren van gebruikte sectoren.
Zie net, is je laatste scrub van Februari 2013? dat is wel lang terug..
Ik zou dus een 4e schijf toevoegen, replace, dan de gare eruit. Vervolgens weer nieuwe toevoegen en replace en laatste falende eruit. (en ik zou geen seagate meer gebruiken : https://www.backblaze.com...ty-update-september-2014/)
Ik hoopte al dat je zou reagerenVerwijderd schreef op maandag 29 september 2014 @ 23:20:
[...]
13 duizend reallocated sectors is inderdaad kolere veel; maar ook de andere schijf heeft 1300+ omgewisselde sectoren. Dat is echt véél te hoog. Dus beide zou ik afschrijven. Een paar reallocated sectors is geen enkel probleem.
In sommige gevallen zijn er stofdeeltjes vrijgekomen in de afgeschermde behuizing, waar de platters met 7200rpm ronddraaien. Dit kan zorgen voor meer bad sectors. En zo zijn er vast nog veel meer oorzaken waardoor het aantal bad sectors kan blijven oplopen.
Hmm, ben wel benieuwd waar je aan kunt zien of ze in ZFSguru geformatteerd zijn? Ik weet niet hoe ik ze dan geformatteerd heb destijds. Is natuurlijk niet erg belangrijk, maar toch. Bootable hoeven ze toch niet te zijn, dus dat maakt niet uit.[...]
Ik heb ook Seagate 7200.14 en die doen het tot nu toe vrij aardig. Mijn schijven komen wel allemaal uit Thailand.
[...]
Als je een nieuwe schijf hebt, plaats deze dan erbij terwijl je de bestaande schijven aangesloten laat. Dan opstarten en je systeem ziet je ZFS pool met drie schijven, plus de nieuw kersverse schijf die klaar is om gebruikt te worden. Je hebt je schijven niet geformatteerd via ZFSguru, dus dat zou ik nu dan ook niet doen. Nadeel is wel dat ze niet bootable zijn, maar daar kun je nu toch niets meer aan veranderen.
Ok, duidelijke instructies daar ga ik morgen mee aan de slag. Had in eerste instantie niet overwogen dat de mogelijkheid bestond om de nieuwe schijf naast de andere schijven te plaatsen i.p.v. direct de defecte schijf vervangen.Wat je dan doet is de slechte schijf omwisselen (zpool replace) met de nieuwe schijf. Dit kan via de GUI van ZFSguru op de Pools pagina. Je kunt met een dropdown box bij de betreffende schijf kiezen voor 'Replace this disk with...'. Alleen weet ik niet of hij het slikt dat je ze niet geformatteerd hebt, want dat wil ZFSguru normaliter wel voordat je ze mag gebruiken. In dat geval zou je het op de command line moeten doen:
zpool replace <poolnaam> <oude disk> <nieuwe disk>
dus:
zpool replace pool1 ada1 ada4
(uitgaande dat ada4 de nieuw aangesloten schijf is)
Tijdens het replacen terwijl de oude schijf is aangesloten, heb je nog steeds je redundancy. Hierdoor kunnen bad sectors tijdens het replace/rebuild/scrub-proces geen problemen veroorzaken. Wel kan het zijn dat de rebuild wat langer duurt. Alleen is zeer uitzonderlijke gevallen waarbij je meerdere bad sectors op meerdere schijven op precies de verkeerde plek hebt, heb je een probleem. Dan gaat een file stuk. Filesystem metadata is nog extra beschermd met ditto blocks (extra kopiën). Je schijf heeft 7812500000 sectoren dus zelfs tienduizend bad sectors is nog steeds een héél kleine kans om precies de verkeerde bad sector op twee schijven te hebben. Ook kunnen bad sectors ontstaan op plekken die ZFS helemaal niet in gebruik heeft.
Kortom, je hoeft niet direct te vrezen voor je data. Maar wel zo snel mogelijk die schijf met meer dan tienduizend bad sectors replacen, dat lijkt me een goed plan.
Speed limits are like herpes.
[ Voor 23% gewijzigd door FireDrunk op 30-09-2014 08:04 ]
Even niets...
pool: pool1 state: DEGRADED status: One or more devices is currently being resilvered. The pool will continue to function, possibly in a degraded state. action: Wait for the resilver to complete. scan: resilver in progress since Tue Sep 30 14:21:50 2014 890G scanned out of 6.16T at 258M/s, 5h58m to go 297G resilvered, 14.12% done config: NAME STATE READ WRITE CKSUM pool1 DEGRADED 0 0 0 raidz1-0 DEGRADED 0 0 0 replacing-0 DEGRADED 0 0 2.69K 14284078106028188528 REMOVED 0 0 0 was /dev/gpt/ada 0 (resilvering) gpt/WD30EZRX1 ONLINE 0 0 0 (resilvering) gpt/ada1 ONLINE 0 0 0 gpt/ada2 ONLINE 0 0 0 errors: No known data errors
Speed limits are like herpes.
[ Voor 15% gewijzigd door CurlyMo op 30-09-2014 15:47 ]
Sinds de 2 dagen regel reageer ik hier niet meer
1
2
3
| [root@aristoteles /home/ssh]# netstat -an | grep 10050 tcp4 0 0 192.168.0.103.10050 192.168.1.153.59303 TIME_WAIT tcp4 0 0 *.10050 *.* LISTEN |
1
2
| [root@aristoteles /home/ssh]# cat /etc/rc.conf | grep pf_enable #pf_enable="YES" |
1
2
3
| [root@aristoteles /home/ssh]# ps aux | grep pf root 6 0.0 0.0 0 16 - DL 4:57PM 0:00.19 [pf purge] root 21 0.0 0.0 0 16 - DL 4:57PM 0:00.00 [softdepflush] |
[ Voor 10% gewijzigd door Vuurvoske op 30-09-2014 19:13 ]
Beroeps brabander
Kun je wel de poort openen via telnet vanaf de andere machine?Vuurvoske schreef op dinsdag 30 september 2014 @ 19:12:
Ik heb effe een interessante vraag. Voor mijn servers thuis draai ik de zabbix monitoring service. (http://www.zabbix.com). Ik krijg dit op verschillende linux en windows servers (zelfs vcenter) draaiend. Echter bij ZFSGuru krijg ik het niet voor elkaar. Het probleem lijkt het hem te zitten in:
code:
1 2 3 [root@aristoteles /home/ssh]# netstat -an | grep 10050 tcp4 0 0 192.168.0.103.10050 192.168.1.153.59303 TIME_WAIT tcp4 0 0 *.10050 *.* LISTEN
Mijn vermoeden is dat de zabbix server geen connectie kan opzetten met de zabbix_agentd op mijn ZFSGuru. Ik weet ook niet zo goed waar dit geconfigureerd moet worden.
Wel heb ik gechecked of de firewall aanstaat. Dit blijkt niet het geval te zijn.
code:
1 2 [root@aristoteles /home/ssh]# cat /etc/rc.conf | grep pf_enable #pf_enable="YES"
code:
1 2 3 [root@aristoteles /home/ssh]# ps aux | grep pf root 6 0.0 0.0 0 16 - DL 4:57PM 0:00.19 [pf purge] root 21 0.0 0.0 0 16 - DL 4:57PM 0:00.00 [softdepflush]
Wellicht dat iemand mij de goede richting in kan wijzen?
1
2
3
4
5
| [username@confucius ~]$ telnet aristoteles 10050 Trying 192.168.0.103... Connected to aristoteles.domain.com (192.168.0.103). Escape character is '^]'. Connection closed by foreign host. |
[ Voor 5% gewijzigd door RobIII op 25-06-2021 00:38 . Reden: Persoonlijke informatie verwijderd op verzoek. ]
Beroeps brabander
Als PF uitstaat zou je nog kunnen kijken of er iets van inperking van iprange in zabbix zit (ken het product verder alleen van naam).Vuurvoske schreef op dinsdag 30 september 2014 @ 22:40:
De connectie wordt meteen gesloten:
code:
1 2 3 4 5 [username@confucius ~]$ telnet aristoteles 10050 Trying 192.168.0.103... Connected to aristoteles.domain.com (192.168.0.103). Escape character is '^]'. Connection closed by foreign host.
[ Voor 0% gewijzigd door RobIII op 25-06-2021 00:38 . Reden: Persoonlijke informatie verwijderd op verzoek. ]
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Zou gewoon een nieuwe kopen en zo snel mogelijk van de degraded af te komen. Komt een week later de andere terug heb je iig een spare liggen.guid0o schreef op woensdag 01 oktober 2014 @ 15:52:
Zojuist mijn WD RED 3TB op de post gedaan, omdat hij het had begeven onder ZFSGuru. Nu draait mijn RAIDZ pool dus degradedIemand enig idee/ervaring hoelang het duurt voordat WD mij een nieuwe disk stuurt? Zit te twijfelen om vandaag nog een nieuwe te bestellen, maja dat kost weer flink wat geld....
Voor die optie heb je volgens mij een creditcard nodig en laat ik die als student nou niet hebben.Paul schreef op woensdag 01 oktober 2014 @ 15:58:
-30 dagen? Je kunt ze eerst een schijf op laten sturen, en daarna heb je 30 dagen om de defecte schijf retour te zenden...
Jah daar heb je ook gelijk in, dan heb ik ook meteen een spare voor in de toekomst.matty___ schreef op woensdag 01 oktober 2014 @ 15:58:
[...]
Zou gewoon een nieuwe kopen en zo snel mogelijk van de degraded af te komen. Komt een week later de andere terug heb je iig een spare liggen.
Dat je geen CC hebt ok, maar wat heeft dat met 'als student' ermee te maken?guid0o schreef op woensdag 01 oktober 2014 @ 16:09:
Voor die optie heb je volgens mij een creditcard nodig en laat ik die als student nou niet hebben.
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Even niets...
Ik heb toch maar ervoor gekozen om een spare te bestellen, is toch makkelijk, ook voor in de toekomst, en mss wel als uitbreiding voor in de toekomstFireDrunk schreef op woensdag 01 oktober 2014 @ 16:35:
Een spare kost je 90 euro (ofzo?)
Online backup kost je 5 euro per maand ofzo? Dat is dus genoeg voor 1.5 jaar online backup...
Dan is doordraaien met een degraded array lang zo eng niet, gewoon elk uur/dagdeel syncen met je online backup...
(Ik doe het zelf ook niet hoor, ik moet er niet aan denken om 12TB naar een backup provider op te sturen)
Ik weet dat het kan inderdaad, maar bedoelde meer dat de gemiddelde student die niet heeftPaul schreef op woensdag 01 oktober 2014 @ 16:30:
[...]
Dat je geen CC hebt ok, maar wat heeft dat met 'als student' ermee te maken?
https://www.ing.nl/partic...rds/studenten-creditcard/
https://www.abnamro.nl/nl...ten-creditcard/index.html
https://www.rabobank.nl/p...etalen/studentenrekening/
Sinds de 2 dagen regel reageer ik hier niet meer
[ Voor 33% gewijzigd door FireDrunk op 03-10-2014 14:42 ]
Even niets...
Dan koop je toch een SAS SSD.. er voldoende aanbod hoorsyl765 schreef op vrijdag 03 oktober 2014 @ 14:41:
Ze kosten wel wat inderdaad. 710 Dollar zag ik even ergens.
Bij mij zit de SATA ZIL ook op de SAS backplane, maar hij praat geen SAS.. En dat maakt wel degelijk verschil.
1
2
3
4
5
6
7
8
| [root@claustofobia] ~# sysctl -a | grep vfs.zfs.\*trim vfs.zfs.vdev.trim_on_init: 1 vfs.zfs.vdev.trim_max_pending: 64 vfs.zfs.vdev.trim_max_bytes: 2147483648 vfs.zfs.trim.enabled: 1 vfs.zfs.trim.max_interval: 1 vfs.zfs.trim.timeout: 30 vfs.zfs.trim.txg_delay: 32 |
[ Voor 31% gewijzigd door Extera op 03-10-2014 19:52 ]
Tut tut, twee keer per week, kwestie van ze 'in shape te houden'FireDrunk schreef op dinsdag 30 september 2014 @ 08:03:
Meest aan te raden is volgens mij 1x per week. (Maar als je een array hebt van 100TB en hij doet 3 dagen over een scrub, zou ik dat ook wat minder doen)
Ja dit is dus gewoon stront stront stront en heel jammer.Plato112 schreef op dinsdag 30 september 2014 @ 15:29:
Hmm, heb schijf erbij gezet en replace gedaan. Ging eerst redelijk soepel, maar nu op zo'n 14% is de slechte schijf die ik wilde vervangen in eens "removed" en daarmee de pool degraded. Dat is niet de bedoeling of wel?
Ik ga er tenminste vanuit dat dit eigenlijk pas zou moeten gebeuren op het moment dat de nieuwe schijf klaar is met resilveren. Is de schijf er nu waarschijnlijk fysiek mee gekapt of is dit normaal? Moet/kan ik iets doen om mogelijke dataverlies tegen te gaan?
pool: pool1 state: DEGRADED status: One or more devices is currently being resilvered. The pool will continue to function, possibly in a degraded state. action: Wait for the resilver to complete. scan: resilver in progress since Tue Sep 30 14:21:50 2014 890G scanned out of 6.16T at 258M/s, 5h58m to go 297G resilvered, 14.12% done config: NAME STATE READ WRITE CKSUM pool1 DEGRADED 0 0 0 raidz1-0 DEGRADED 0 0 0 replacing-0 DEGRADED 0 0 2.69K 14284078106028188528 REMOVED 0 0 0 was /dev/gpt/ada 0 (resilvering) gpt/WD30EZRX1 ONLINE 0 0 0 (resilvering) gpt/ada1 ONLINE 0 0 0 gpt/ada2 ONLINE 0 0 0 errors: No known data errors
Zie ook CKSUM errors.
[ Voor 4% gewijzigd door HyperBart op 04-10-2014 00:49 ]
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
| # smartctl -A /dev/sdk smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.14.17-100.fc19.x86_64] (local build) Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org === START OF READ SMART DATA SECTION === SMART Attributes Data Structure revision number: 16 Vendor Specific SMART Attributes with Thresholds: ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x000b 100 100 062 Pre-fail Always - 0 2 Throughput_Performance 0x0005 100 100 040 Pre-fail Offline - 0 3 Spin_Up_Time 0x0007 166 166 033 Pre-fail Always - 1 4 Start_Stop_Count 0x0012 100 100 000 Old_age Always - 41 5 Reallocated_Sector_Ct 0x0033 100 100 005 Pre-fail Always - 0 7 Seek_Error_Rate 0x000b 100 100 067 Pre-fail Always - 0 8 Seek_Time_Performance 0x0005 100 100 040 Pre-fail Offline - 0 9 Power_On_Hours 0x0012 089 089 000 Old_age Always - 4849 10 Spin_Retry_Count 0x0013 100 100 060 Pre-fail Always - 0 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 12 191 G-Sense_Error_Rate 0x000a 100 100 000 Old_age Always - 0 192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 8 193 Load_Cycle_Count 0x0012 093 093 000 Old_age Always - 72228 194 Temperature_Celsius 0x0002 166 166 000 Old_age Always - 36 (Min/Max 19/46) 196 Reallocated_Event_Count 0x0032 100 100 000 Old_age Always - 0 197 Current_Pending_Sector 0x0022 100 100 000 Old_age Always - 0 198 Offline_Uncorrectable 0x0008 100 100 000 Old_age Offline - 0 199 UDMA_CRC_Error_Count 0x000a 200 200 000 Old_age Always - 0 223 Load_Retry_Count 0x000a 007 007 000 Old_age Always - 2818098 |
1
2
3
4
5
6
7
8
9
| NAME STATE READ WRITE CKSUM tank DEGRADED 0 0 0 raidz2-0 DEGRADED 0 0 0 ata-HGST_HTS541010A9E680_J810001VJ1Y3XA UNAVAIL 1 5 124 ata-HGST_HTS541010A9E680_JB100013J3ST5B ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB100013J3TXGB ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB40001MGG3MJC ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB100013J4HGNB ONLINE 0 0 0 ata-HGST_HTS541010A9E680_JB100013J4J15B ONLINE 0 0 0 |
[ Voor 10% gewijzigd door Xudonax op 04-10-2014 01:14 ]
1
2
3
| root@polaris:~ # camcontrol standby da5 (pass5:mps0:0:7:0): STANDBY_IMMEDIATE. ACB: e0 00 00 00 00 40 00 00 00 00 00 00 (pass5:mps0:0:7:0): CAM status: Function Not Available |
1
2
3
4
5
6
7
| root@polaris:~ # spindown -d da0 -d da6 -D -i 10 -t 10 device: da0, max_idle_time: 600, rd: 160388187, wr: 62198646, frees: 0, other: 11, idle time: 0, state: Spinning device: da6, max_idle_time: 600, rd: 310524907, wr: 69430396, frees: 0, other: 11, idle time: 0, state: Spinning device: da0, max_idle_time: 600, rd: 160388187, wr: 62198646, frees: 0, other: 11, idle time: 10, state: Spinning device: da6, max_idle_time: 600, rd: 310524907, wr: 69430396, frees: 0, other: 11, idle time: 10, state: Spinning device: da0, max_idle_time: 600, rd: 160388187, wr: 62198646, frees: 0, other: 11, idle time: 21, state: Spinning device: da6, max_idle_time: 600, rd: 310524907, wr: 69430396, frees: 0, other: 11, idle time: 21, state: Spinning |
1
| spindown -t 10 -d da0 -d da1 -d da2 -d da3 -d da4 -d da5 -d da6 -d da7 -D -i 10 |
[ Voor 9% gewijzigd door Blubber op 04-10-2014 12:52 ]
Verwijderd
Een quick and dirty oplossing:Verwijderd schreef op donderdag 09 oktober 2014 @ 16:36:
geavanceerder zou zijn dat hij in plaats van de dag de zfs status zou opvragen en wanneer er dan 7 dagen verlopen zouden zijn t.o.v. de laatste scrub hij dan een nieuwe zou uitvoeren.
1
| [ $(echo "$(date "+%s")-$(date -j -f "%a %b %d %T %Y" "$(zpool status tank | grep "scan: scrub" | awk '{print $11" "$12" "$13" "$14" "$15}')" +"%s")" | bc) -gt 604800 ] && echo "scrub" || echo "geen scrub" |
1
| [ $(echo "$(date "+%s")-$(date --date="$(zpool status tank | grep "scan: scrub" | awk '{print $11" "$12" "$13" "$14" "$15}')" +"%s")" | bc) -gt 604800 ] && echo "scrub" || echo "geen scrub" |
Sinds de 2 dagen regel reageer ik hier niet meer
Verwijderd
Sinds de 2 dagen regel reageer ik hier niet meer
Verwijderd
[ Voor 13% gewijzigd door Verwijderd op 09-10-2014 19:37 ]
Probeer eens een Freebsd install disc/usb te booten en kijk of die nog wat vind. Je hoeft niets te importeren maar puur om te kijken of hij wat ziet.Durandal schreef op donderdag 09 oktober 2014 @ 21:35:
Hoi allemaal. Ik loop tegen het volgende probleem aan (sinds ong een week, wegens geen tijd even uit gezet).
Ubuntu Server 12.04, ZFS on Linux, 10 disks in RaidZ2
Na een herstart is de zpool niet meer zichtbaar (>zpool list vindt niets), en wordt niet meer gemount.
In het filesysteem zijn alle disks nog zichtbaar, daar niets vreemds.
Voordat ik iets doe waar ik spijt van krijg graag even advies wat te doen. Ben er een beetje uit.
[ Voor 7% gewijzigd door matty___ op 09-10-2014 21:53 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
[ Voor 25% gewijzigd door GioStyle op 09-10-2014 23:45 ]
[ Voor 4% gewijzigd door Paul op 09-10-2014 23:46 ]
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Even niets...
Volgens de advertentie op eBay kan dat inderdaad, maar dan zit je nog altijd maar op 4 + 1 stuks SFF-8087 = 5x SFF-8087 = 20 SAS poorten, want de andere SFF-8087 van je m1015 gebruikt je om de expander op aan te sluitenGioStyle schreef op donderdag 09 oktober 2014 @ 23:52:
Maar dat is bij deze dus niet zo?
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Voor de showPaul schreef op vrijdag 10 oktober 2014 @ 09:03:
[...]
Volgens de advertentie op eBay kan dat inderdaad, maar dan zit je nog altijd maar op 4 + 1 stuks SFF-8087 = 5x SFF-8087 = 20 SAS poorten, want de andere SFF-8087 van je m1015 gebruikt je om de expander op aan te sluitenIk denk dat we hetzelfde bedoelen maar dat een van ons verkeerd telt
![]()
Het ding gebruikt dus geen PCIe-lanes? Waarom dan de volledige (zo te zien) x8-connector en niet alleen de voedingslijnen?
Even niets...
Op dit moment nog niet, 2e kabel is onderweg evt voor dual linked of als reserve kabel.Extera schreef op donderdag 09 oktober 2014 @ 22:10:
Nice!
Goed om te lezen dat het zo soepel werkt, ik ben ook aan het oriënteren voor een expander.
Heb je de IBM dual linked aangesloten?
De expander is omdat er nog enkel 1x PCIe 4x slot (fysiek een 8x slot, maar slechts 4x lanes) over was, als ik daar een M1015 in zou steken dan beperk ik deze sowieso. In de andere slot's zitten resp. een IB HBA en een NIC.Paul schreef op donderdag 09 oktober 2014 @ 23:33:
Misschien mis ik iets, maar die expander kost $130, een PCIe-slot en een m1015 van 100$ en 2 kabels. Met andere woorden, 30 dollar en 2 kabels meer dan een tweede m1015?
Aan een m5015 snap ik het, maar waarom ben je voor deze opstelling gegaan in plaats van een tweede m1015? Sluit je de expander maar met één kabel aan voor een totaal van 20 SAS-poorten?
In de CM Stacker STC-T01 waar de hardware nu in zit. 'T zou allemaal moeten passen, ben her en der deze combi van case en cage wel tegen gekomen FreeNAS forum o.a. .GioStyle schreef op donderdag 09 oktober 2014 @ 23:44:
Dan heb je er 24. Je houdt dan ook nog een SAS poort op de M1015 over.
Waar ga je die HDR-5-v13 modules inbouwen?
Single linked werkt, zo draait de boel nu. Het voordeel van dual linked is dat je 16x een SATA-2 poort ter beschikking hebt. Effectief een verdubbeling, iets wat je met een tweede M1015 ook zou bereiken (dit laatste zou net wat goedkoper zijn)GioStyle schreef op donderdag 09 oktober 2014 @ 23:52:
Ik ben denk ik in de war met een HP SAS expander. Ik had ergens gelezen dat je die bijvoorbeeld ook single/dual linked kon aan sluiten. Als je single linked deed hou je een SAS poort over waar je ook schijven op kan aansluiten. Maar dat is bij deze dus niet zo?
Klopt, het enige wat t ding doet is zijn spanning betrekken via t PCIe slot. Ik heb nog even de SAS expander van Intel overwogen (RES2SV240) welke geen PCIe slot nodig heeft maar zijn spanning vanaf een molex stekker kan ontvangen, jammer genoeg is deze behoorlijk veel duurder.FireDrunk schreef op vrijdag 10 oktober 2014 @ 08:01:
Grote voordeel van een SAS Expander is dat hij geen PCIe lanes op slokt (ookal is het ding fysiek PCIe).
Je kan dus meerdere van die dingen aansluiten op een simpel systeempje wat maar 1* PCIe 2.0 x8 (over) heeft ofzo.
Met een PCIe x1 to x8 riser kan je prima een SAS Expander voeden
En als je een powered riser cable gebruikt, kan je zeer waarschijnlijk de hele kabel gewoon los van het moederbord laten
Wordt wel een bende in je chassis, maar het kan
Nice, thanks, daar heb ik wel oren naar, PCIe slotje sparen is nooit een slecht idee.Extera schreef op vrijdag 10 oktober 2014 @ 09:24:
@ Pantagruel, als je eens wilt testen of het werkt via een riser, dan heb ik er nog meer dan zat liggen waar ik niets voor hoef te hebben...
Klopt, die kun je, mits goed geisoleerd (just in case) gewoon op een lege plek in de kast schroeven, zoals hier al is het niet even duidelijk op de foto lijkt de expander naast t mobo te steken.FireDrunk schreef op vrijdag 10 oktober 2014 @ 09:26:
[...]
Voor de show, nee serieus, geen idee, er zijn zat expanders die dat wel 'goed' doen.
Zoals deze:
[afbeelding]
Die heeft zelfs geen voeding via PCIe, maar via een Molex stekker.
[ Voor 4% gewijzigd door Pantagruel op 16-10-2014 11:01 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
PM on the way, altijd leuk om te prutsenExtera schreef op vrijdag 10 oktober 2014 @ 10:00:
Thanks!
PM even je adres, dan stuur ik wel 1 op.
Met als voorwaarde dat je de resultaten post
[ Voor 20% gewijzigd door Pantagruel op 10-10-2014 14:09 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Verwijderd
€90 all-in, kwam vanuit Taiwan en was nieuw uit den doos.Verwijderd schreef op vrijdag 10 oktober 2014 @ 15:40:
@Pantagruel
Leuke sas expander. Ik ben zelf ook een beetje aan het rondneuzen naar een leuke expander. Chenbro, Lenovo, HP, Intel. Genoeg keus maar de prijzen vallen een beetje tegen.
Mag ik vragen wat je voor deze betaald hebt?
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Verwijderd
Is dit misschien wat je wilt? ZFS Event Daemon?Verwijderd schreef op vrijdag 10 oktober 2014 @ 17:36:
Ik ben op zoek naar een health check script voor zfs. Ik zie dat calomel.org al een paar dagen down is. Heeft iemand nog een kopie liggen van het script en eventueel de gebruiksaanwijzing die op deze pagina te vinden waren?
zfsguru.bsd$ zpool create -o ashift=9 -o version=28 -O version=5 -O atime=off Tank raidz gpt/Disk01 gpt/Disk02 gpt/Disk03 gpt/Disk04 gpt/Disk05 gpt/Disk06 gpt/Disk07 property 'ashift' is not a valid pool property
1
2
| One or more devices are configured to use a non-native block size. Expect reduced performance. Replace affected devices with devices that support the configured block size, or migrate data to a properly configured pool. |
[ Voor 32% gewijzigd door Scooper op 11-10-2014 16:43 ]
SRK35ZS-W
[ Voor 100% gewijzigd door FireDrunk op 11-10-2014 17:19 ]
Even niets...
SRK35ZS-W
jep!Pantagruel schreef op vrijdag 10 oktober 2014 @ 12:23:
[...]
PM on the way, altijd leuk om te prutsen, tuurlijk, pics or it didn't happen
Add.
Na aanleiding van de pm, zoiets als deze ??:
[afbeelding]
Thanks!
[ Voor 41% gewijzigd door Pantagruel op 11-10-2014 23:29 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Ik ben vannacht begonnen met de datamigratie, ik kan de pool dus niet voor testdoeleinden weer opnieuw aanmaken.Verwijderd schreef op zaterdag 11 oktober 2014 @ 21:14:
Voer eens uit als root voordat je de pool aanmaakt:
sysctl vfs.zfs.min_auto_ashift=9
sysctl vfs.zfs.max_auto_ashift=9
Dan je pool aanmaken; lijkt een nieuwe feature van recente BSD images. Zal Jason er eens op aanspreken.
SRK35ZS-W
Gewoon een heel grote verzameling snoertjes
1
2
3
4
5
6
7
8
9
10
11
| #!/usr/bin/env bash MAILTO="xxxx@xxx.xxx"; MAILFROM="xxxxx@xxxxx.xxx"; COMMAND=$(/sbin/zpool status -x); if [[ $COMMAND =~ "all pools are healthy" ]]; then exit; else echo -e "Subject: ZFS Alert\n$COMMAND" | /usr/sbin/sendmail -f $MAILFROM $MAILTO; fi |
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
| #!/usr/bin/perl sub trim($); my $zpool = `zpool status`; my @lines = split/\n/,$zpool; my @disks = (); my @disks1 = (); my %hash; my $check = 0; my $i = 0; my $to = 'xxxxx@xxxxx.xxx'; my $glabel = `glabel status`; my $mail = ''; #Loop through zpool status to retrieve used disks foreach my $line (@lines) { if(length($line) > 1 && !($line =~ /errors/) && !($line =~ /raid/) && !($line =~ /mirror/) && !($line =~ /replacing/) && !($line =~ /spares/) && !($line =~ /logs/) && !($line =~ /cache/)) { if($line =~ /pool:/) { $i++; $check = 0; } if($check == 2) { ($start) = trim($line) =~ /\A([^:\s]+)/; $disk1 = $start; $z = 0; #Remove partition and slice information if($disk1 =~ /p/ && !($disk1 =~ /label/ || $disk1 =~ /gpt/)) { $disk1 = (split(/p/,$disk1))[0]; } if($disk1 =~ /s/ && !($disk1 =~ /label/ || $disk1 =~ /gpt/)) { $disk1 = (split(/s/,$disk1))[0]; } while($z <= $#disks1 && ($disks1[$z] ne $disk1)) { ++$z; } if(int($start) =~ /^[[:digit:]]$/) { if($z > $#disks1 || $#disks1 == -1) { push @{$disks[$i]},$start; push (@disks1,$disk1); } } } if($check == 1) { $check = 2; } if($line =~ /NAME/) { $check = 1; } } } @lines = split/\n/,$glabel; #Loop through disks to check smart status foreach $pool (@disks) { foreach $disk (@$pool) { #If the disks contains a label retrieve the physical address foreach $line (@lines) { ($fword) = trim($line) =~ /\A([^:\s]+)/; if($fword =~ /$disk/) { $line =~ s/.*\W(\w)/$1/; $disk = $line; break; } } #Remove partition or slice information if($disk =~ /p/) { $disk = (split(/p/,$disk))[0]; } if($disk =~ /s/) { $disk = (split(/s/,$disk))[0]; } if(!($disk eq "ada0")) { $smart = `/usr/local/sbin/smartctl -a /dev/$disk`; if($smart =~ /PASSED/ && $? == 0) { print "No problems where found for /dev/$disk\n"; } else { if(!($smart =~ /Unknown USB bridge/)) { print "!Certain problems have been found for /dev/$disk!\n"; $mail .= $smart; } else { print "Could not read smart status of /dev/$disk\n"; } } } } } if(length($mail) > 0) { `echo "$mail" | /usr/bin/mail -s "SMART Alert" $to`; } sub trim($) { my $string = shift; $string =~ s/^\s+//; $string =~ s/\s+$//; return $string; } |
Sinds de 2 dagen regel reageer ik hier niet meer
Apple iPhone 17 LG OLED evo G5 Google Pixel 10 Samsung Galaxy S25 Star Wars: Outlaws Nintendo Switch 2 Apple AirPods Pro (2e generatie) Sony PlayStation 5 Pro
Tweakers is onderdeel van
DPG Media B.V.
Alle rechten voorbehouden - Auteursrecht © 1998 - 2025
•
Hosting door TrueFullstaq