Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
Ik zal maar niets zeggen...
Als ik nu opnieuw zou beginnen met mijn server zou ik het overwegen, maar om nu met een server vol draaiende software en geconfigureerde tools opnieuw te beginnen staat me toch wat tegen. :P
Het is wel een goede test of je al je documentatie, scripts en configs bij elkaar hebt voor een schone installatie.

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
tvwes schreef op woensdag 20 mei 2015 @ 21:43:
Dan is mijn vorige post over de mount scripts misschien te voorbarig.
Het verwijderen van zpool.cache gevolgd door een zpool import loste ook niets op toch? Verscheen zpool.cache wel direct na de import en voor de reboot?
Heb je de cache file ook al eens expliciet gezet?
# zpool set cachefile=/etc/zfs/zpool.cache <pool>
Doe eerst even:
# zpool get cachefile
ow ja, na FD zijn reactie had ik de cache ook al eens "ge-set", export, rm zpool.cache en reboot zonder succes.

Ik denk dat ik maar eens ga onderzoeken of Proxmox hier voor niets tussen zit met zijn ZoR.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
A1AD schreef op woensdag 20 mei 2015 @ 21:55:
[...]


ow ja, na FD zijn reactie had ik de cache ook al eens "ge-set", export, rm zpool.cache en reboot zonder succes.

Ik denk dat ik maar eens ga onderzoeken of Proxmox hier voor niets tussen zit met zijn ZoR.
Ik heb dat gemist, ik dacht dat @FireDrunk alleen had voorgesteld zpool.cache weg te halen. Dat is wat anders dan wat ik zojuist bedoeld met zpool set cachefile.

En anders succes ermee. Linux is niet mijn gebied.

Acties:
  • 0 Henk 'm!

  • Gonadan
  • Registratie: Februari 2004
  • Laatst online: 00:27

Gonadan

Admin Beeld & Geluid, Harde Waren
Hoezo? Mis ik wat topichistorie over dit onderwerp ofzo? :?
Het is wel een goede test of je al je documentatie, scripts en configs bij elkaar hebt voor een schone installatie.
Nou daar heb ik die test niet voor nodig, dat gaat keihard falen. :+

Look for the signal in your life, not the noise.

Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
Gonadan schreef op woensdag 20 mei 2015 @ 22:04:
[...]

Hoezo? Mis ik wat topichistorie over dit onderwerp ofzo? :?

[...]

Nou daar heb ik die test niet voor nodig, dat gaat keihard falen. :+
Dan lekker laten zoals het is en hopelijk los je je probleem snel op.

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
tvwes schreef op woensdag 20 mei 2015 @ 21:59:
[...]

Ik heb dat gemist, ik dacht dat @FireDrunk alleen had voorgesteld zpool.cache weg te halen. Dat is wat anders dan wat ik zojuist bedoeld met zpool set cachefile.

En anders succes ermee. Linux is niet mijn gebied.
Ik had beide geprobeerd nadat het weghalen verwijderen van de zpool.cache geen resultaat leverde. Bedankt voor het meedenken!

[ Voor 4% gewijzigd door A1AD op 20-05-2015 22:06 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • Gonadan
  • Registratie: Februari 2004
  • Laatst online: 00:27

Gonadan

Admin Beeld & Geluid, Harde Waren
tvwes schreef op woensdag 20 mei 2015 @ 22:06:
Dan lekker laten zoals het is en hopelijk los je je probleem snel op.
Ben jij anders even met twee verkeerde benen uit bed gestapt zeg. :D

Het werkt alweer hoor, blijft alleen raar dat het af en toe toch onverwacht reageert. :)

Look for the signal in your life, not the noise.

Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 26-09 16:38

Compizfox

Bait for wenchmarks

Verwijderd schreef op woensdag 20 mei 2015 @ 09:15:
[...]

Nee, want wanneer de SSD write remapping toepast, komen de oude blokken weer vrij. Zolang je iets van 20-30% OP hebt, kun je dus altijd vrije erase blokken vinden en heb je dat hele TRIM niet nodig.
OK, eens.

Maar mijn punt was dat als je geen OP zou hebben (ook al bevatten alle SSDs dat van zichzelf) en ook geen TRIM, dat je dan wel in de problemen komt.


Verwijderd schreef op woensdag 20 mei 2015 @ 12:54:
[...]

M500/M550/M600/MX100/MX200 zijn allemaal geschikt als sLOG naar mijn mening/inschatting. Dit omdat ze de FLUSH commando's eerbiedigen, iets wat Samsung niet doet. Samsung SSDs zijn ongeschikt voor sLOG, Intel 320 is het beste (Volledige capacitors voor 192K SRAM buffercache) en Crucial MX100/MX200 is een goedkope keuze.
Dat is goed om te horen, ik zoek nog naar een nieuwe SSD voor m'n storageserver. De Crucial M4 die ik er nu in heb hangen klapt er om de zoveel tijd uit, waarna hij pas terugkomt bij een reboot van de fysieke server. (na een firmwareupdate heb ik hier iets minder last van dan eerst, maar het gebeurt nog steeds)

Wel jammer dat er geen 64 GB-versie is van de MX100, want 128 GB is eigenlijk meer dan nodig is.


Gonadan schreef op woensdag 20 mei 2015 @ 22:04:
[...]

Hoezo? Mis ik wat topichistorie over dit onderwerp ofzo? :?
tywes is nogal voorstander van illumos ;)

[ Voor 3% gewijzigd door Compizfox op 20-05-2015 22:32 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
@Gonadan, ik had hoogstens met twee linker handen een reply getypt. Niks kwaads, ik bedoelde zoiets als "if it ain't broke don't fix" en dat je dus vooral niets over hoop moest halen. Fijn dat het weer werkt.

Acties:
  • 0 Henk 'm!

  • Gonadan
  • Registratie: Februari 2004
  • Laatst online: 00:27

Gonadan

Admin Beeld & Geluid, Harde Waren
Compizfox schreef op woensdag 20 mei 2015 @ 22:16:
tywes is nogal voorstander van illumos ;)
Nog nooit van gehoord, eens googlen. ;)
tvwes schreef op woensdag 20 mei 2015 @ 22:16:
@Gonadan, ik had hoogstens met twee linker handen een reply getypt. Niks kwaads, ik bedoelde zoiets als "if it ain't broke don't fix" en dat je dus vooral niets over hoop moest halen. Fijn dat het weer werkt.
Ok geen probleem, het leek net alsof je geïrriteerd was. :)

Een nieuwe import heeft het verholpen.

Look for the signal in your life, not the noise.

Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
Compizfox schreef op woensdag 20 mei 2015 @ 22:16:
[...]
Dat is goed om te horen, ik zoek nog naar een nieuwe SSD voor m'n storageserver. De Crucial M4 die ik er nu in heb hangen klapt er om de zoveel tijd uit, waarna hij pas terugkomt bij een reboot van de fysieke server. (na een firmwareupdate heb ik hier iets minder last van dan eerst, maar het gebeurt nog steeds)
Als je wat geduld hebt dan kan ik je over een week of twee a drie vertellen wat die MX200 500 en 1tb doen op intel sata en lsi sas 2008 en 2308. Ik heb vanmiddag een inkooporder voor een paar van die dingen geplaatst. Ik had natuurlijk veel liever met NVMe aan de slag gegaan maar dat is te beperkt (qua aanbod en poorten) op moment.
[...]

tywes is nogal voorstander van illumos ;)
Tsja het topic is nu eenmaal ZFS en die implementatie is het beste op Illumos en ik heb het beste met iedereen voor dus "wc eend adviseert ..." :+

Edit1: NVMe toevoeging

[ Voor 7% gewijzigd door tvwes op 20-05-2015 22:34 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
tvwes schreef op woensdag 20 mei 2015 @ 21:25:
@Cipher, ik heb een vraag over die grafiek. Hoe kan je een Af krijgen kleiner dan 1? Als ik 1GB schrijf naar de SSD dan moet de SSD toch ook 1GB naar NAND schrijven?
Ja; de grafiek is niet helemaal handig gemaakt. Maar ze bedoelen dus de amplificatie zelf; de '1' is niet meegeteld. Waar 0 staat, kun je dus 1 lezen. En er zijn nog meer issues; de legenda staat in omgekeerde volgorde als de grafiek zelf en de horizontale schaal gaat van 0.1 tot 0.9 terwijl consumenten SSDs dus 0,04 ofzo hebben; dus was mooi geweest als de grafiek nog verder getrokken was richting helemaal geen spare space; het is juist dat laatste stukje waar het schoentje wringt.

Sandforce kan met compressie en deduplicatie wel lager dan 1.00 WaF krijgen. Intel is de koning met WaF van 1.02 en beter heb ik zonder trucjes nooit gezien. Samsung in het bijzonder zou heel hoge write amplification hebben, door zijn agressieve GC. Oud maar leuk plaatje:

Afbeeldingslocatie: http://static.tweakers.net/ext/f/nFyQWRw70nGHOzRbmJ3Zv0zS/medium.png
Tweede vraag zijn de volgende twee smart attributen standaard bij alle merken SSD?
247 F7 Host program page count
248 F8 Background program page count
Nee. Bovendien kan de raw value en genormaliseerde waarde verschillen per merk. Voor de meeste SSDs kun je aan de genormaliseerde waarde zien hoeveel procent cycles je hebt gebruikt. Soms is dat echter Host writes (total host LBA writes) en de raw value is dan bijvoorbeeld het absoluut aantal LBA (512-byte blokjes) maar de genormaliseerde waarde vertaalt dit naar MWI. Dus een genormaliseerde waarde van 99 betekent dat je dan 1% van de cycles hebt verbruikt. Pas in het SMART topic een SSD gezien die bij de 250 begint. Bedenk: genormaliseerde waarden zijn 8-bit (0-255) en geldt: hoe hoger hoe beter. Dus 100 of 200 of 250 ofzoiets is de best mogelijke waarde, en een lager getal is dus een slechtere waarde. Soms bij temperatuur wordt dit niet gevolg; soms hebben disks zowel temperature als Airflow Temperature. Die laatste heeft dan wel juiste genormaliseerde waarden, zoals 61 kan staan voor 100 - 61 = 39 graden celsius.

[ Voor 8% gewijzigd door Verwijderd op 20-05-2015 23:06 ]


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
@Cipher, bedankt. Soms moet ik info even laten inweken. Die grafiek zat me op de een of andere manier niet lekker. Dus ik dacht laat ik nog eens kijken en toen kwam de vraag naar boven. Voor de rest snapte ik wel de bedoeling vandaar dat de vraag niet direct naar boven kwam.

Jammer van die smart attributen. Ik had eens gezien dat die gebruikt werden om de waf uit te rekenen. Maar er stond niet bij dat het alleen voor die specieke ssd gold. Ook was het een lopend gemiddelde en moest je periodiek loggen om trends te ontdekken.

Acties:
  • 0 Henk 'm!
Gonadan schreef op woensdag 20 mei 2015 @ 21:49:
Als ik nu opnieuw zou beginnen met mijn server zou ik het overwegen, maar om nu met een server vol draaiende software en geconfigureerde tools opnieuw te beginnen staat me toch wat tegen. :P
Misschien een image maken van je huidige OS en deze vervolgens in een VM laten draaien boven op FreeBSD?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
CurlyMo schreef op woensdag 20 mei 2015 @ 23:15:
[...]

Misschien een image maken van je huidige OS en deze vervolgens in een VM laten draaien boven op FreeBSD?
Bedoel je in bhyve? Zijn daar p2v tools die dat allemaal regelen? Zelfs bij vmware gaat dat nog regelmatig mis met p2v van niet windows.

Acties:
  • 0 Henk 'm!
Als je een bhyve VM op een zvol zet en de huidige linux root is ook zfs, dan moet een zfs send/receive voldoende zijn, anders een dd.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
@CurlyMo,
die image overzetten geloof ik wel. Het gaat natuurlijk om het booten, alle hardware is plots vervangen. De p2v converter van vmware heb je hoofdzakelijk nodig om dat (vervangen van drivers) te regelen.
Ik heb geen ervaring met bhyve vandaar mijn interesse.

Acties:
  • 0 Henk 'm!
Mijn ervaring is dat Linux best robuust is als het gaat om hardware veranderingen. Maar, de praktijk zou het moeten uitwijzen.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
@CurlyMo, daar heb je gelijk in, met Windows hoef je dat niet te proberen. Binnenkort weer wat nieuwe test systemen en dan zal ik dit ook eens proberen.

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Geschikte informatie om een systeem opnieuw in te stellen hoeft overigens niet te betekenen dat een overstap van Linux naar FreeBSD er mee gaat lukken. Bij mij zal het snel vast lopen met verwijzingen naar yast en de obs.

Hardwareveranderingen heb ik overigens gemengde ervaringen mee. Ik heb probleemloos Windows- en Linux-installaties tussen verschillende generaties hardware verplaatst, maar nu ik in mijn eigen pc een ander moederbord van dezelfde generatie geplaatst heb werkt Windows nog prima, maar is mijn Linux-installatie onwerkbaar geworden (succes op het inlogscherm zonder enige invoerapparatuur of netwerk). Kwestie van per geval proberen dus, en het als een meevaller zien als het wel werkt.

Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
Ik heb er ook weinig vertrouwen in. Als je kijkt naar het toch redelijk beperkt aantal type guest OS verwacht ik niet dat zomaar gaat werken maar nooit geschoten is altijd mis. Daarnaast moet ik toch FreeBSD installeren.

Acties:
  • 0 Henk 'm!
@CiPHER, heb je ook ergens een moderne bron? Want ik verwacht heel eerlijk gezegd dat Samsung het nu ontzettend goed doet. De 470 was een draak van een SSD vroeger, maar de 850 Pro, en de 850 EVO zijn nu namelijk echt bloedsnel en hebben voor een lange tijd (meer dan DRAM) echt hele lage service times.

De steady state (voor de mensen die niet weten wat dat is: Ruwgezegd, dan zijn er dus geen eraseblocks meer vrij, en kan de ssd geen optimale write redirection meer doen) bereiken die SSD's pas heel laat, wat je doet vermoeden dat er echt wel goede write redirection in zit...

Iets recentere tests:

http://nl.hardware.info/r...-steady-state-performance

De 845DC (lees: 850 Pro met aangepaste firmware en supercaps :) ), doet het hier eigenlijk best goed.
Intel mag er ook echt wezen met hun S3500 en S3700, maar ik ben eerlijk gezegd positiever over Samsung dan jij :)

Extra bronnetje:
http://www.anandtech.com/...-endurance-vnand-die-size

Dit maakt mij weer een beetje sceptisch:
About 10x worst-case write amplification is fairly typical for a moden client SSD. Fortunately the days of +100x write amplification are over and under common client workloads the write amplification will usually stay below 2x.
Wat is nu waarheid :P

[ Voor 63% gewijzigd door FireDrunk op 21-05-2015 06:58 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
@tvwes, om te spelen met proxomox had ik een proxmox vm aangemaakt op een proxmox host en omdat ik geen subscription heb bij hun moet je een repo (de free repo) aanpassen om de onderdelen van proxmox te kunnen updaten (incl zfs...) en ja hoor, bij de vm dit helemaal vergeten |:( .
Ik had de vm wel geupdate zonder aandacht te schenken wat er nu juist werd geupdate.

Repo toevoegen > updaten > zfs auto import ok
Het auto zfs import/mount script is hier te vinden trouwens: "/etc/init.d/zfs-mount"

Mijn excuses voor jullie verloren tijd...

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • HyperH
  • Registratie: Mei 2015
  • Laatst online: 06-01 15:22
De afgelopen weken ben ik op het ZFS gebied heel wat wijzer geworden. Ik moet echter ook nog veel leren en tijdens het brainstormen om ZFS proberen te doorgronden kwam ik op onderstaande vragen die ik graag aan jullie zou willen voorleggen.

1) Snapshots zijn een geweldige feature van FreeNAS. Ik begreep echter niet wat er zou gebeuren met een bestand dat je verwijderd nadat er een snaphot van is gemaakt. Als je na het verwijderen het bestand met een rollback van dat snapshot terug krijgt, dan is het eigenlijk helemaal nooit weg geweest dacht ik en dus levert het verwijderen van dat bestand dan ook geen vrije ruimte op de pool op.
Als ik het goed begrijp moet je dus regelmatig oude snapshots verwijderen om te voorkomen dat 'verwijderde' bestanden toch opslagruimte in beslag houden.

2) Ik zou graag mijn ZFS NAS met een andere ZFS nas synchroniseren zodat de backups op twee locaties worden opgeslagen. Voor het zover is moet ik het doen met het backuppen van de data naar een externe HDD.
Als die externe HDD tijdelijk als losse ZFS schijf in een eigen pool wordt geïmporteerd, dan kan ik met send / receive perfect een backup maken dacht ik. Hoe moet ik echter een backup maken als de data van mijn ZPOOL de capaciteit van die externe HDD overschrijd?
Dan kan ik dus geen snapshot maken van de hele dataset en naar de externe HDD schrijven want dat past niet. Ik zou dan kleinere snapshots moeten maken en die verdelen over twee of meer externe HDD's denk ik.
Is ZFS intelligent genoeg om te kunnen omgaan met snapshots van subdirectories die over twee of meer externe HDD's worden verdeeld? Mijn gevoel zegt dat ik hier mogelijk problemen mee kan ondervinden of maak ik me daar onterecht zorgen voor>

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 26-09 16:30
HyperH schreef op zondag 24 mei 2015 @ 01:19:
Als ik het goed begrijp moet je dus regelmatig oude snapshots verwijderen om te voorkomen dat 'verwijderde' bestanden toch opslagruimte in beslag houden.
Klopt. Een snapshot is een momentopname van je volume of dataset die bewaard wordt. Elke aanpassing die je daarna doet wordt opgeslagen, maar de momentopname is er ook nog. Als je dus na het maken van een snapshot 300 GB aan data verwijderd, 200 GB aan data veranderd in bestaande bestanden en 100 GB wegschrijft naar nieuwe bestanden / toevoegt, dan heb je dus ineens 600 GB extra schijfruimte in gebruik terwijl je dacht dat je netto 200 GB vrij had gemaakt.
Is ZFS intelligent genoeg om te kunnen omgaan met snapshots van subdirectories die over twee of meer externe HDD's worden verdeeld?
Hmm, lastig. Beste kun je denk ik datasets maken van een paar (hoofd)directories, je kunt wel losse datasets snapshotten en overzetten.

Speciale reden om voor externe schijven te gaan? Ik (en een aantal mensen meer hier) hebben bij een vriend of familielid een 2e NASje staan (of ruimte geclaimd op het bestaande NAS van die vriend of familielid :P ) en backuppen daar naartoe.
Het nadeel van externe schijven is dat je handmatig dingen moet doen (schijven wisselen) en ze na verloop van tijd toch naast je NAS blijven liggen want het offsite halen is zoveel werk :+

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!
Het indelen van je ZFS is best een lastige klus en lijkt redelijk op het ontwerpen van een database. De vraag is namelijk tot op welk niveau je ZFS kinderen maakt of wanneer je overgaat tot reguliere mappen. Juist voor je snapshots en het gevaar dat je niet teveel data overzet naar je backups.

Ik kwam tot deze structuur:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
data
data/users
data/users/user1
data/users/user1/Hobby
data/users/user1/Persoonlijk
data/users/user1/School
data/users/user1/Temp
data/users/user1/Werk
data/users/mail
data/users/mail/user1
data/users/mail/user2
data/users/user2
data/users/user2/Hobby
data/users/user2/Persoonlijk
data/users/user2/School
data/users/user2/Temp
data/users/user2/Werk
data/users/recycle
data/users/recycle/user1
data/users/recycle/user2
data/users/shared
data/users/shared/Audio
data/users/shared/Fotografie
data/users/shared/Gedeeld
data/users/shared/Internet
data/users/shared/Internet/Downloads
data/users/shared/Internet/Incompleet
data/users/shared/Internet/Torrents
data/users/shared/Systeem
data/users/shared/Video
data/users/shared/Video/Films
data/users/shared/Video/Persoonlijk
data/users/shared/Video/TV
data/users/snapshots
data/users/snapshots/user1
data/users/snapshots/user2


Mijn backups zijn als volgt:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
backup/users
backup/users/user1
backup/users/user1/Hobby
backup/users/user1/Persoonlijk
backup/users/user1/School
backup/users/user1/Werk
backup/users/mail
backup/users/mail/user1
backup/users/mail/user2
backup/users/user2
backup/users/user2/Hobby
backup/users/user2/Persoonlijk
backup/users/user2/School
backup/users/user2/Werk
backup/users/shared
backup/users/shared/Fotografie
backup/users/shared/Gedeeld
backup/users/shared/Video
backup/users/shared/Video/Persoonlijk

Dan begrijp je ook waarom ik de map Video verder heb uitgesplitst.

De shared mappen worden trouwens gedeeld tussen alle gebruikers, maar dat leg ik elder in dit topic uit. In de recycle mappen zitten de Samba prullenbakken. De mail mappen zijn een lokale mailserver waar we ons mail archief in opslaan, maar wordt niet daadwerkelijk als externe mailserver gebruikt.

Misschien leuk om in dit topic tot een soort generiek ideaal ontwerp te komen :)

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 26-09 16:30
CurlyMo schreef op zondag 24 mei 2015 @ 09:34:
Misschien leuk om in dit topic tot een soort generiek ideaal ontwerp te komen :)
Ik denk dat er daarvoor teveel use cases zijn :)

Sowieso hebben we beiden een andere filosofie :P Ik heb namelijk het volgende:
code:
1
2
3
4
5
RemoteBackup\
RemoteBackup\User1
RemoteBackup\User2
RemoteBackup\Fotos
Media\


In Media staan de zaken die ik niet hoef te backuppen en de quota's op de datasets in RemoteBackup zijn samen net iets kleiner als de pool aan de 'overkant'. In de mappen in RemoteBackup staan voor de Users de zaken die Windows 8 File history backupt, en in Foto's de foto's die bij User2 niet meer op de harde schijf (lees: Laptop met SSD) passen en niet zo vaak nodig zijn.

Bij mij is die ZFS-machine dus al grotendeels het backup-doel, waar het bij jou ook de live data bevat :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 26-09 16:38

Compizfox

Bait for wenchmarks

Ik zit er nu toch wel erg over te twijfelen of ik de pricewatch: Crucial MX100 128GB zal nemen, waar ik ook een SLOG op kan zetten, of toch een kleinere en goedkopere SSD zoals de pricewatch: Kingston SSDNow V300 60GB.

Zou ik trouwens, als ik een UPS neem, ook een 'normale' SSD kunnen gebruiken voor de SLOG? Of zelfs de ZIL helemaal uitschakelen?

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Voor twee tientjes extra een veel betere SSD en ook nog eens twee keer zo groot. Ik zou zeker voor de Crucial gaan. Heb je op de lange termijn veel meer aan een stabiele moderne SSD.

Een UPS beschermt je tegen power failure, maar een SSD verliest veel vaker onverwacht zijn stroom. Controleer dat eerst zelf maar eens: bekijk de SMART van je SSD en kijk naar Unexpected Power-Loss. Dat is veel vaker (30 - 100) dan dat je een echte power failure hebt gehad (misschien 1 keer?). Dus dat een UPS voldoende zou zijn, is onterecht.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 26-09 16:38

Compizfox

Bait for wenchmarks

Verwijderd schreef op maandag 25 mei 2015 @ 14:16:
Voor twee tientjes extra een veel betere SSD en ook nog eens twee keer zo groot. Ik zou zeker voor de Crucial gaan. Heb je op de lange termijn veel meer aan een stabiele moderne SSD.
Drie tientjes :P wat overigens 60% duurder is
Een UPS beschermt je tegen power failure, maar een SSD verliest veel vaker onverwacht zijn stroom. Controleer dat eerst zelf maar eens: bekijk de SMART van je SSD en kijk naar Unexpected Power-Loss. Dat is veel vaker (30 - 100) dan dat je een echte power failure hebt gehad (misschien 1 keer?). Dus dat een UPS voldoende zou zijn, is onterecht.
Duidelijk. Denk dat het toch de MX100 wordt dan :P

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
68,99 - 44,90 = 24,09. Inclusief verzendkosten. Of kijk ik verkeerd?

Vroeger waren ze nog iets goedkoper trouwens; 90 euro voor de 256GB en 60 euro voor de 128GB. Maar dat was voordat de euro in waarde zakte t.o.v. de dollar.

De Mx100 beschouw ik als een SSD waar je lekker lang plezier voor kunt hebben. Dat is veel meer onzeker bij andere controllers/merkjes.

[ Voor 23% gewijzigd door Verwijderd op 25-05-2015 15:07 ]


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 26-09 16:38

Compizfox

Bait for wenchmarks

Die €68,99 is bij een shop waar hij niet leverbaar is. De goedkoopste shop die hem wel heeft zit aan €79,78 inclusief verzendkosten.

Die €44,90 is exclusief verzendkosten. Het goedkoopste inclusief is €49,40.

Dus 79,78 - 49,40 en dat is €30,38 ;)

EDIT: Hmm, het lijkt dat hij toch wel leverbaar is bij MyCom: http://www.mycom.nl/compo...72988/crucial-mx100-128gb

Pricewatch had het fout dan ;)


Is alleen bij afhalen. :-(

[ Voor 29% gewijzigd door Compizfox op 25-05-2015 17:47 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Hm, je hebt gelijk. Wel flink gestegen dan de prijzen laatste tijd; bijna 80 euro dus dat is bijna de prijs van de 256GB (90 euro) vroeger. Maarja, toen stond de euro/dollar-koers ook een stuk hoger. Dus daar zal een deel van het verhaal hem liggen. Maar ik ben ook bang dat Crucial de prijzen een beetje wilt pushen, net als Samsung succesvol heeft gedaan.

Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 20:35
Hmmm mijn WD60EZRX krijgen toch wel veel load cycles...

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
Disk    Status  Temperature     Power cycles    Load cycles     Cable errors    Bad sectors     Lifetime
ada0    Healthy     32°C &#8226; 90°F   10  8562    0   0 active &#8226; 0 passive  17 days
ada1    Healthy     31°C &#8226; 88°F   10  8656    0   0 active &#8226; 0 passive  17 days
da0     Healthy     no sensor               ? active &#8226; ? passive  ???
da1     Healthy     33°C &#8226; 91°F   61  203     0   0 active &#8226; 0 passive  1.7 years
da2     Healthy     36°C &#8226; 97°F   61  185     0   0 active &#8226; 0 passive  1.7 years
da3     Healthy     32°C &#8226; 90°F   60  188     0   0 active &#8226; 0 passive  1.7 years
da4     Healthy     37°C &#8226; 99°F   61  181     0   0 active &#8226; 0 passive  1.7 years
da5     Healthy     32°C &#8226; 90°F   59  198     0   0 active &#8226; 0 passive  1.7 years
da6     Healthy     34°C &#8226; 93°F   60  188     0   0 active &#8226; 0 passive  1.7 years
da7     Healthy     31°C &#8226; 88°F   10  8692    0   0 active &#8226; 0 passive  17 days

Warning
At least one disk has a high rate of load cycles. While this does not pose a direct problem, it could cause your disk(s) to have a shorter lifetime due to excessive headparking. The disk with the highest load cycle count is calculated to park their heads every 174.8 seconds. You may want to change the APM setting for the affected disk(s). Changing the APM to a setting of 254 on the Disks->Advanced page should cause the load cycles to increase much slower than the current rate.

Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 22:34

FREAKJAM

"MAXIMUM"

Met de WDIDLE3 tool de timeout op 300 seconde zetten. Waarschijnlijk staat hij nu veel lager ingesteld.

Mijn schijven staan nu ~400 dagen aan en hebben gemiddeld een load cycle van ~2000.
Aantal spin ups is wel vrij hoog (5700x) maar mijn schijven gaan ook in idle stand als er 2 uur geen activiteit is. Misschien een idee om dat uit te schakelen. Ik kijk zo vaak series (of iemand anders via Plex) en 's nachts is hij meestal wel bezig met downloads, dat je eigenlijk zou denken dat een spindown niet meer nodig is. Spin up time is aantal ms die hij nodig heeft om up te spinnen, bovenstaand verhaal klopt dus niet. Neemt niet weg dat ik overweeg om spindowns uit te schakelen. Als je je schijven vaak down/up spinned is dat ook niet goed voor de schijf lijkt me


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   185   180   021    Pre-fail  Always       -       5716
  4 Start_Stop_Count        0x0032   098   098   000    Old_age   Always       -       2117
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   087   087   000    Old_age   Always       -       9971
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   253   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       24
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       21
193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       2095
194 Temperature_Celsius     0x0022   117   111   000    Old_age   Always       -       33


edit:
hij staat nu op 175 seconde inderdaad zie ik nu, had niet naar rechts gescrold.

[ Voor 143% gewijzigd door FREAKJAM op 26-05-2015 12:44 ]

is everything cool?


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Eens per 175 seconden is nog steeds niet heel veel. Maar je kunt de timer nog verder oprekken naar 300 seconden zoals gezegd. Maar bij de oudere Greens kon je al in de eerste maand op 100.000 cycles zitten, dus dat ging wel erg hard...

Mijn WD60EZRX doet nu 3048 cycles in 3 maanden, zonder tuning. 1000 cycles per maand betekent dus 300 maanden specced load cycles en dat is 300 / 12 = 25 jaar dus zeer ruim voldoende. Tot maximaal 5000 cycles per maand zou ik tolereren.

[ Voor 33% gewijzigd door Verwijderd op 26-05-2015 12:38 ]


Acties:
  • 0 Henk 'm!

  • fluppie007
  • Registratie: April 2005
  • Laatst online: 20:35

Acties:
  • 0 Henk 'm!

  • TMon
  • Registratie: September 2006
  • Laatst online: 23-09 11:51
Vraagje over het benaderen van ZFS samba share.
Via windows kun je eenvoudig bij je share komen door \\name\share te gebruiken.
Echter ben ik nu Volumio aan het opzetten op een PI en daar kan ik alleen via IP en dan de share folder.
Dus in de trant van: \\123.456.7.89\Share, echter kan ik hiermee dan weer niet m'n zfs map benaderen.
Kan iemand me in de goede richting sturen?

Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 22:34

FREAKJAM

"MAXIMUM"

Misschien even vragen in het Raspberry Pi topic. Ik heb eigenlijk geen idee, maar het klinkt als een netwerk/dns probleem. Misschien vind je hier wat extra info? En misschien heb je nog iets aan deze post van CurlyMo?

[ Voor 151% gewijzigd door FREAKJAM op 27-05-2015 13:20 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 26-09 16:38

Compizfox

Bait for wenchmarks

TMon schreef op woensdag 27 mei 2015 @ 12:55:
Vraagje over het benaderen van ZFS samba share.
Via windows kun je eenvoudig bij je share komen door \\name\share te gebruiken.
Echter ben ik nu Volumio aan het opzetten op een PI en daar kan ik alleen via IP en dan de share folder.
Dus in de trant van: \\123.456.7.89\Share, echter kan ik hiermee dan weer niet m'n zfs map benaderen.
Kan iemand me in de goede richting sturen?
Heeft inderdaad vrij weinig met ZFS te maken, maar meer met DNS.

Als je je apparaten via een hostname wil benaderen op de rest van de apparaten in je netwerk, dan moet je ervoor zorgen dat op al je apparaten een DNS-server staat ingesteld die die hostnames kent.

De makkelijkste manier om dat te realiseren is door alle apparaten je router als DNS-server te laten gebruiken (dit kun je ook toewijzen via DHCP). Op je router stel je dan een DNS-server in die alle hostnames (en bijhorende IP-adressen) kent. Dit is een vrij gebruikelijke feature die ook de meeste routers wel te vinden is.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • TMon
  • Registratie: September 2006
  • Laatst online: 23-09 11:51
Ik ben wat aan het pielen geweest (heb er geen verstand van, dus 't was pielen) maar geen succes. Wel heb ik een D-link Dir655 die nogal wat DNS issues schijnt te hebben.
Maar ikzelf kan ook niet via m'n servernaam in de browser naar m'n music folder op de server.
Als ik dit doe: 192.168.0.185, kom ik direct op de ZFSguru main page uit, maar 192.168.0.185\Music geeft 404.
\\ZFSGuru\Music werkt wel weer perfect.
Dat laat mij geloven dat ZFSGuru geen verbinding direct via IP toelaat of dat er meer achter "ZFSGuru" zit dan alleen 't IP.

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
\\ZFSguru = NetBIOS, dat is onderdeel van CIFS/windows filesharing wat Samba dus ook doet. Samba heeft twee processen: smbd (Samba netwerk sharing) en nmbd (NetBIOS service). Die laatste zorgt ervoor dat je via de 'NetBIOS naam' kunt zoeken, en standaard is dat ZFSguru. Dit is niet case-sensitive voor zover ik weet, dus een verkeerd gebruik van hoofdlettergebruik (ZFSGuru) kan waarschijnlijk niet het probleem zijn.

De vraag is: heb je de logs bekeken? En heb je de share als protected of public gemaakt? Welk IP heeft je raspberry pi, valt dat in hetzelfde subnet?

Acties:
  • 0 Henk 'm!

  • TMon
  • Registratie: September 2006
  • Laatst online: 23-09 11:51
Logs bekeken, staat nergens dat er connectie is gemaakt vanuit m'n Raspberry IP. In de ZFSguru log paginas is niks te vinden. Wel alle resets van m'n router tijdens m'n DNS gepiel.

De share is public. Target path /WD3Pool/Music, Browsable <yes>, Guest OK <yes>, Read only <no>, Write list <@share>
Users with full acces <Everyone>
Niet de veiligste setting, I know, maar ik kreeg 't anders niet voor elkaar *schaam schaam*

Ik zie nu dat ik via Firefox op m'n win7pc wel via \\192.168.0.185\music op de schijf kan. Adres wordt dan file://///192.168.0.185/music/
Volumio zou 'm dus ook moeten kunnen vinden.
Ik ga 'm even een nachtje laten nadenken, 't is nogal een grote hoeveelheid data die ie moet indexeren, misschien dat dat 't issue is. Firefox heeft ook een minuut of 5 nodig.

-Update:
"t werkt nu. Bleek een permission issue te zijn. Volumio mocht via Guest account geen contact maken met ZFS. Terwijl Guest daar aan staat met alle rechten. Alles staat open met 777. (lekker vaag, maar zo begreep ik het).
Nu bleek dat in Volumio "Mount Flags" kunnen worden toegevoegd. Deze stond standard op: ro,dir_mode=0777,file_mode=0777

Dit moest zijn: ro,noatime,sec=ntlm.

Kan een van jullie uitleggen wat het verschil hiertussen is en wat met sec=ntlm bewerkstelligd wordt?

[ Voor 24% gewijzigd door TMon op 28-05-2015 10:33 ]


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 26-09 15:29

Pantagruel

Mijn 80486 was snel,....was!

TMon schreef op woensdag 27 mei 2015 @ 21:47:
Logs bekeken, staat nergens dat er connectie is gemaakt vanuit m'n Raspberry IP. In de ZFSguru log paginas is niks te vinden. Wel alle resets van m'n router tijdens m'n DNS gepiel.

De share is public. Target path /WD3Pool/Music, Browsable <yes>, Guest OK <yes>, Read only <no>, Write list <@share>
Users with full acces <Everyone>
Niet de veiligste setting, I know, maar ik kreeg 't anders niet voor elkaar *schaam schaam*

Ik zie nu dat ik via Firefox op m'n win7pc wel via \\192.168.0.185\music op de schijf kan. Adres wordt dan file://///192.168.0.185/music/
Volumio zou 'm dus ook moeten kunnen vinden.
Ik ga 'm even een nachtje laten nadenken, 't is nogal een grote hoeveelheid data die ie moet indexeren, misschien dat dat 't issue is. Firefox heeft ook een minuut of 5 nodig.

-Update:
"t werkt nu. Bleek een permission issue te zijn. Volumio mocht via Guest account geen contact maken met ZFS. Terwijl Guest daar aan staat met alle rechten. Alles staat open met 777. (lekker vaag, maar zo begreep ik het).
Nu bleek dat in Volumio "Mount Flags" kunnen worden toegevoegd. Deze stond standard op: ro,dir_mode=0777,file_mode=0777

Dit moest zijn: ro,noatime,sec=ntlm.

Kan een van jullie uitleggen wat het verschil hiertussen is en wat met sec=ntlm bewerkstelligd wordt?
ro = read-only

noatime = geen modificatie van access time, oftewel de server houdt toegang van volumio tot bestanden niet bij.

sec= de security mode, bepaald hoe wachtwoorden encrypted zijn tussen server en client (ook als je geen ww gebruikt op de share!)

ntlm (NT lan manager) was lang de standaard, maar met de veranderingen aan smb/cifs zijn we inmiddels bij ntlmssp aanbeland als standaard security scheme. Op moment dat een client dus iets anders verwacht zul je dit als mount option mee moeten geven.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
Kort verslag van de OpenZFS bijeenkomst te Parijs (26 & 27 mei 2015)

Dinsdag een dag vol presentaties en discussies.
Enkele krenten uit de pap
  • Er was een goede uitleg over de werking van nand (en een beetje nor) flash memory door Toshiba. De fysieke verschillen tussen slc, mlc en tlc werden goed uitgelegd met stm beelden van doorgesneden wafers. Dat flash echt slijt is nu weer een stuk duidelijker. Het elektrisch veld om te wissen is sterker dan een bliksem op menselijke schaal. Behoorlijk vernietigend dus. Ook de data retentie is een zorgen kind bij flash. Magnetische opslag is nog lang niet dood.
  • Let op smart attributen, als je een ssd koopt. Die zijn niet gestandaardiseerd, wat betreft nuttige ssd info. Ook verwijderen sommige sommige fabrikanten hele gewone ATA features om jouw een duurdere drive te laten kopen. Toshiba heeft overigens een net beleid dat je alleen betaald voor het aantal flash chips. Je kan die standaard met OP kopen of zelf naderhand instellen voor dezelfde prijs.
    Toshiba en HGST noemden ook allebei het belang van de powerloss protection.
  • HGST heeft heel duidelijk uitgelegd dat de SMR drives niet meer weggaan, sterker nog de conventionele drives zullen binnen een jaar of twee grotendeels niet meer gemaakt worden. Maar OS'es moeten wel tijd gaan stoppen in het aanbrengen van ondersteuning hiervoor.
    In de discussies na afloop zagen we zeker aanknopingspunten voor ZFS maar eenvoudig is het zeker niet.
  • HGST presenteerde ook SSD's, tijdens die presentatie kwam TRIM/UNMAP ook ter sprake. Sommigen willen dat graag geimplementeerd zien. Opzich is dat geen onredelijk verzoek, want het zou de SSD controller moeten helpen met GC. Nexenta merkte toen op dat interne testen bij hun hadden uitgewezen dat sommige SSD's (ook enterprise SSD's) plots helemaal instorten omdat ze lekker aan het opruimen gingen. Nu is dit een firmware issues. Maar het was zeker niet een geisoleerd incident. Met voldoende OP blijven SSD's op dit moment ook goed performen en daarom staat TRIM niet hoog op het lijstje.
  • Tijdens een presentatie over een nieuwe feature om de SPA ten alle tijde vdevs bezig te houden kwam weer een ding erg helder naar voren. PLANNEN, eerst NADENKEN, dan pas zpool's en datasets aanmaken. Er is geen one size fits all met optimale prestaties. Als je goede prestaties en efficiente opslag wil moet je van te voren nadenken. Deze feature gaat vooral mensen helpen met een zpool met verschillende modellen harddisken en/of een zpool die later is uitgebreid. Maar zal nog een tijd duren voor het beschikbaar is.
  • Ook is de beroemde wel of geen ECC vraag door iemand gesteld. Goed nieuws voor velen hier, je kan beter wel ZFS zonder ECC nemen dan een ander FS zonder ECC. De kans dat je als thuisgebruiker je zpool verliest door een bitflip is heel klein, de kans de je voeding al je drives kortsluit is een stuk groter, of dat je huis afbrand. Een periodieke echte reboot helpt in de zin dat alle geheugen opnieuw wordt geinit met schone data.
    Wel is het zo dat als je een systeem echt gebruikt je altijd ECC moet nemen. (Aan deze mededeling kunnen geen rechten worden ontleend.)
Op dag twee is er gewerkt aan diverse projecten.
  • In het najaar kunnen we zpool en zfs JSON output verwachten. Dit is een groot project waar al lang aan gewerkt wordt.
  • Diverse commits die al tijden klaar lagen zijn gecommit.
  • Er komt binnen kort de mogelijkheid om naast de bestaande iostat rapportage ook uitgesplitste sync en async data weer te geven.
  • Er komt de mogelijkheid om per dataset iostat's weer te geven.
  • De ZFS manpage wordt gesplitst per subcommando
  • De documentatie aangaande Illumos procedures zal worden verbeterd.
  • De ashift gaat waarschijnlijk verdwijnen en vervangen worden door een adjustable property die aligned allocaties doet van de instelde grootte. De allocatie grootte wordt daardoor geheel ontkoppeld van de hardware en aanpasbaar (voor nieuwe data)
Leuk om te zien was hoe het merendeel van de "jeugd" met grote verbazing keek naar de ouderen die lekker in vi aan het ontwikkelen waren. "Ja maar eclipse..", sorry dat werkt niet voor dit project.

Ook wil ik iedereen wijzen op een zojuist verschenen zfs boek wat zeker niet slecht scheen te zijn. Maar ik heb het zelf nog niet want het is nog niet als print te koop.

Dit alles op een unieke locatie maakte het tot een zeer geslaagd event.

[ Voor 7% gewijzigd door tvwes op 28-05-2015 21:11 . Reden: TRIM stukje toegevoegd ]


Acties:
  • 0 Henk 'm!

  • riwi
  • Registratie: Augustus 2004
  • Laatst online: 06-08 17:15
Bedankt voor je verslag.

Ik krijg dit weekend de onderdelen voor mijn 2de nas build binnen : Supermicro X10-SL7F, 32GB ECC en een intel of crucial SSD'tje dat ik nog heb liggen, met een LianLi 4-in-3 module in een LianLi kast die ik nog heb staan. Eerst inelkaar bouwen en Slackware installeren. Dan 10x of 12x 4T erin op RAIDZ2. Ik denk gewoon de Seagate desktop schijven, die doen het goed hier.

Ben op mijn test nas met de large block feature aan het spelen (recordsize=1MB). Ik merk nog weinig verschil, maar moet het nog eens verder bekijken. De feature is nog gloedje nieuw in ZoL.

PC specs


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
Graag gedaan.
Ik krijg dit weekend de onderdelen voor mijn 2de nas build binnen : Supermicro X10-SL7F, 32GB ECC en een intel of crucial SSD'tje dat ik nog heb liggen, met een LianLi 4-in-3 module in een LianLi kast die ik nog heb staan. Eerst inelkaar bouwen en Slackware installeren. Dan 10x of 12x 4T erin op RAIDZ2. Ik denk gewoon de Seagate desktop schijven, die doen het goed hier.

Ben op mijn test nas met de large block feature aan het spelen (recordsize=1MB). Ik merk nog weinig verschil, maar moet het nog eens verder bekijken. De feature is nog gloedje nieuw in ZoL.
Je post doet me onmiddelijk weer aan iets denken wat de afgelopen dagen toch telkens weer ter sprake kwam. ZoL is nog lang niet op het niveau van FreeBSD laat staan Illumos. ZoL zelf ontwikkelt zich goed maar had gewoon een achterstand. Het probleem zit hem meer in alles erom heen. Vooral kernel memory management blijft een issue. Dit is geen Linux bashing, maar een simpele observatie dat op dit moment Linux niet het beste platform is voor ZFS.

Dus als het even kan, en bijna niemand heeft een goede reden, probeer dan eerst een keer FreeBSD of iets als OmniOS (voor dat laatste wil ik zelfs nog wel wat ondersteuning bieden). Gewoon een keer proberen en kijken of alles werkt. Als het werkt, dan werkt het beter dan onder Linux. Niks moet, maar als tweaker sta je altijd open voor nieuwe techniek.

Acties:
  • 0 Henk 'm!

  • endeavor334
  • Registratie: Januari 2002
  • Laatst online: 12-08-2021
@tvwes Ik heb over IllumOS een vraagje. Ik ben zelf bezig met de opbouw van een storage omgeving. Hoe goed is de UPS support van IllumOS?

Ik heb 2 servers staan: 1 voor ESXi en 1 voor SAN/NAS. Beide hangen achter een eigen UPS.
Het OS voor de opslag wordt of FreeBSD of een IllumOS based (IllumOS, SmartOS, OmniOS met Nappit/Nexenta).
Nexenta 4.03 heeft voor zover ik het gezien heb geen UPS support, 3.15 wel. Geen idee hoe het zit met V5.
Van FreeBSD weet ik dat het support goed is. De UPS is van APC en de andere UPS kan worden aangestuurd met RUPS 2000 support.

Voor elk probleem is er een oplossing. Dus dat is het probleem niet. De oplossing dat is het probleem.


Acties:
  • 0 Henk 'm!
Heel eerlijk, qua zfs doet bsd het beter, maar daaromheen denk ik soms dat ze het weer slechter doen...

Ik mis altijd ionice op bsd, de zuinige kernel en zo nog wat dingen...

Vroeger miste ik juist package management features, maar daar hebben ze met pkg-ng weer een inhaal slag gemaakt.

Misschien stap ik ooit weer eens over op BSD als ze eindelijk eens een snel startende, zuinige, makkelijk te compileren kernel maken...

Even niets...


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
endeavor334 schreef op donderdag 28 mei 2015 @ 21:27:
@tvwes Ik heb over IllumOS een vraagje. Ik ben zelf bezig met de opbouw van een storage omgeving. Hoe goed is de UPS support van IllumOS?

Ik heb 2 servers staan: 1 voor ESXi en 1 voor SAN/NAS. Beide hangen achter een eigen UPS.
Het OS voor de opslag wordt of FreeBSD of een IllumOS based (IllumOS, SmartOS, OmniOS met Nappit/Nexenta).
Nexenta 4.03 heeft voor zover ik het gezien heb geen UPS support, 3.15 wel. Geen idee hoe het zit met V5.
Van FreeBSD weet ik dat het support goed is. De UPS is van APC en de andere UPS kan worden aangestuurd met RUPS 2000 support.
Wij gebruiken altijd nut maar dan zelf gebuild. Volgens mij heeft OmniOS het niet in een (gesignde) repo staan. Wel is er pkgsrc (die van NetBSD) maar dan voor Illumos. Daar staan wel packages in voor nut. Tegenwoordig is de noodzaak van nut voor ons een stuk minder omdat wij ervan uitgaan dan een dc eeuwige voeding heeft, en wij geen signalen van de ups van het dc krijgen. Maar we gebruiken het nog altijd. Wel altijd via RS-232, usb was niet betrouwbaar. Misschien nu wel, maar ik weet dat niet. Voor RUPS 2000 heb je toch ook speciale kabels voor nodig? NUT is heel generiek dus er zal heus wat van te maken zijn.
Je kan zo een nut client downloaden voor vSphere.
Wel moet je er echt op rekenen dat je flink wat tijd kwijt bent als je alles goed wilt testen. In een vergelijkbare situatie zou ik de nut server (upsd) op de NAS installeren en de ESXi als client dat laten monitoren. De truuk zit hem erin dat je VM worden afgesloten en evt in de juiste volgorde. Stel dat een VM hangt dan wil niet dat de rest daardoor ook niet netjes wordt afgesloten. En je hebt de leuke vraag of je de de ups uitgang echt uit zet en pas weer aanzet als de ups zo vol is dat hij een complete boot en shutdown cyclus kan doorlopen. Allemaal niet moelijk maar om het echt goed te krijgen ben toch wel een tijd zoet, de ups moet ook weer bijladen bijvoorbeeld. Je kan gedeeltelijk de netuitval simuleren via upsdrvctl maar niks haalt het bij een echte test.
Wij hebben ook wel eens overwogen om de nut client in de guest te draaien maar hebben daar uiteindelijk om beheer redenen vanaf gezien.

FreeBSD gebruikt ook nut. We hebben ooit overwogen om met de makelijke tools van APC te werken maar zijn daar nooit aan begonnen. Nut is prima en heb je eenmaal de configuratie dan kan je die op ieder OS weer hergebruiken.

Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
FireDrunk schreef op donderdag 28 mei 2015 @ 21:33:
Heel eerlijk, qua zfs doet bsd het beter, maar daaromheen denk ik soms dat ze het weer slechter doen...

Ik mis altijd ionice op bsd, de zuinige kernel en zo nog wat dingen...

Vroeger miste ik juist package management features, maar daar hebben ze met pkg-ng weer een inhaal slag gemaakt.

Misschien stap ik ooit weer eens over op BSD als ze eindelijk eens een snel startende, zuinige, makkelijk te compileren kernel maken...
Een tickless Illumos kernel zou heel leuk zijn. Alleen voor een server bijna irrelevant, want die is altijd bezig. Voorlopig zit dat er gewoon niet in. Wel is het zo dat Illumos meestal wat zuiniger is dan Linux door betere prestaties bij alledaags server workloads. Er was ooit een OpenSolaris project om een tickless kernel te maken maar dat is nooit afgemaakt.
Naast ionice kan ik nog wel wat handige Linux features bedenken zoals sar. Nee, illumos is helemaal niet perfect maar als nas zet het top prestaties neer.

Acties:
  • 0 Henk 'm!
Say whut? Illumos beter (zuiniger per clock) dan linux? Heb je daar een bron van?

Even niets...


Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 14-09 19:36
FireDrunk schreef op donderdag 28 mei 2015 @ 21:33:


Misschien stap ik ooit weer eens over op BSD als ze eindelijk eens een snel startende, zuinige, makkelijk te compileren kernel maken...
powerd wel eens aangezet? :P

En wat is er moeilijk aan in /usr/src een file aan te passen waar alles in staat en vervolgens een make kernel te doen :+

tja en snel booten. Het blijft een server OS dus ook weer zo een non issue

Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
FireDrunk schreef op donderdag 28 mei 2015 @ 21:33:
Misschien stap ik ooit weer eens over op BSD als ze eindelijk eens een snel startende, ... , makkelijk te compileren kernel maken...
Een illumos systeem boot echt snel, ik zal het later vergelijken met enkele Linux machines. Het snelste is het booten van het OS inclusief sommige zones, een stuk langer is de tijd van poweron tot de boot loader, en het meeste tijd kost mounten van ZFS (bij veel datasets)

Ik weet niet wat jij bedoelt met "makkelijk te maken", maar op een werkende build omgeving kan je met een commando "$ ./nightly.sh illumos.sh" alles builden. Na een succesvolle build kan je met een commando alles installeren inclusief de mogelijk om je vorige versie te booten. Ik weet niet of Linux je de mogelijkheid bied om na rpm -Uvh kernel*.rpm je ook je vorige versie laat booten. Maar in beide gevallen komt het neer op twee commando's nadat je bij Linux je je een weg hebt gebaand door het config moeras. FreeBSD is ook niet echt heel veel eenvoudiger. Dus ik weet het niet maar volgens mij wint Illumos deze Pepsi test makkelijk. Twee commando's voor build (kernel inclusief een stuk userland) en install en als bonus de mogelijkheid om een vorige versie te booten zonder enig conflict ivm de ABI compatibilty en stabiele interfaces, dat doen Linux en FreeBSD het volgens mij niet na.
Vooral FreeBSD en OpenBSD hebben veel meer discrete stappen, en de extra reboot is ook niet fijn. Ook kent Illumos standaard geen config stap, je build simpelweg alles. Geen moeilijke vragen gewoon compileren en installeren en reboot.

[ Voor 7% gewijzigd door tvwes op 29-05-2015 08:58 ]


Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
[b][message=44319553,noline]
Ik weet niet wat jij bedoelt met "makkelijk te maken", maar op een werkende build omgeving kan je met een commando "$ ./nightly.sh illumos.sh" alles builden. Na een succesvolle build kan je met een commando alles installeren inclusief de mogelijk om je vorige versie te booten. Ik weet niet of Linux je de mogelijkheid bied om na rpm -Uvh kernel*.rpm je ook je vorige versie laat booten.
Geen idee hoe de rpm-based distros het doen, maar de apt-based distros doen dit simpel; bij elke installatie/upgrade/verwijder actie van een kernel wordt je bootloader config bijgewerkt met de lijst van alle geinstalleerde kernels.. tijdens startup kan je dan aangeven welke kernel er gestart moet worden (al zal in veel gevallen er een 1-3sec timeout zijn waarna hij de laatste automatisch start).

Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
DXaroth schreef op vrijdag 29 mei 2015 @ 09:25:
[...]


Geen idee hoe de rpm-based distros het doen, maar de apt-based distros doen dit simpel; bij elke installatie/upgrade/verwijder actie van een kernel wordt je bootloader config bijgewerkt met de lijst van alle geinstalleerde kernels.. tijdens startup kan je dan aangeven welke kernel er gestart moet worden (al zal in veel gevallen er een 1-3sec timeout zijn waarna hij de laatste automatisch start).
Sorry mijn fout ik had moeten vragen: welke distro kan tijdens het booten kiezen voor een complete vorige versie, niet alleen de kernel maar incl userland? Alleen een kernel vervangen en terugzetten is bij bijna geen enkel OS een probleem. Dit alles is natuurlijk weer mede mogelijk gemaakt door ZFS snapshot's...

Acties:
  • 0 Henk 'm!

  • DXaroth
  • Registratie: Maart 2011
  • Laatst online: 24-08 19:58
tvwes schreef op vrijdag 29 mei 2015 @ 09:35:
[...]

Sorry mijn fout ik had moeten vragen: welke distro kan tijdens het booten kiezen voor een complete vorige versie, niet alleen de kernel maar incl userland? Alleen een kernel vervangen en terugzetten is bij bijna geen enkel OS een probleem. Dit alles is natuurlijk weer mede mogelijk gemaakt door ZFS snapshot's...
Userland gaat idd wat verder, daar heb ik zelf ook niet genoeg in gedoken om daar enigszins iets zinnigs over te melden 8)7


Op een iets minder gerelateerd onderwerp. ik heb mijn weekend vermaak al gevonden.. collectd 5.5 is (eindelijk) uit, en heeft (eindelijk) support voor ZoL _/-\o_ Nu nog uitzoeken in hoeverre ik met libzfs-python kan prutten om dat nog meer uit te breiden

Acties:
  • 0 Henk 'm!

  • ginod
  • Registratie: Januari 2001
  • Laatst online: 24-09 01:39
Even een vraag van een newbie tussendoor. Ik weet aardig wat van Windows en maar een heel klein beetje van Linux. Is het dan toch aan te raden om voor een nieuw te bouwen NAS (heb nu een 4 jaar oude Qnap 419P+) te kiezen voor ZFS ? In combinatie met bijvoorbeeld nas4free ?

24/7: Legendary Club Sounds on http://tunein.com/radio/Lazer-Hot-Hits-s161805/


Acties:
  • 0 Henk 'm!
Wat ik wel weet is dat je op Linux direct kan booten naar een BTRFS snapshot. Dit heb ik zelf nog niet geprobeerd met ZFS, maar theoretisch zou dat dus ook moeten kunnen. Booten naar een oude userland kan dus wel in Linux mits ondersteund door het FS.

@ginod, Ja. Genoeg informatie hier over het waarom.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Kortfragje
  • Registratie: December 2000
  • Laatst online: 18-09 22:14

Kortfragje

......

tvwes schreef op donderdag 28 mei 2015 @ 16:12:
Kort verslag van de OpenZFS bijeenkomst te Parijs (26 & 27 mei 2015)

....

Dit alles op een unieke locatie maakte het tot een zeer geslaagd event.
Cool! Jammer dat ik daar niet van op de hoogte was... Ziet er uit als jaarlijks evenement?

http://www.gjpvanwesten.nl


Acties:
  • 0 Henk 'm!

  • riwi
  • Registratie: Augustus 2004
  • Laatst online: 06-08 17:15
Kortfragje schreef op vrijdag 29 mei 2015 @ 11:30:
[...]


Cool! Jammer dat ik daar niet van op de hoogte was... Ziet er uit als jaarlijks evenement?
1x per jaar is het in Europa ergens. En er is ook een jaarlijkse meet ergens in de VS. Er staan wel filmpjes van de presentaties op youtube. De laatste in de VS was helaas niet te verstaan. Maar wel leuk om de hoofd ontwikkelaars eens te zien spreken van/over de verschillende platformen.
tvwes schreef op donderdag 28 mei 2015 @ 21:01:
Je post doet me onmiddelijk weer aan iets denken wat de afgelopen dagen toch telkens weer ter sprake kwam. ZoL is nog lang niet op het niveau van FreeBSD laat staan Illumos. ZoL zelf ontwikkelt zich goed maar had gewoon een achterstand. Het probleem zit hem meer in alles erom heen. Vooral kernel memory management blijft een issue. Dit is geen Linux bashing, maar een simpele observatie dat op dit moment Linux niet het beste platform is voor ZFS.
In de basis is ZoL best OK, maar inderdaad het geheugen beheer mankeert nog van alles aan. En er zijn ook nog allerlei performance dingen die aangepakt moeten worden naar verluid. Voor mijn thuisgebruik situatie voldoet het echter prima.
Ik was begonnen met ZFSguru op FreeBSD maar kreeg bv WOL niet werkend en met de simpelste BSD dingen was ik uren aan het googlen, dus daarom de keuze gemaakt om terug te stappen naar het voor mij vertrouwde Slackware. Daar zit amper package management in (afgezien van slackpkg+) en dat heb ik ook niet nodig. Ik hoef ook niet iedere maand een andere kernel. Stabiliteit en KISS principe is waar Slackware voor staat. Ik start vaak niet eens een grafische omgeving hoewel er wel KDE op staat.

Ik ben van de oude stempel en posts op tweakers etc. waarin het OS met een GUI wordt verward staan mij al een beetje tegen.

PC specs


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
riwi schreef op vrijdag 29 mei 2015 @ 12:38:
[...]


1x per jaar is het in Europa ergens. En er is ook een jaarlijkse meet ergens in de VS. Er staan wel filmpjes van de presentaties op youtube. De laatste in de VS was helaas niet te verstaan. Maar wel leuk om de hoofd ontwikkelaars eens te zien spreken van/over de verschillende platformen.
Het is bijna nooit een platform vergelijking bij deze presentaties. Het is meer gericht op de presentatie van nieuwe features en verdieping van bepaalde features en/of onderwerpen. En wat verkapte product presentaties van een sponsor.
[...]

In de basis is ZoL best OK, maar inderdaad het geheugen beheer mankeert nog van alles aan. En er zijn ook nog allerlei performance dingen die aangepakt moeten worden naar verluid. Voor mijn thuisgebruik situatie voldoet het echter prima.
Ik was begonnen met ZFSguru op FreeBSD maar kreeg bv WOL niet werkend en met de simpelste BSD dingen was ik uren aan het googlen, dus daarom de keuze gemaakt om terug te stappen naar het voor mij vertrouwde Slackware. Daar zit amper package management in (afgezien van slackpkg+) en dat heb ik ook niet nodig. Ik hoef ook niet iedere maand een andere kernel. Stabiliteit en KISS principe is waar Slackware voor staat. Ik start vaak niet eens een grafische omgeving hoewel er wel KDE op staat.

Ik ben van de oude stempel en posts op tweakers etc. waarin het OS met een GUI wordt verward staan mij al een beetje tegen.
Ik heb niet gezegd dat ZoL in de basis niet goed was. ZoL heeft alleen een achterstand tov andere implementaties. Daarnaast is het hele review proces voor nieuwe commits bij Illumos vrij strikt en streng. Wat resulteert in hoogwaardige code. Een dergelijk (formeel) proces ontbreekt bij ZoL volgens mij.
Ik upgrade ook zeer beperkt mijn systemen. Stabiliteit en KISS schreef je? Ah dan bedoel je zeker OmniOS. Oh wacht dat heeft zelfs geen gui.

Schreef ik dat een OS een GUI heeft? Ik ben niet tegen een GUI, alleen zie ik het als een component wat los staat van het feitelijke OS. Net als de vSphere client de gui is van de ESXi hypervisor. In dit laatste kan je via SSH ook bijna alles regelen maar echt snel werkt dat niet en met 100 servers is het niet leuk meer. Dat de meeste Illumos distro's geen GUI hebben komt omdat ze allemaal in het algemeen via andere tools beheerd worden. Vroeger zat er overigens wel een complete GUI in openSolaris.

Acties:
  • 0 Henk 'm!

  • riwi
  • Registratie: Augustus 2004
  • Laatst online: 06-08 17:15
Mijn commentaar op de GUI vs. OS was meer om de context te plaatsen. Niet om jouw posts en mening aan te vallen. Een GUI is prima als die goed werkt. Maar 100 machines via een GUI beheren of via SSH/CLI dan geef ik toch de voorkeur aan het laatste. Of je moet een kudde goedkope India'ers inhuren om de GUI clicks te doen. En een goede nederlander die een extreem goede instructie schrijft want anders verprutsen ze het alsnog.

ZoL heeft maar 1 persoon die commits doet en dat is Brian Behlendorf. Dus die bewaakt de kwaliteit. En dat doet ie al een poosje erg goed. Slackware heeft maar 1 persoon die bepaalt wat er in de distro word opgenomen en dat is Patrick Volkerding. Dat principe werkt best aardig vind ik.

PC specs


Acties:
  • 0 Henk 'm!
A good dictator is better than a democracy of idiots :+

Even niets...


Acties:
  • 0 Henk 'm!

  • blmp
  • Registratie: Augustus 2004
  • Niet online

blmp

Life is Strange

Ik draai momentele een FreeNAS setup met een striped RAIDZ1 setup.

Afbeeldingslocatie: http://img.photobucket.com/albums/v385/hxkclan/Screenshot%20from%202015-05-30%2014-42-05.png

Na een grote schoonmaak kwam ik er in elk geval achter dat ik lang niet meer zoveel opslag verbruik. Ik wilde daarom eigenlijk 1 van de RAIDZ1 arrays uit het systeem trekken (zijn sowieso ook al erg oude hdd's dus misschien zelfs weggooien). Maar zover ik lees (en zie in FreeNAS) is er niet echt een mogelijkheid om 1 van de RAIDZ1 arrays te verwijderen of iets dergelijks? Toevallig mensen met ervaring met het wisselen naar een kleine(re) setup?

[ Voor 7% gewijzigd door blmp op 30-05-2015 14:54 . Reden: daadwerkelijk Nederlands typen ... ]

7950x/32GB/860 Pro 2TB/MSI Suprim X RTX4090 | MacBook Pro M1 Pro 16"


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
blmp schreef op zaterdag 30 mei 2015 @ 14:52:
Ik draai momentele een FreeNAS setup met een striped RAIDZ1 setup.

[afbeelding]

Na een grote schoonmaak kwam ik er in elk geval achter dat ik lang niet meer zoveel opslag verbruik. Ik wilde daarom eigenlijk 1 van de RAIDZ1 arrays uit het systeem trekken (zijn sowieso ook al erg oude hdd's dus misschien zelfs weggooien). Maar zover ik lees (en zie in FreeNAS) is er niet echt een mogelijkheid om je pool te shrinken? Toevallig mensen met ervaring met het wisselen naar een kleine(re) setup?
Helaas is dat op dit moment niet mogelijk, het verwijderen van vdev's.
Mogelijke oplossing:
Een paar hele grote disken in een nieuwe pool plaatsen en daar alles via zfs send en recv naar toe sturen.
  • via lege sata poorten
  • via usb, niet snel maar eenmalige actie
  • oud pct'je met wat sata poorten en een cross cable ertussen , misschien niet snel maar wel sneller dan usb
De (nieuwe) grote disken kan je daarna als backup gebruiken.

Acties:
  • 0 Henk 'm!

  • yamahabest
  • Registratie: Januari 2003
  • Laatst online: 26-09 07:25
Verwijderd schreef op maandag 18 mei 2015 @ 13:30:
Bijna alles is af, draai het nu hier. Overmorgen bij mijn familie installeren. Kortom, het is al 'af' maar er moeten nog wat dingen met de web-interface en distributie-tags gebeuren, en uiteindelijk nog verse systeem images. Dus waarschijnlijk nog een weekje.

0.3 zal nog geen ondersteuning hebben voor de Raspberry Pi; maar daar zijn al wel plannen voor. Wat wel in 0.3 zal zitten zijn de nieuwe distributies, RoZ / RoR / RoM.
Dat weekje is een weekje geleden :)
Valt er een update te geven?

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 26-09 16:38

Compizfox

Bait for wenchmarks

Ik heb wat problemen...

Ik heb een paar dagen geleden een hotswapbay geïnstalleerd in mijn server (pricewatch: Icy Dock Black Vortex MB074SP-1B 3.5” SATA HDD 4 in 3 Hot-Swap Module Cooler Cage) maar heb sindsdien wat problemen.

Ik kreeg vanochtend ineens een mail van mijn server met het bericht dat mijn pool aan het resilveren was. Na wat verdere inspectie bleek dat dat resilveren bijna elke minuut opnieuw gebeurde (hij kwam niet verder en begon steeds opnieuw).

Bij de SMART-waarden zag ik dat van bepaalde schijven in de pool de Power-Off Retract Count en de UDMA CRC Error Count niet-nul was.

Omdat ik niet thuis was heb ik toen mijn storage-VM maar afgesloten, het leek me niet goed om hem door te laten gaan met resilveren.

Ik ben net weer thuis en heb de server even fysiek geïnspecteerd. Het bleek dat één van de twee SATA-power-kabels die de bay van stroom voorzien, een beetje scheef zat.

Ik heb nu alle kabels goed aangesloten en alle HDDs even gereseat. De pool heeft nu geen last meer van het spontaan (en herhaald) resilveren. Momenteel ben ik een scrub aan het draaien en die heeft al wat checksum-errors gevonden:

code:
1
2
3
4
5
6
7
8
9
10
11
  scan: scrub in progress since Mon Jun  1 14:08:11 2015
        100G scanned out of 896G at 99.8M/s, 2h16m to go
        984K repaired, 11.16% done
config:

        NAME              STATE     READ WRITE CKSUM
        Data              ONLINE       0     0     0
          raidz1-0        ONLINE       0     0     0
            gpt/Storage1  ONLINE       0     0    16  (repairing)
            gpt/Storage2  ONLINE       0     0     0
            gpt/Storage3  ONLINE       0     0     0


Ik krijg echter nog steeds constant dit soort meldingen in mijn dmesg:

code:
1
2
3
(ada3:ahcich4:0:0:0): WRITE_FPDMA_QUEUED. ACB: 61 48 08 a5 69 40 3f 00 00 00 00 00
(ada3:ahcich4:0:0:0): CAM status: Uncorrectable parity/CRC error
(ada3:ahcich4:0:0:0): Retrying command


Deze melding komt nu (tijdens de scrub) echt een paar keer per minuut langs. Dit lijkt me niet goed...

Mijn vraag is wat deze melding betekent. Is er nog steeds een probleem met de bekabeling? Of zijn deze meldingen slechts het gevolg van de corruptie die is ontstaan toen de kabel los zat?

Overigens is die ada3 dezelfde schijf als Storage1.

Uiteraard heb ik backups en zo maar ik heb uiteraard geen zin om daar gebruik van te moeten maken ;)

[ Voor 5% gewijzigd door Compizfox op 01-06-2015 14:31 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • disinfector
  • Registratie: Mei 2002
  • Laatst online: 25-09 12:09
Ik heb geen antwoord op je vraag maar hoe bevalt het dock verder? Wel interessant voor die prijs :)

Acties:
  • 0 Henk 'm!
Volgens mij zijn CRC errors vooral data kabel issues, en wat minder vaak stroom issues.
Zit die niet te strak bijvoorbeeld, waardoor hij ook scheef gaat zitten?

Let ook op dat als de server koud is de kabel wel kan blijven zitten, maar naar mate de kabels opwarmen er misschien iets verschuift (ook al eens gehad).

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 26-09 16:38

Compizfox

Bait for wenchmarks

Zo, scrub is klaar:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
  pool: Data
 state: ONLINE
status: One or more devices has experienced an unrecoverable error.  An
        attempt was made to correct the error.  Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
        using 'zpool clear' or replace the device with 'zpool replace'.
   see: http://illumos.org/msg/ZFS-8000-9P
  scan: scrub repaired 6.11M in 1h27m with 0 errors on Mon Jun  1 15:36:09 2015
config:

        NAME              STATE     READ WRITE CKSUM
        Data              ONLINE       0     0     0
          raidz1-0        ONLINE       0     0     0
            gpt/Storage1  ONLINE       0     0   101
            gpt/Storage2  ONLINE       0     0     0
            gpt/Storage3  ONLINE       0     0     1

errors: No known data errors


Alleen checksum-errors dus. Er zijn gelukkig ook geen bestanden die hij niet heeft kunnen repareren.

Ondertussen ben ik ook de SMART blijven monitoren en dat lijkt stabiel te zijn. Ik ben echter toch nog niet helemaal zeker om het nu opgelost is ...
disinfector schreef op maandag 01 juni 2015 @ 15:23:
[...]


Ik heb geen antwoord op je vraag maar hoe bevalt het dock verder? Wel interessant voor die prijs :)
Zolang dit probleem niet te maken heeft met de docking bay verder (ik hoop het ;)), is de bay prima. De bouwkwaliteit is voldoende en het docking-systeem werkt prima (je hoeft enkel een plastic bracket aan één kant van de schijf met twee schroefjes vast te zetten). De schijven klikken er goed in en zijn te locken.

Naast elke schijf zit ook een schakelaar om de schijf aan- en uit- te schakelen en een ledje dat de schijfactiviteit weergeeft.

De bay heeft door de fan met blauwe LEDs een wat 'gaminguiterlijk' maar dat vind ik niet erg. Het systeem met de opzijklappende fan werkt ook prima.

Let wel even op dat je die brackets vastzet met de schroefjes die erbij krijgt (met de platte kop). Ik had het eerst gedaan met m'n eigen schroefjes (die ik normaal voor schijven gebruik) maar die hebben dus een te 'hoge' kop waardoor de schijven dan niet meer in de bay passen.

[ Voor 8% gewijzigd door Compizfox op 01-06-2015 15:43 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
Kan je de docking bay niet even bypassen? Grote kans dat het daar iets mee te maken heeft, is dit met backplane

[ Voor 4% gewijzigd door A1AD op 01-06-2015 19:10 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • HyperH
  • Registratie: Mei 2015
  • Laatst online: 06-01 15:22
Compizfox schreef op maandag 01 juni 2015 @ 15:41:
Het systeem met de opzijklappende fan werkt ook prima.
Het is een 120mm fan zag ik. Hoe bevalt dat qua geluid?
Ben je die fan echt nodig of zou die ook uitgeschakeld kunnen worden?
Die icydock lijkt me een heel mooi product maar het zal niet passen in een kast met stoffilters c.q. deurtje zeker want de dock steekt wel een beetje uit met die grepen of niet?

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 26-09 16:38

Compizfox

Bait for wenchmarks

Die fan doet het goed, en kan op drie standen gezet worden (low, high en uit). Je hoort hem wel maar dat maakt me niets uit want de server staat in de kelder ;)

Nee, de dock steekt niet uit. Als je het deurtje (met fan erin) dicht hebt, kan het deurtje van je kast gewoon dicht. Overigens zit er in dat deurtje van de bay ook een stoffilter.

[ Voor 8% gewijzigd door Compizfox op 01-06-2015 22:23 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • HyperH
  • Registratie: Mei 2015
  • Laatst online: 06-01 15:22
Dan is het een ideaal component voor in een zelfbouwnas. :)

Ik vraag me alleen wel af of die fan echt noodzakelijk is. Worden de HDD's in die dock warmer omdat ze compact in een kleine ruimte met beperkte airflow zitten opgesloten?

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Het hangt vast wel af van in welke kast je het dock zet, maar zo ongeveer alle kasten hier hebben een verwaarloosbaar kleine airflow door de 5.25" bays. Dan lijkt een fan toch wel noodzakelijk.

Acties:
  • 0 Henk 'm!

  • Kortfragje
  • Registratie: December 2000
  • Laatst online: 18-09 22:14

Kortfragje

......

succes!

van
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
gertdus_write@KarelDoorman:~$ zpool status 
  pool: zfspool
 state: ONLINE
  scan: scrub repaired 0 in 9h23m with 0 errors on Tue Apr 14 04:55:07 2015
config:

    NAME        STATE     READ WRITE CKSUM
    zfspool     ONLINE       0     0     0
      raidz2-0  ONLINE       0     0     0
        2tb1    ONLINE       0     0     0
        2tb2    ONLINE       0     0     0
        2tb3    ONLINE       0     0     0
        2tb4    ONLINE       0     0     0
        2tb5    ONLINE       0     0     0
        2tb6a   ONLINE       0     0     0

errors: No known data errors

gertdus_write@KarelDoorman:~$ 
NAME      SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
zfspool  10.9T  8.32T  2.55T    76%  1.00x  ONLINE  -


naar
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
root@KarelDoorman:~# zpool status 
  pool: zfspool
 state: ONLINE
  scan: resilvered 1.38T in 8h59m with 0 errors on Tue Jun  2 03:00:47 2015
config:

    NAME         STATE     READ WRITE CKSUM
    zfspool      ONLINE       0     0     0
      raidz2-0   ONLINE       0     0     0
        5tb1_s5  ONLINE       0     0     0
        5tb2_s1  ONLINE       0     0     0
        5tb3_s3  ONLINE       0     0     0
        5tb4_s2  ONLINE       0     0     0
        5tb5_s4  ONLINE       0     0     0
        5tb6_s6  ONLINE       0     0     0

errors: No known data errors
root@KarelDoorman:~# 

root@KarelDoorman:~/Desktop# zpool list 
NAME      SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
zfspool  27.2T  8.32T  18.9T    30%  1.00x  ONLINE  -

http://www.gjpvanwesten.nl


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 26-09 15:29

Pantagruel

Mijn 80486 was snel,....was!

Kortfragje schreef op dinsdag 02 juni 2015 @ 08:26:
succes!

van
code:
1
2
3
4
snips...

NAME      SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
zfspool  10.9T  8.32T  2.55T    76%  1.00x  ONLINE  -


naar
code:
1
2
3
4
snips...

NAME      SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
zfspool  27.2T  8.32T  18.9T    30%  1.00x  ONLINE  -
Nice, maar wat heb je nu gedaan?.

Er een 2e array erbij geprikt en de data overgezet middels send/receive of 'the long way home', auto expand aan zetten en stuk voor stuk disks vervangen en resilveren?

[ Voor 49% gewijzigd door Pantagruel op 02-06-2015 09:44 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 26-09 16:38

Compizfox

Bait for wenchmarks

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
  pool: Data
 state: ONLINE
status: One or more devices has experienced an unrecoverable error.  An
        attempt was made to correct the error.  Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
        using 'zpool clear' or replace the device with 'zpool replace'.
   see: http://illumos.org/msg/ZFS-8000-9P
  scan: resilvered 6.41M in 0h0m with 0 errors on Mon Jun  1 22:21:31 2015
config:

        NAME              STATE     READ WRITE CKSUM
        Data              ONLINE       0     0     0
          raidz1-0        ONLINE       0     0     0
            gpt/Storage1  ONLINE       0     0     0
            gpt/Storage2  ONLINE       0   149     0
            gpt/Storage3  ONLINE       0     0     0


Fuck...

Ik ga de kabels maar opnieuw inpluggen en anders gaat die bay toch gewoon RMA.

[ Voor 4% gewijzigd door Compizfox op 02-06-2015 10:22 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Check je SMART?!

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 26-09 16:38

Compizfox

Bait for wenchmarks

Ja, cable errors (UDMA_CRC_Error_Count)

[ Voor 42% gewijzigd door Compizfox op 02-06-2015 10:40 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Dan lijkt me duidelijk wat je moet doen?

RMA sturen is natuurlijk onzin want het ligt niet aan de schijf dat er kabelfouten zijn. Edit: oh je had het over de bay. :)

UDMA_CRC_Error_count gaat niet meer naar beneden; dus de waarde onthouden en regelmatig controleren of dit niet meer oploopt.

[ Voor 6% gewijzigd door Verwijderd op 02-06-2015 11:06 ]


Acties:
  • 0 Henk 'm!

  • Kortfragje
  • Registratie: December 2000
  • Laatst online: 18-09 22:14

Kortfragje

......

Pantagruel schreef op dinsdag 02 juni 2015 @ 09:43:
[...]


Nice, maar wat heb je nu gedaan?.

Er een 2e array erbij geprikt en de data overgezet middels send/receive of 'the long way home', auto expand aan zetten en stuk voor stuk disks vervangen en resilveren?
Ik heb de disks een voor een vervangen en laten resilveren (met oude disk nog in array). Het lijkt trouwens dat de nieuwe 5TB disks sneller zijn dan de oude 2TB disks, de resilversnelheid liep langzaam op gedurende het proces en scrubben is nu sneller.

http://www.gjpvanwesten.nl


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 26-09 15:29

Pantagruel

Mijn 80486 was snel,....was!

Kortfragje schreef op dinsdag 02 juni 2015 @ 12:06:
[...]

Ik heb de disks een voor een vervangen en laten resilveren (met oude disk nog in array). Het lijkt trouwens dat de nieuwe 5TB disks sneller zijn dan de oude 2TB disks, de resilversnelheid liep langzaam op gedurende het proces en scrubben is nu sneller.
Dat was mijn gok al, maar je weet t maar nooit. De 5 TiB disks zullen idd sneller zijn qua doorvoersnelheid dan de 2 TiB disks ivm toegenomen data-dichtheid per platter.

Heb je een lijstje van de gebruikte hardware/OS vd server?, altijd leuk om te zien wat anderen hebben draaien.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • Kortfragje
  • Registratie: December 2000
  • Laatst online: 18-09 22:14

Kortfragje

......

Sure, dit is de server (NAS, sickbeard, counterstrike source, subsonic, printen, etc)

#ProductPrijsSubtotaal
1AMD Athlon II X3 450 Boxed€ 0,-€ 0,-
1Asus M5A97 LE R2.0€ 79,42€ 79,42
1WD Blue WD5000LPVX, 500GB€ 43,-€ 43,-
6WD Green WD50EZRX€ 187,95€ 1.127,70
2Kingston 8GB 1333MHz DDR3L ECC Reg CL9 DIMM QR x8 (KVR1333D3LQ8R9S/8GHC)€ 0,-€ 0,-
Bekijk collectie
Importeer producten
Totaal€ 1.250,12


En dit wordt mn backup server (draait nu nog met 1 array van 6 2TB disks)

#ProductPrijsSubtotaal
1AMD Athlon 64 X2 3800+ Boxed€ 0,-€ 0,-
1Gigabyte GA-K8NXP-SLI, nForce4 SLI (Sound, LAN, SATA II RAID)€ 0,-€ 0,-
1WD Black WD1600BEKT, 160GB€ 59,90€ 59,90
14WD Green WD20EZRX€ 80,50€ 1.127,-
1Lian Li PC-D8000B€ 345,50€ 345,50
1Crucial Ballistix BLS2CP4G3D1609DS1S00CEU€ 51,95€ 51,95
1IBM ServeRAID M1015 SAS/SATA Controller for System x€ 139,96€ 139,96
Bekijk collectie
Importeer producten
Totaal€ 1.724,31


Waarbij de laatste de volgende arrays gaat krijgen:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
MichielDeRuyter
    NAME        STATE     READ WRITE CKSUM
    zfspool0    ONLINE       0     0     0
      raidz2-0  ONLINE       0     0     0
        2tb1    ONLINE       0     0     0
        2tb2    ONLINE       0     0     0
        2tb3    ONLINE       0     0     0
        2tb4    ONLINE       0     0     0
        2tb5    ONLINE       0     0     0
        2tb6    ONLINE       0     0     0
    zfspool1    ONLINE       0     0     0
      raidz2-0  ONLINE       0     0     0
        2tb7    ONLINE       0     0     0
        2tb8    ONLINE       0     0     0
        2tb9    ONLINE       0     0     0
        2tb10   ONLINE       0     0     0
        2tb11   ONLINE       0     0     0
        2tb12   ONLINE       0     0     0
        2tb13   ONLINE       0     0     0
        2tb14   ONLINE       0     0     0

http://www.gjpvanwesten.nl


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 26-09 16:38

Compizfox

Bait for wenchmarks

Verwijderd schreef op dinsdag 02 juni 2015 @ 11:05:
UDMA_CRC_Error_count gaat niet meer naar beneden; dus de waarde onthouden en regelmatig controleren of dit niet meer oploopt.
Het gekke is nu dat de schijf waar de write errors optraden, geen cable errors heeft volgens SMART.

Ik ga nu de kabels maar even opnieuw aansluiten, misschien doet dat iets.

[ Voor 10% gewijzigd door Compizfox op 02-06-2015 17:50 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • riwi
  • Registratie: Augustus 2004
  • Laatst online: 06-08 17:15
Kortfragje schreef op dinsdag 02 juni 2015 @ 12:48:
En dit wordt mn backup server (draait nu nog met 1 array van 6 2TB disks)

AMD Athlon 64 X2 3800+ Boxed
<snip>
Lian Li PC-D8000B
Mooi nog een Lian Li D8000 gebruiker. Fijne kast vind ik al is ie wat groot :)

Kan zo'n X2 3800+ 8GB aan? Ik heb er ook nog een liggen, maar dacht dat deze maar 4GB aan kon. Kan me wel vergissen wat dat betreft. Kan ook dat het mobo dat ik heb het is waar de limiet zit.

PC specs


Acties:
  • 0 Henk 'm!

  • Kortfragje
  • Registratie: December 2000
  • Laatst online: 18-09 22:14

Kortfragje

......

Jah, ik wilde eerst een rivier, maar leveringsproblemen..

de x2 kan het aan, geloof alleen dat het bordje wat ik gebruik soms wel soms niet (vond wisselende verhalen en dacht probeer het...). ik gebruik iig ddr3 (bordje heeft de slots) en niet ddr2....

http://www.gjpvanwesten.nl


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
De resultaten van IB+zfs+berg SSDs, niet zo tevreden met de writes om eerlijk te zijn maar inmiddels weinig fut meer om er iets aan te doen. zfs stond denk ik op 8k zoals ssd blocksize en zvol vermoed ik op 128k maar dat kan ik wel controleren mocht er interesse zijn.
  • 16x intel 520 60gb in mirrors
  • lsi9201-16i
  • voltaire ex500d ddr
album
Read:
Afbeeldingslocatie: http://i.imgur.com/PUAy6ftl.png
Random read:
Afbeeldingslocatie: http://i.imgur.com/QUzVx3Ml.png
Write:
Afbeeldingslocatie: http://i.imgur.com/8wWUkqvl.png
Random write:
Afbeeldingslocatie: http://i.imgur.com/RXSqncrl.png

[ Voor 9% gewijzigd door analog_ op 03-06-2015 20:33 ]


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
analog_ schreef op woensdag 03 juni 2015 @ 20:30:
De resultaten van IB+zfs+berg SSDs, niet zo tevreden met de writes om eerlijk te zijn maar inmiddels weinig fut meer om er iets aan te doen. zfs stond denk ik op 8k zoals ssd blocksize en zvol vermoed ik op 128k maar dat kan ik wel controleren mocht er interesse zijn.
  • 16x intel 520 60gb in mirrors
  • lsi9201-16i
  • voltaire ex500d ddr
album
Read:
[afbeelding]
Random read:
[afbeelding]
Write:
[afbeelding]
Random write:
[afbeelding]
Ik heb altijd interesse in een performance vraagstuk. Alleen heb je wat weinig context gegeven. Wat is de configuratie, OS, meet methode, doelstelling?
Ik zie dat er zeker werk is verzet maar kan hier wat weinig mee.

Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Beide machines hebben de Voltaire ex500d (MLNX MHGH28-XTC).

Host is NexentaStor 4(.03?), IllumOS kernel op een Supermicro x9scm-f, e3 1270v1, 16GB, LSI 9201-16i met daaraan alle 16 Intel 520 60GB diskjes, booten via Intel AHCI op ander SSDtje. SSDs staan in mirrors op ZFS met recordsize 128k en zvol heeft blocksize 8k. Ik exporteer met comstar/SRP.

Aan de andere kant hangt een Asrock h77 bord met daarin een i5 3470, 32gb. Hier draait opensm op en wordt het volume gemount met scst op debian 8 met qd 256.

Het volume is eerst volledig beschreven. Elk datapunt is 180 seconden lang bench met fio op het volume. Hiertussen zit telkens een minuut rust. fio --bs={BLOCKSIZE} --direct=1 --rw={read,randread,write,randwrite} --ioengine=libaio --iodepth={QD} --runtime=180 --name=/dev/sdb Data is vervolgens met de hand verwerkt naar Excel.

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 26-09 15:29

Pantagruel

Mijn 80486 was snel,....was!

analog_ schreef op woensdag 03 juni 2015 @ 21:56:
Beide machines hebben de Voltaire ex500d (MLNX MHGH28-XTC).

Host is NexentaStor 4(.03?), IllumOS kernel op een Supermicro x9scm-f, e3 1270v1, 16GB, LSI 9201-16i met daaraan alle 16 Intel 520 60GB diskjes, booten via Intel AHCI op ander SSDtje. SSDs staan in mirrors op ZFS met recordsize 128k en zvol heeft blocksize 8k. Ik exporteer met comstar/SRP.

Aan de andere kant hangt een Asrock h77 bord met daarin een i5 3470, 32gb. Hier draait opensm op en wordt het volume gemount met scst op debian 8 met qd 256.

Het volume is eerst volledig beschreven. Elk datapunt is 180 seconden lang bench met fio op het volume. Hiertussen zit telkens een minuut rust. fio --bs={BLOCKSIZE} --direct=1 --rw={read,randread,write,randwrite} --ioengine=libaio --iodepth={QD} --runtime=180 --name=/dev/sdb Data is vervolgens met de hand verwerkt naar Excel.
Zo te zien is er in al die tijd helaas niets gedaan aan t mogelijk bestaan van een 'write-ceiling' onder de OpenSolaris forks.
In t verre verleden ook met IB aan de slag geweest (quote to self, i know :N ) en daar waar Read geen problemen gaf leek write tegen een 500MB/Sec plafond aan te lopen (getest op een SRP target vanaf RAM disk). In vergelijking bij een linux SRP target, gepresenteerd aan een linux of windows 7 host, trokken de benchmarks de 10 Gbit van de Infiniband HBA vrijwel volledig dicht.
Destijds getest onder OpenIndiana en Ubuntu met Infiniband HBA's van mellanox (mhea28-xtc onder linux en mhea28-2tc onder OI).

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
Pantagruel schreef op donderdag 04 juni 2015 @ 12:02:
[...]


Zo te zien is er in al die tijd helaas niets gedaan aan t mogelijk bestaan van een 'write-ceiling' onder de OpenSolaris forks.
In t verre verleden ook met IB aan de slag geweest (quote to self, i know :N ) en daar waar Read geen problemen gaf leek write tegen een 500MB/Sec plafond aan te lopen (getest op een SRP target vanaf RAM disk). In vergelijking bij een linux SRP target, gepresenteerd aan een linux of windows 7 host, trokken de benchmarks de 10 Gbit van de Infiniband HBA vrijwel volledig dicht.
Destijds getest onder OpenIndiana en Ubuntu met Infiniband HBA's van mellanox (mhea28-xtc onder linux en mhea28-2tc onder OI).
De illumos ramdisk heeft wel zn beperkingen. IB op illumos op zich niet. Het is alleen niet een speerpunt, lees geen nieuwe drivers. De mainstream afnemers gebruiken allemaal 10 of 40 gb ethernet. Zelf heb ik prima ervaringen met IB op Solaris en Illumos. Het mooie van comstar is de scheiding tussen de verschillende lagen. Waardoor je heel eenvoudig verschillende transports kan gebruiken of wisselen. Ik had een tijdje terug voor hyperbart een multipath target opgezet via gbit ethernet en 4gb FC. Vmware vond dat geen enkel probleem, wel even de FC als prefered path opgeven ipv roundrobin. Je kan net zo makkelijk IB als transport gebruiken.

Hieronder een hele korte uitleg over het comstar framework en de output beneden
Stap 1 creeer targets. In de output hieronder is een iscsi en een FC target aangemaakt.
stap 2 maak backends (zvols) aan voor je luns.
stap 3 maak luns van je backend. In het voorbeeld zijn dat er twee.
stap 4 breng een relatie aan tussen de luns en de targets, de views. In dit geval is alles doorgegeven. En zal beide luns op beide targets zichtbaar zijn. En kan je via mpxio dus via verschillende targets en transports bij dezelfde lun.

Als er belangstelling is wil ik deze setup wel uitwerken. Want het is ideaal voor een vmware lab en als je net wat meer snelheid wilt dan gbit ethernet. Het is goedkoop, zo'n 50tot150 afhankelijk van het aantal poorten wat je wilt. En je kan dit zonder FC switch maken en dat scheelt weer in de energie rekening. Per poort kan je rekenen op theoretisch max 380MiB/sec. Letop de benchmark is vanuit de guest en de backend had maar vier harddisken. Ik schrijf nadrukkelijk per poort want plaats je in je server een kaart met twee of vier poorten dan hebben ze dat allemaal individueel tot hun beschikking.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
tvwes@oistor1:/export/home/tvwes$ pfexec /usr/sbin/stmfadm list-target -v
Target: iqn.2010-08.org.illumos:02:b6272d3a-af1d-c6d8-c132-92b9124f650d
    Operational Status: Online
    Provider Name     : iscsit
    Alias             : -
    Protocol          : iSCSI
    Sessions          : 1
        Initiator: iqn.1998-01.com.vmware:xeonv3-575c98ab
            Alias: -
            Logged in since: Sat May  2 13:57:41 2015
Target: wwn.2101001B32AD1DE4
    Operational Status: Online
    Provider Name     : qlt
    Alias             : qlt4,0
    Protocol          : Fibre Channel
    Sessions          : 0
Target: wwn.2100001B328D1DE4
    Operational Status: Online
    Provider Name     : qlt
    Alias             : qlt3,0
    Protocol          : Fibre Channel
    Sessions          : 1
        Initiator: wwn.2100001B321F9172
            Alias: -
            Logged in since: Sat May  2 13:57:36 2015
Target: wwn.2103001B32ED1DE4
    Operational Status: Online
    Provider Name     : qlt
    Alias             : qlt2,0
    Protocol          : Fibre Channel
    Sessions          : 0
Target: wwn.2102001B32CD1DE4
    Operational Status: Online
    Provider Name     : qlt
    Alias             : qlt1,0
    Protocol          : Fibre Channel
    Sessions          : 0
tvwes@oistor1:/export/home/tvwes$ pfexec /usr/sbin/stmfadm list-lu -v
LU Name: 600144F0534F683D0000553CDFBA0003
    Operational Status: Online
    Provider Name     : sbd
    Alias             : /dev/zvol/rdsk/mpool/iscsi/tg_vmfs/lun1
    View Entry Count  : 1
    Data File         : /dev/zvol/rdsk/mpool/iscsi/tg_vmfs/lun1
    Meta File         : not set
    Size              : 161061273600
    Block Size        : 512
    Management URL    : not set
    Vendor ID         : SUN
    Product ID        : COMSTAR
    Serial Num        : not set
    Write Protect     : Disabled
    Writeback Cache   : Enabled
    Access State      : Active
LU Name: 600144F0A885C60000005309CDB90001
    Operational Status: Online
    Provider Name     : sbd
    Alias             : /dev/zvol/rdsk/mpool/iscsi/tg_vmfs/lun0
    View Entry Count  : 1
    Data File         : /dev/zvol/rdsk/mpool/iscsi/tg_vmfs/lun0
    Meta File         : not set
    Size              : 107374182400
    Block Size        : 512
    Management URL    : not set
    Vendor ID         : SUN
    Product ID        : COMSTAR
    Serial Num        : not set
    Write Protect     : Disabled
    Writeback Cache   : Enabled
    Access State      : Active
tvwes@oistor1:/export/home/tvwes$ pfexec /usr/sbin/stmfadm list-view -l 600144F0A885C60000005309CDB90001
View Entry: 0
    Host group   : All
    Target group : All
    LUN          : 0


Uit de testen voor hyperbart:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
-----------------------------------------------------------------------
CrystalDiskMark 3.0.1 x64 (C) 2007-2010 hiyohiyo
                           Crystal Dew World : http://crystalmark.info/
-----------------------------------------------------------------------
* MB/s = 1,000,000 byte/s [SATA/300 = 300,000,000 byte/s]

           Sequential Read :   320.567 MB/s
          Sequential Write :   289.742 MB/s
         Random Read 512KB :   282.363 MB/s
        Random Write 512KB :   256.766 MB/s
    Random Read 4KB (QD=1) :    22.557 MB/s [  5507.1 IOPS]
   Random Write 4KB (QD=1) :    16.885 MB/s [  4122.3 IOPS]
   Random Read 4KB (QD=32) :    68.127 MB/s [ 16632.6 IOPS]
  Random Write 4KB (QD=32) :    66.086 MB/s [ 16134.4 IOPS]

  Test : 1000 MB [E: 2.3% (47.0/2045.0 MB)] (x5)
  Date : 2015/04/25 19:45:24
    OS : Windows NT 6.2  [6.2 Build 9200] (x64)
Dit is via FC 4G (alles stanaard)
  
-----------------------------------------------------------------------
CrystalDiskMark 3.0.1 x64 (C) 2007-2010 hiyohiyo
                           Crystal Dew World : http://crystalmark.info/
-----------------------------------------------------------------------
* MB/s = 1,000,000 byte/s [SATA/300 = 300,000,000 byte/s]

           Sequential Read :   107.734 MB/s
          Sequential Write :   107.923 MB/s
         Random Read 512KB :   101.887 MB/s
        Random Write 512KB :   103.563 MB/s
    Random Read 4KB (QD=1) :    11.363 MB/s [  2774.1 IOPS]
   Random Write 4KB (QD=1) :    11.711 MB/s [  2859.1 IOPS]
   Random Read 4KB (QD=32) :    80.339 MB/s [ 19614.1 IOPS]
  Random Write 4KB (QD=32) :    55.499 MB/s [ 13549.5 IOPS]

  Test : 1000 MB [E: 2.3% (47.0/2045.0 MB)] (x5)
  Date : 2015/04/25 19:55:01
    OS : Windows NT 6.2  [6.2 Build 9200] (x64)
Dit is via 1Gbit ethernet MTU 1500 (alles standaard)  
Live is van path gewisseld, van FC naar iSCSI

-----------------------------------------------------------------------
CrystalDiskMark 3.0.1 x64 (C) 2007-2010 hiyohiyo
                           Crystal Dew World : http://crystalmark.info/
-----------------------------------------------------------------------
* MB/s = 1,000,000 byte/s [SATA/300 = 300,000,000 byte/s]

           Sequential Read :   320.420 MB/s
          Sequential Write :   277.438 MB/s
         Random Read 512KB :   287.019 MB/s
        Random Write 512KB :   255.242 MB/s
    Random Read 4KB (QD=1) :    22.880 MB/s [  5586.0 IOPS]
   Random Write 4KB (QD=1) :    17.066 MB/s [  4166.5 IOPS]
   Random Read 4KB (QD=32) :    77.310 MB/s [ 18874.5 IOPS]
  Random Write 4KB (QD=32) :    52.553 MB/s [ 12830.3 IOPS]

  Test : 1000 MB [E: 2.3% (47.0/2045.0 MB)] (x5)
  Date : 2015/04/25 20:01:44
    OS : Windows NT 6.2  [6.2 Build 9200] (x64)
En weer terug naar FC

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 26-09 15:29

Pantagruel

Mijn 80486 was snel,....was!

tvwes schreef op donderdag 04 juni 2015 @ 13:52:
[...]

De illumos ramdisk heeft wel zn beperkingen. IB op illumos op zich niet.
Ik neem aan dat je bedoeld dat je onder standaard omstandigheden slechts een x percentage van je RAM als ramdisk kunt gebruiken. Als je meer wilt dan moet je een of meerdere files aanpassen (weet niet meer uit m'n hoofd welke files en veranderingen er nodig waren, zou ik in de eigen documentatie moeten opzoeken)
Het is alleen niet een speerpunt, lees geen nieuwe drivers. De mainstream afnemers gebruiken allemaal 10 of 40 gb ethernet.
Als IB van minder belang word geacht dan zal er idd niet veel aan gebeuren.
Zelf heb ik prima ervaringen met IB op Solaris en Illumos. Het mooie van comstar is de scheiding tussen de verschillende lagen. Waardoor je heel eenvoudig verschillende transports kan gebruiken of wisselen. Ik had een tijdje terug voor hyperbart een multipath target opgezet via gbit ethernet en 4gb FC. Vmware vond dat geen enkel probleem, wel even de FC als prefered path opgeven ipv roundrobin. Je kan net zo makkelijk IB als transport gebruiken.
Op zich was het werken met IB onder OI/OpenSolaris appeltje-eitje. Strikt genomen was het voor de opstelling die ik in gedachten had eigenlijk niet eens een probleem dat de max. doorvoer van IB niet te halen was. Hoogstwaarschijnlijk had de disk array (6 disk RAIDZ2) nooit het max gehaald en ca. 500MB/sec is ook wel respectabel. Uiteindelijk was de test van IB onder OI/OpenSolaris niets meer dan proof-of-principle, mijn voorkeur ging destijds uit naar het gebruik van IB onder FreeBSD waar het niet even soepeltjes wilde werken.
Hieronder een hele korte uitleg over het comstar framework en de output beneden
Stap 1 creeer targets. In de output hieronder is een iscsi en een FC target aangemaakt.
stap 2 maak backends (zvols) aan voor je luns.
stap 3 maak luns van je backend. In het voorbeeld zijn dat er twee.
stap 4 breng een relatie aan tussen de luns en de targets, de views. In dit geval is alles doorgegeven. En zal beide luns op beide targets zichtbaar zijn. En kan je via mpxio dus via verschillende targets en transports bij dezelfde lun.

Als er belangstelling is wil ik deze setup wel uitwerken. Want het is ideaal voor een vmware lab en als je net wat meer snelheid wilt dan gbit ethernet. Het is goedkoop, zo'n 50tot150 afhankelijk van het aantal poorten wat je wilt. En je kan dit zonder FC switch maken en dat scheelt weer in de energie rekening. Per poort kan je rekenen op theoretisch max 380MiB/sec. Letop de benchmark is vanuit de guest en de backend had maar vier harddisken. Ik schrijf nadrukkelijk per poort want plaats je in je server een kaart met twee of vier poorten dan hebben ze dat allemaal individueel tot hun beschikking.
Uitwerken mag altijd, dan kan altijd een ander er zijn of haar voordeel mee doen.
IB kun je ook zonder switch gebruiken, zolang een van beide machines maar opensm draait om t managementdeel op zich te nemen. Een IB switch (bij voorkeur met management functie) was ook niet goedkoop destijds en voor mijn setup (directe link tussen twee machines) zwaar overbodig.
code:
1
nette resultaten weggeknipt ;)

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
Pantagruel schreef op donderdag 04 juni 2015 @ 15:03:
[...]


Ik neem aan dat je bedoeld dat je onder standaard omstandigheden slechts een x percentage van je RAM als ramdisk kunt gebruiken. Als je meer wilt dan moet je een of meerdere files aanpassen (weet niet meer uit m'n hoofd welke files en veranderingen er nodig waren, zou ik in de eigen documentatie moeten opzoeken)
Nee, ik bedoel dat de ramdisk een beroerde implementatie heeft en absoluut geen snelheidsmonster is.
Op zich was het werken met IB onder OI/OpenSolaris appeltje-eitje. Strikt genomen was het voor de opstelling die ik in gedachten had eigenlijk niet eens een probleem dat de max. doorvoer van IB niet te halen was. Hoogstwaarschijnlijk had de disk array (6 disk RAIDZ2) nooit het max gehaald en ca. 500MB/sec is ook wel respectabel. Uiteindelijk was de test van IB onder OI/OpenSolaris niets meer dan proof-of-principle, mijn voorkeur ging destijds uit naar het gebruik van IB onder FreeBSD waar het niet even soepeltjes wilde werken.
POC is altijd nuttig. Ik ben heel blij dat iemand een keer toegeeft hoe makkelijk comstar werkt. En je enkele raidz2 zal inderdaad niet echt je IB kunnen vullen.
Uitwerken mag altijd, dan kan altijd een ander er zijn of haar voordeel mee doen.
De vraag was ook niet zo zeer voor jouw bestemd maar meer in het algemeen.
IB kun je ook zonder switch gebruiken, zolang een van beide machines maar opensm draait om t managementdeel op zich te nemen. Een IB switch (bij voorkeur met management functie) was ook niet goedkoop destijds en voor mijn setup (directe link tussen twee machines) zwaar overbodig.
[...]
Weet ik en snap ik volkomen. Maar een IB switch met ingebouwde subnet manager is zooo handig maar zooon overkill voor thuis. :)
Met FC kan je tm vier poorten per kaart krijgen en IB maar 2. Dat maakt het extra interessant.

Acties:
  • 0 Henk 'm!

  • yamahabest
  • Registratie: Januari 2003
  • Laatst online: 26-09 07:25
ZFSGuru website is down, misschien een upgrade voor de 0.3 release?

Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Dat kan ik alvast ontkrachten. ;)
Net Jason gesproken en hij krijgt te horen:
The Registrar DNS is currently under a DDoS attack. They are working on mitigation, but there is no fix yet.
:/

Acties:
  • 0 Henk 'm!

  • yamahabest
  • Registratie: Januari 2003
  • Laatst online: 26-09 07:25
"Al het goede komt langzaam", zeggen ze toch? ;)
Al wel enig zicht op een release?

[ Voor 66% gewijzigd door yamahabest op 10-06-2015 13:02 ]


Acties:
  • 0 Henk 'm!

  • Kortfragje
  • Registratie: December 2000
  • Laatst online: 18-09 22:14

Kortfragje

......

Af en toe bij boot de volgende error:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
Jun 14 20:07:04 KarelDoorman kernel: [    9.821404] ata6.00: exception Emask 0x10 SAct 0x380000 SErr 0x400000 action 0x6 frozen
Jun 14 20:07:04 KarelDoorman kernel: [    9.821472] ata6.00: irq_stat 0x08000000, interface fatal error
Jun 14 20:07:04 KarelDoorman kernel: [    9.821523] ata6: SError: { Handshk }
Jun 14 20:07:04 KarelDoorman kernel: [    9.821575] ata6.00: failed command: WRITE FPDMA QUEUED
Jun 14 20:07:04 KarelDoorman kernel: [    9.821626] ata6.00: cmd 61/08:98:10:09:00/00:00:00:00:00/40 tag 19 ncq 4096 out
Jun 14 20:07:04 KarelDoorman kernel: [    9.821626]          res 40/00:a0:10:0b:00/00:00:00:00:00/40 Emask 0x10 (ATA bus error)
Jun 14 20:07:04 KarelDoorman kernel: [    9.821715] ata6.00: status: { DRDY }
Jun 14 20:07:04 KarelDoorman kernel: [    9.821765] ata6.00: failed command: WRITE FPDMA QUEUED
Jun 14 20:07:04 KarelDoorman kernel: [    9.821819] ata6.00: cmd 61/08:a0:10:0b:00/00:00:00:00:00/40 tag 20 ncq 4096 out
Jun 14 20:07:04 KarelDoorman kernel: [    9.821819]          res 40/00:a0:10:0b:00/00:00:00:00:00/40 Emask 0x10 (ATA bus error)
Jun 14 20:07:04 KarelDoorman kernel: [    9.821905] ata6.00: status: { DRDY }
Jun 14 20:07:04 KarelDoorman kernel: [    9.8ata621954] ata6.00: failed command: WRITE FPDMA QUEUED
Jun 14 20:07:04 KarelDoorman kernel: [    9.822008] ata6.00: cmd 61/08:a8:10:95:30/00:00:46:02:00/40 tag 21 ncq 4096 out
Jun 14 20:07:04 KarelDoorman kernel: [    9.822008]          res 40/00:a0:10:0b:00/00:00:00:00:00/40 Emask 0x10 (ATA bus error)
Jun 14 20:07:04 KarelDoorman kernel: [    9.822093] ata6.00: status: { DRDY }
Jun 14 20:07:04 KarelDoorman kernel: [    9.822142] ata6: hard resetting link
Jun 14 20:07:04 KarelDoorman kernel: [   10.312222] ata6: SATA link up 6.0 Gbps (SStatus 133 SControl 300)
Jun 14 20:07:04 KarelDoorman kernel: [   10.313685] ata6.00: configured for UDMA/133
Jun 14 20:07:04 KarelDoorman kernel: [   10.313754] ata6: EH complete
Jun 14 20:07:04 KarelDoorman kernel: [   10.599488] ata6.00: exception Emask 0x10 SAct 0x2000 SErr 0x400000 action 0x6 frozen
Jun 14 20:07:04 KarelDoorman kernel: [   10.599553] ata6.00: irq_stat 0x08000000, interface fatal error
Jun 14 20:07:04 KarelDoorman kernel: [   10.599603] ata6: SError: { Handshk }
Jun 14 20:07:04 KarelDoorman kernel: [   10.599651] ata6.00: failed command: WRITE FPDMA QUEUED
Jun 14 20:07:04 KarelDoorman kernel: [   10.599702] ata6.00: cmd 61/e0:68:20:96:30/00:00:46:02:00/40 tag 13 ncq 114688 out
Jun 14 20:07:04 KarelDoorman kernel: [   10.ata6599702]          res 40/00:68:20:96:30/00:00:46:02:00/40 Emask 0x10 (ATA bus error)
Jun 14 20:07:04 KarelDoorman kernel: [   10.599789] ata6.00: status: { DRDY }
Jun 14 20:07:04 KarelDoorman kernel: [   10.599837] ata6: hard resetting link
Jun 14 20:07:04 KarelDoorman kernel: [   11.088385] ata6: SATA link up 6.0 Gbps (SStatus 133 SControl 300)
Jun 14 20:07:04 KarelDoorman kernel: [   11.089768] ata6.00: configured for UDMA/133
Jun 14 20:07:04 KarelDoorman kernel: [   11.089835] ata6: EH complete
Jun 14 20:07:04 KarelDoorman kernel: [   11.090040] ata6.00: exception Emask 0x10 SAct 0x4000 SErr 0x400000 action 0x6 frozen
Jun 14 20:07:04 KarelDoorman kernel: [   11.090102] ata6.00: irq_stat 0x08000000, interface fatal error
Jun 14 20:07:04 KarelDoorman kernel: [   11.090152] ata6: SError: { Handshk }
Jun 14 20:07:04 KarelDoorman kernel: [   11.090200] ata6.00: failed command: WRITE FPDMA QUEUED
Jun 14 20:07:04 KarelDoorman kernel: [   11.090251] ata6.00: cmd 61/e0:70:20:96:30/00:00:46:02:00/40 tag 14 ncq 114688 out
Jun 14 20:07:04 KarelDoorman kernel: [   11.090251]          res 40/00:70:20:96:30/00:00:46:02:00/40 Emask 0x10 (ATA bus error)
Jun 14 20:07:04 KarelDoorman kernel: [   11.090370] ata6.00: status: { DRDY }
Jun 14 20:07:04 KarelDoorman kernel: [   11.090418] ata6: hard resetting link
Jun 14 20:07:04 KarelDoorman kernel: [   11.580508] ata6: SATA link up 6.0 Gbps (SStatus 133 SControl 300)
Jun 14 20:07:04 KarelDoorman kernel: [   11.581929] ata6.00: configured for UDMA/133
Jun 14 20:07:04 KarelDoorman kernel: [   11.581996] ata6: EH complete
Jun 14 20:07:04 KarelDoorman kernel: [   11.789569] ata6: limiting SATA link speed to 3.0 Gbps
Jun 14 20:07:04 KarelDoorman kernel: [   11.789624] ata6.00: exception Emask 0x10 SAct 0x800000 SErr 0x400000 action 0x6 frozen
Jun 14 20:07:04 KarelDoorman kernel: [   11.789685] ata6.00: irq_stat 0x08000000, interface fatal error
Jun 14 20:07:04 KarelDoorman kernel: [   11.789734] ata6: SError: { Handshk }
Jun 14 20:07:04 KarelDoorman kernel: [   11.789782] ata6.00: failed command: WRITE FPDMA QUEUED
Jun 14 20:07:04 KarelDoorman kernel: [   11.789833] ata6.00: cmd 61/e0:b8:20:94:30/00:00:46:02:00/40 tag 23 ncq 114688 out
Jun 14 20:07:04 KarelDoorman kernel: [   11.789833]          res 40/00:b8:20:94:30/00:00:46:02:00/40 Emask 0x10 (ATA bus error)
Jun 14 20:07:04 KarelDoorman kernel: [   11.789919] ata6.00: status: { DRDY }
Jun 14 20:07:04 KarelDoorman kernel: [   11.791023] ata6: hard resetting link
Jun 14 20:07:04 KarelDoorman kernel: [   12.280691] ata6: SATA link up 3.0 Gbps (SStatus 123 SControl 320)
Jun 14 20:07:04 KarelDoorman kernel: [   12.282112] ata6.00: configured for UDMA/133
Jun 14 20:07:04 KarelDoorman kernel: [   12.282180] ata6: EH complete


maar niet altijd, disk verder ok, performance ok, geen issues tijdens runnen, en sata als volgt:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   203   203   021    Pre-fail  Always       -       8825
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       13
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       401
 10 Spin_Retry_Count        0x0032   100   253   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   253   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       13
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       0
193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       1797
194 Temperature_Celsius     0x0022   123   114   000    Old_age   Always       -       29
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   200   200   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed without error       00%       127         -
# 2  Extended offline    Completed without error       00%        10         -


iemand enig idee in welke richting dit te zoeken? wel irritant nml :P lijkt erop dat dit een probleem met sata 6gbps is wat niet speelt bij 3gbps..?

os = ubuntu 12.04, disk is wd green 5tb, controller is intel 6 poorts

hm nvmind, deze oplossingen eens proberen : https://bbs.archlinux.org/viewtopic.php?id=182098

http://www.gjpvanwesten.nl


Acties:
  • 0 Henk 'm!

  • riwi
  • Registratie: Augustus 2004
  • Laatst online: 06-08 17:15
Ik heb deze error wel meer gezien bij mij. En om verschillende redenen.

De melding zegt dat de Kernel het device reset omdat er op commando's niet wordt gereageerd.

Ik heb dat gezien bij het toevoegen van disks tot een punt waar de voeding het niet meer trok. Dan kreeg ik op willekeurige momenten, op willekurige disks deze meldingen.

Daarna heb ik deze meldingen ook wel gezien en dan hielp het unplug/replug van de satapower en sata data kabel. Dan doe ik een longtest met smart en als die lukt zonder errors dan turf ik op mijn lijstje welke disk dit was (serienummer). Ik heb wel gehad dat de smarttest niet lukte en heb toen de betreffende schijf vervangen en de pool geresilvered. Maar meestal komt het niet terug. Ik (ver)denk dan dat mijn sata kaart misschien ergens op is vast gelopen voor die poort.

Zoals ik het zie geeft de kernel de read/write opdracht aan de driver van de sata interface. De driver stuurt deze via de sata kabel naar de disk. De firmware in de disk verwerkt het commando door een fysieke lees/schrijf actie.

Dus er kunnen meerdere redenen zijn :
disk reageert fysiek niet en is gewoon stuk.
Firmware van de disk is niet ok.
De sata kabel is niet ok of zit los.
Driver van de sata kaart niet ok
Satakaart zelf is niet ok
De linux kernel vertrouw ik wel die is niet stuk ;) Al weet je het nooit met bleeding edge.

Door te turfen kan je in ieder geval kijken of het op 1 sata interface / sata kaart / 1 disk gelokaliseerd zit.
Zo zag ik dat 3 disken uit een groepje van 4 dit een keer hadden bij mij. En dus 1 SF8087 kabel / sas poort.

Dan kan je ook je disken eens wisselen naar een andere sata interface als je pool dat aan kan ( /dev/disk/by-id )

Overigens had ik niet die "limiting SATA link speed to 3.0 Gbps" melding bij mij.

PC specs

Pagina: 1 ... 151 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.