matty___ schreef op dinsdag 19 november 2013 @ 11:02:
[...]
van de mps(4)
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
| To disable MSI interrupts for all mps driver instances, set the following
tunable value in loader.conf(5):
hw.mps.disable_msi=1
To disable MSI interrupts for a specific mps driver instance, set the
following tunable value in loader.conf(5):
dev.mps.X.disable_msi=1
where X is the adapter number.
To disable MSI-X interrupts for all mps driver instances, set the follow-
ing tunable value in loader.conf(5):
hw.mps.disable_msix=1
To disable MSI-X interrupts for a specific mps driver instance, set the
following tunable value in loader.conf(5):
dev.mps.X.disable_msix=1
To set the maximum number of DMA chains allocated for all adapters, set
the following variable in loader.conf(5):
hw.mps.max_chains=NNNN
To set the maximum number of DMA chains allocated for a specific adapter,
set the following variable in loader.conf(5):
dev.mps.X.max_chains=NNNN
This variable may also be viewed via sysctl(8) to see the maximum set for
a given adapter.
The current number of free chain frames may be seen via the
dev.mps.X.chain_free sysctl(8) variable.
The lowest number of free chain frames may be seen via the
dev.mps.X.chain_free_lowwater sysctl(8) variable.
The current number of active I/O commands is shown in the
dev.mps.X.io_cmds_active sysctl(8) variable.
The maximum number of active I/O command seen since boot is shown in the
dev.mps.X.io_cmds_highwater sysctl(8) variable. |
Maar idd weinig aan te tunen
Dat ziet er eigenlijk heel goed uit, de normale opties waren altijd om heel MSI/MSI-X voor alle devices uit te zetten, nu kan dat alleen voor de LSI driver, een stuk beter al dus (want VMXNET3 gebruikt bijvoorbeeld ook MSI/MSI-X).
]Byte\[ schreef op dinsdag 19 november 2013 @ 11:14:
[...]
Die theorie zou ik graag willen volgen als ik ook mijn lokale HDD's niet zou zien.
En die zie ik juist wel!
Lijkt dan een selectief iets op alleen lokale SSD's te zijn.
Weet jij overigens de 'goede' cli?
Ik heb nu alleen de workaround om de SSD's te linken aan VMDK's en die aan een VM erbij te koppelen.
Of is dat juist de goede optie?
cd /vmfs/volumes/[datastore_om_rdm's_in_te_zetten]
vmkfstools -z /vmfs/devices/disks/t10.ATA_____SAMSUNG_SSD_830_Series__________________S0WK
NYAC302978______ SSD1.vmdk
En dan via de GUI die vmdk (SSD1.vmdk) aan een VM geven.
Panzy schreef op dinsdag 19 november 2013 @ 12:15:
Ik heb een tijd geleden een
topic aangemaakt waarin een discusse onstond over moderne HDD's, TLER, etc. Ik ben nu inmiddels bezig mijn server weer online te krijgen, en bij het uitzoeken van een OS heb ik dit topic en het DIY NAS topic nog eens doorgelezen.
Ik ben hier een aantal zaken tegengekomen waar ik toch mijn twijfels bij heb of dit waar is, en zou dit als het iemand wat interresseert tenminste onder de aandacht willen brengen.
In de beginpost staat het volgende als voordeel van ZFS t.o.v. hardware RAID:
'•Geen dure TLER-schijven nodig, zoals de WD RE series, die stukken duurder zijn alleen voor meer garantie en firmware die TLER mogelijk maakt. Door goedkope schijven te gebruiken kun je er meer van kopen dus meer storage en meer performance. (Wikipedia: Time-Limited Error Recovery) '
Ik durf te beweren dat dit niet juist is. Ik heb de spec sheets erbij gepakt van WD en als je bijvoorbeeld de desktop schijven (green, red, black) vergelijkt met bijvoorbeeld de RAID Edition schijven dan zie je duidelijk dat (volgens de specificaties) de RAID Edition schijven gewoon simpelweg beter zijn. Bijvoorbeeld alleen al de (Non-recoverable read errors per bits read) specificatie die bij de goedkope schijven hangt op
(<1 in 10^14) en bij de RE schijven op
(<10 in 10^16) duid dus precies het veelal omschreven probleem aan van de 'soft bad sectors' wat dus inderdaad voorkomt bij de goedkope schijven maar
niet bij de duurdere RE schijven.
Ik zelf heb hier trouwens een indicatie van dat dit klopt, ik heb meerdere Green schijven (1Tb) die in de SMART data onder 'Read Error Rate' allemaal een waarde van 20-50 aangeven, en ik heb een RAID Edition schijf (500Gb) die na bijna dezelfde 'Power-On Hours' een Read Error Rate heeft van 0.
De discussie over het wel of niet nodig hebben van TLER schijven ligt ook wat genuanceerder dan dat. Een paar pagina's terug heeft tvwes een keurige korte samenvatting gegeven wanneer je het wel en niet nodig hebt.
In de tweede post staat het volgende:
'Moraal van het verhaal?
Ouderwetse opslagtechnieken zoals legacy RAID engines en legacy filesystems (FAT, NTFS, Ext2, Ext3, Ext4, UFS, XFS, JFS, ReiserFS) bieden totaal geen bescherming tegen bad sectors. Dat is onacceptabel zeker omdat het probleem van bad sectors steeds groter wordt. Dit heeft te maken met dat de hoeveelheid bitfouten - uitgedrukt in de uBER-specificatie - gelijk blijft terwijl de datadichtheid blijft toenemen. Relatief gezien komen bad sectors daarom steeds vaker voor. Ik gelijk nu gemiddeld één bad sector per 3 tot 5 keer de schijf van A tot Z uitlezen. Dit soort specificaties gaat enkel op als je zeer grote hoeveelheden schijven gaat testen. Met een enkel exemplaar kun je alle kanten uit.'
Is dat zo? Een RAID Edition schijf geeft normaal gesproken (volgens mij) dus nooit bitfouten.
Nooit kan natuurlijk niet.
Als het toch wel een keer gebeurt dan kicked de TLER in en hij stuurt hij een read error naar de controller, waarna hij dus FAILED en uit de array wordt gekicked. Dit lijkt me zeer terecht en heeft naar mijn mening niks te maken met een slechte RAID controller maar juist met een slechte en kapotte HDD, want een goede HDD hoort geen fouten te geven. Deze schijf moet meteen RMA gestuurd worden.
Niet helemaal waar. Bij een read error kan het komen omdat je een schop tegen de kast aan hebt gegeven. ZFS is zo ontworpen dat als 1 disk een sector niet kan lezen, hij gaat kijken of hij de data ergens anders kan halen (copies=2 kopie, mirror kopie, of via parity reconstructie). Als *elke* disk er uit gekicked zou worden bij 1 read error, zou dat vrij zonde zijn... Een disk kan best wel eens een fout maken *zonder dat deze daadwerkelijk permanent kapot is* dat is nou juist het flauwe aan een disk. Jij roept meteen dat hij RMA moet, maar dat hoeft dus helemaal niet zo te zijn.
Wat ik denk dat er gebeurt is, en wat je dus als reden zou kunnen noemen dat ZFS nodig is, is dat consumenten harde schijven slechter zijn geworden. Je kan er gewoon veel minder op vertrouwen als vroeger en als je ze toch wil gebruiken voor belangrijke dingen dan heb je dus eigenlijk gewoon ZFS nodig. Dit is mijn conclusie tenminste.
Nou ja, niet zozeer slechter alswel, de kwaliteit is gelijk gebleven, maar de grootte is exponentieel gestegen. Waar voorheen een disk 6 keer zichzelf kon lezen voor hij een fout maakte (250/500GB disks) kan hij dat nu maar 1 keer (2TB schijf). De kwaliteit is dus niet direct gedaald, maar niet lineair meegestegen met de grootte... Het uiteindelijke resultaat is inderdaad in verhouding slechter dan vroeger.
Dit komt uiteraard omdat bedrijven uitproberen wat ze kunnen flikken, gemiddelde consumenten geven blijkbaar geen moer om data integriteit en daarom is het mogelijk dat de gemiddelde kwaliteit van producten omlaag kan, wat een hoop winst oplevert.
Dat gebeurt overal, niet alleen in HD land.
Dit is denk ik ook precies de reden waarom ze jaren geleden met RAID Edition kwamen, dat was de eerste stap in het plan. Het opsplitsen van de HDD markt. Vroeger had je maar 1 type schijf, namelijk degene die werkte.
RAID Edition / SAS / SCSI schijven bestaan echt al heeeeeeeel lang... Die markt is al decennia opgesplitst tussen Consumer Grade en Enterprise Grade.
Fabrikanten gingen inzien dat er meerdere groepen consumenten zijn, namelijk thuisgebruikers en enterprise. Als je dan opeens slechtere schijven kan gaan produceren (het is natuurlijk ook steeds moeilijker om foutloze schijven te maken met de toenemende capaciteit) en deze voor bijna dezelfde prijs kan verkopen, en je maakt gewoon nog goede schijven die opeens het label 'Enterprise Storage' opgeplakt krijgen en voor het dubbele over de toonbank gaan, dan maak je in totaal meer winst inderdaad.
Het is niet alleen kwaliteit van de schijf zelf als het gaat om leesfouten, het is veel meer. (Firmware, tests, garantie, vibraties) maar dat is niet echt een discussie voor hier.
Ik weet dat dit allemaal niet bewezen is maar ik weet het gewoon zeker, ik hoop meer bewijs te krijgen
nadat mijn RE array lange tijd draait en de Green schijven ernaast. Mischien kunnen meerderen SMART data of ander bewijs aanleveren? Ik ben ook wel benieuwd naar andere fabrikanten.
Zelfs al zou je 100 mensen zo gek krijgen is het nog niet genoeg doorsnede van de markt om goed beeld te vormen. Het is en blijft gewoon een feit dat hardeschijf fabrikanten niet inzichtelijk maken hoe schijven kapot gaan, en wat ze er aan doen om het te voorkomen. Dat is aan de ene kant klote, maar aan de andere kant wel logisch, want je gaat al je geheime technieken zo aan de concurrent vertellen. Als we allemaal wisten hoe sterrenkoks koken, kon iedereen lekker koken.. Het is juist het geheim van de smid wat geld oplevert...
Ik weet in elk geval dat ik nooit meer een inferieure consumentenschijf koop, liever genaaid worden en veel te veel betalen voor een goede schijf dan genaaid worden en weinig betalen voor een die in potentie gewoon leesfouten kan geven. Het is jammer dat het zo is maar het is de marktwerking. People don't give a fuck, they just buy.
Dan is ZFS toch juist een mooie tussenoplossing? Je kan met consumer schijven gewoon betrouwbare storage maken. Maak een 7-disk RAIDZ3 array met copies=2 en je hebt een idioot robuust storage systeem.
Wat we kunnen proberen is elke schijf waarbij we een unreadable sector tegen komen gewoon meteen terugsturen naar de fabrikant, zo van 'hij doet vreemd' en dan een nieuwe eisen. Mischien dat ze na een tijdje er zat van worden haha.
Nee hoor, die worden gewoon weer gewist, SMART word gereset, en die worden teruggegeven aan mensen die hun *echt* kapotte schijf terugsturen... Helpt niets...
Mischien wordt het tijd dat dit aan het licht gebracht wordt en er naast een SSD topic ook weer een HDD topic komt, zodat mensen niet meer klakkeloos HDD's kopen maar de verschillen weten en een juiste afweging kunnen maken.
Ben benieuwd wat jullie ervan denken, waarschijnlijk wordt ik voor gek verklaard of was dit al lang bekend maar het is hoe ik erover denk in elk geval.
Op zich weten veel mensen het al, maar het is net als met biologisch vlees... We weten allemaal dat biologisch vlees (meestal) beter is, maar we kiezen toch 99/100 keer voor de portemonnee. En dat terwijl we het allemaal weten.
We zijn nou eenmaal Nederlanders...
[
Voor 76% gewijzigd door
FireDrunk op 19-11-2013 12:52
]
Even niets...