• Pixeltje
  • Registratie: November 2005
  • Laatst online: 10:21

Pixeltje

Woo-woohoo!

Thanks

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 15-12 14:55
Pixeltje schreef op maandag 19 maart 2012 @ 09:33:
[...]


Hoe kan ik de smartstatus van één disk opvragen? (of van allemaal voor that matter) in FreeNAS? Er zit een optie in om SMART scans in te plannen, maar ik kan (ook op internet) niet vinden hoe ik nu, eenmalig, de SMART info van een schijf/de schijven kan opvragen, uitgebreider dan 'zpool status'


[...]


Ja hou op.. ik heb deze schijven gekocht samen met mijn vorige NAS. Was tweedehands maar zo goed als nieuw(2 maanden oud ofzo?) De DOA was dus niet bij mij, maar de vorige RMA wel. Zit me nu ook af te vragen of ik wel eenzelfde seagate schijf terug wil, als die dingen elk halfjaar dood neervallen blijf ik bezig. Aan de andere kant; om nu één andere schijf in m'n array te hangen is ook niet echt ideaal.
anders begin je alvast te sparen voor 4 nieuwe :D

  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 10:21

Pixeltje

Woo-woohoo!

matty___ schreef op maandag 19 maart 2012 @ 14:47:
[...]

anders begin je alvast te sparen voor 4 nieuwe :D
Tja, ik zie daar de lol niet zo van in eigenlijk, maar daar was ik al mee bezig ja.

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust

Ik leef met je mee... Ik heb hier 2 van die disks als cold spares liggen... Kan je het mij kwalijk nemen dat ik gezegd heb dat er ooit eentje van RMA niet is aangekomen en dat ik daardoor nu 2 heb liggen... Geen overbodige luxe zoals die disks falen...

  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 10:21

Pixeltje

Woo-woohoo!

HyperBart schreef op maandag 19 maart 2012 @ 15:29:
Ik leef met je mee... Ik heb hier 2 van die disks als cold spares liggen... Kan je het mij kwalijk nemen dat ik gezegd heb dat er ooit eentje van RMA niet is aangekomen en dat ik daardoor nu 2 heb liggen... Geen overbodige luxe zoals die disks falen...
Het is wel wat met die schijven, zoals ik al zei; het liefst zou ik andere halen maar dat is nu gewoon niet te betalen. Kost me minstens 430 euro om vier nieuwe schijven te kopen, dat is me te gek.

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 15-12 14:55
Pixeltje schreef op maandag 19 maart 2012 @ 15:19:
[...]


Tja, ik zie daar de lol niet zo van in eigenlijk, maar daar was ik al mee bezig ja.
sorry :>

V&A aangeboden: 3xWD20EARS

[ Voor 17% gewijzigd door matty___ op 19-03-2012 15:35 ]


  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 10:21

Pixeltje

Woo-woohoo!

Ik ben toch bang dat er meer aan de hand is..

Bij het opstarten komt dit in beeld;

opstarten
(klikbaar voor groter)
Wat op zich logisch is als er een schijf stuk is, ad1 is ook de schijf die in de webgui van FreeNAS nu als 'unknown' staat.

Tijdens het afsluiten..
afsluiten
(klikbaar voor groter)

Dat lijkt te duiden op een geheugenprobleem? De NAS blijft overigens hangen op deze melding en sluit niet verder af. Ben nu bezig de kabels van alle schijven te vervangen. /dev/ad0 (de problematische schijf) zat zo te zien goed aangesloten op poort 0 van het moederbord, dus nu met andere kabels weer op die poort aangesloten.

--

Edit:
Nog steeds errors op die schijf. Als ik de schijf loskoppel geen errors, als ik een andere schijf aan AHCI0 hang, ook geen problemen. Kan ik hieruit concluderen dat ik inderdaad een dode schijf heb?

Overigens is met het verwijderen van de kapotte schijf ook de page error bij het afsluiten weg.

[ Voor 31% gewijzigd door Pixeltje op 19-03-2012 18:49 ]

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


Verwijderd

Topicstarter
Kabels veranderen van schijven met UDMA CRC Error Count = 0 is onzinnig; check je SMART output! Meten is weten.

Heb je de pc al eens 24+ uur lang MemTest86+ laten draaien? Zo nee, download ISO: http://www.memtest.org/

  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 10:21

Pixeltje

Woo-woohoo!

Verwijderd schreef op maandag 19 maart 2012 @ 18:49:
Kabels veranderen van schijven met UDMA CRC Error Count = 0 is onzinnig; check je SMART output! Meten is weten.

Heb je de pc al eens 24+ uur lang MemTest86+ laten draaien? Zo nee, download ISO: http://www.memtest.org/
Ik snap niet wat je bedoeld;

De schijf die stuk is kan niet meer uitgelezen worden (ik krijg een error als ik smartctl -a /dev/ada0 doe: kan de schijf niet vinden/openen), dus kan er ook geen smart data meer van krijgen.

Daarnaast zijn de problemen over als ik de stukke schijf niet aansluit op het systeem. Begrijp ik je nu verkeerd, of heb ik het niet goed uitgelegd eerder?

Memtest kan via USB cdrom speler, ik zal 'm zo aanzetten en dan morgen rapporteren wat er op t scherm staat.

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 19-12 06:57

Ultraman

Moderator Harde Waren

Boefje

Pixeltje schreef op maandag 19 maart 2012 @ 20:12:
De schijf die stuk is kan niet meer uitgelezen worden (ik krijg een error als ik smartctl -a /dev/ad0 doe: kan de schijf niet vinden/openen), dus kan er ook geen smart data meer van krijgen.
Is die "ad0" een typo en bedoel je "ada0"?
Of daadwerkelijk foutje gemaakt?

Want in Pixeltje in "Het grote ZFS topic" is dat de naamgeving die je disken hebben gekregen.

CiPHER, leuk die discussie zo!
Drukke dag vandaag, reply heb je nog te goed :)

Als je stil blijft staan, komt de hoek wel naar jou toe.


  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 10:21

Pixeltje

Woo-woohoo!

Ultraman schreef op maandag 19 maart 2012 @ 20:51:
[...]

Is die "ad0" een typo en bedoel je "ada0"?
Of daadwerkelijk foutje gemaakt?

Want in Pixeltje in "Het grote ZFS topic" is dat de naamgeving die je disken hebben gekregen.

CiPHER, leuk die discussie zo!
Drukke dag vandaag, reply heb je nog te goed :)
Je hebt gelijk, is typo hier op het forum. Memtest draait, ben nu niet thuis maar het eerste halfuur/3 kwartier zonder fouten.

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • iRReeL
  • Registratie: Februari 2007
  • Laatst online: 11-02 21:31
Evt kijken of je de SMART data op andere pc kunt bekijken? Dan heb je een indicatie of de hdd zelf defect is of iets mis is met het systeem.

ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w


  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 10:21

Pixeltje

Woo-woohoo!

Dat zou kunnen, heb nig een testsysteem met freenas erop, ik zal die schijf daar vanavond eens inhangen. Bedankt voor de hulp zover :)

Edit:

Net thuis terug; memtest geeft geen errors, heeft sinds gisteravond uur of 8 gedraaid, dus lijkt me redelijk betrouwbaar.

De schijf in een andere PC hangen is me niet gelukt, de PC die hier als testbak staat heeft een kapotte SATA poort (dat wist ik al) en op de andere zit al een schijf aangesloten.

Ik probeer nu de SMART data alsnog uit te lezen via de nieuwe NAS, maar heb er een hard hoofd in.

Voor de zekerheid toch maar even vragen; Hoeveel kwaad kan het om toch een andere schijf tussen de drie overgbleven seagates te zetten in deze array? Stel nu dat ik een Spinpoint of WD schijf van 2TB koop (of terugvraag uit RMA), is dat echt een probleem?

Ik wordt een beetje moe van deze schijven en heb geen zin in elke 4 maanden een RMA, om een refurbished ding terug te krijgen wat na een jaar ook sterft. Het zijn gewoon slechte schijven en daar wil ik zo min mogelijk afhankelijk van zijn.

edit2:
Van schijf 1 zijn dit de smart-waarden.. Op zich prima lijkt me; alle belangrijke RAW waarden zijn goed (voor zover ik kan zien). Maak me wel wat zorgen om de RAW read error rate, maar aangezien die ook allemaal gecorrigeerd lijken te zijn (en al mijn schijven zulke waarden vertonen) zal dat normaal zijn?
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000f   119   099   006    Pre-fail  Always       -       234729564
  3 Spin_Up_Time            0x0003   100   100   000    Pre-fail  Always       -       0
  4 Start_Stop_Count        0x0032   100   100   020    Old_age   Always       -       252
  5 Reallocated_Sector_Ct   0x0033   100   100   036    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x000f   072   060   030    Pre-fail  Always       -       4313704558
  9 Power_On_Hours          0x0032   093   093   000    Old_age   Always       -       6135
 10 Spin_Retry_Count        0x0013   100   100   097    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   020    Old_age   Always       -       227
183 Runtime_Bad_Block       0x0032   100   100   000    Old_age   Always       -       0
184 End-to-End_Error        0x0032   100   100   099    Old_age   Always       -       0
187 Reported_Uncorrect      0x0032   100   100   000    Old_age   Always       -       0
188 Command_Timeout         0x0032   100   100   000    Old_age   Always       -       0
189 High_Fly_Writes         0x003a   100   100   000    Old_age   Always       -       0
190 Airflow_Temperature_Cel 0x0022   065   054   045    Old_age   Always       -       35 (Min/Max 33/35)
194 Temperature_Celsius     0x0022   035   046   000    Old_age   Always       -       35 (0 15 0 0)
195 Hardware_ECC_Recovered  0x001a   038   025   000    Old_age   Always       -       234729564
197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0010   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x003e   200   200   000    Old_age   Always       -       0
240 Head_Flying_Hours       0x0000   100   253   000    Old_age   Offline      -       202125455923845
241 Total_LBAs_Written      0x0000   100   253   000    Old_age   Offline      -       1689561595
242 Total_LBAs_Read         0x0000   100   253   000    Old_age   Offline      -       3311957841

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]


SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.


Maar van schijf 0 (die dus stuk is), op welke kabel of welke poort dan ook, krijg ik geen respons anders dan;
code:
1
2
3
4
5
6
7
8
9
10
[Sjaak@freenas] ~> smartctl -a /dev/ada0
smartctl 5.41 2011-06-09 r3365 [FreeBSD 8.2-RELEASE-p6 amd64] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net

/dev/xpt0 control device couldn't opened: Permission denied
Unable to get CAM device list
/dev/ada0: Unable to detect device type
Smartctl: please specify device type with the -d option.

Use smartctl -h to get a usage summary

[ Voor 144% gewijzigd door Pixeltje op 21-03-2012 08:22 ]

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust

Die Seek Error Rate is wel hoog... Dat ruikt niet goed...

Ter vergelijking:
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   205   166   021    Pre-fail  Always       -       4725
  4 Start_Stop_Count        0x0032   099   099   000    Old_age   Always       -       1157
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   093   093   000    Old_age   Always       -       5650
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   253   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       84
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       70
193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       2909
194 Temperature_Celsius     0x0022   117   108   000    Old_age   Always       -       33
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   200   200   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       0

Even niets...


  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 10:21

Pixeltje

Woo-woohoo!

Crap :(

Dat betekend dat al mijn schijven (de drie die ik kan benaderen hebben allemaal zulke cijfers) ook aan het sterven zijn?

Het zijn wellicht nog geen unrecoverable errors, maar dat laat natuurlijk niet lang op zich wachten met deze waarden. Ik heb goedkeuring (tegen alle verwachting) van de RMA van de kapotte schijf, dus denk dat ik maar even bel met de webshop om te vragen wat er mogelijk is. Ik heb liever vier andere schijven en een beetje bijbetalen dan vier half-brakke schijven in mijn NAS.

Het ding is deels ook als backupmachine bedoeld, en moet dus wel gewoon betrouwbaar zijn.

[ Voor 64% gewijzigd door Pixeltje op 21-03-2012 14:26 ]

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust

Ik durf het niet te zeggen, maar het lijkt er wel op...

Even niets...


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01:32
CurlyMo schreef op donderdag 08 maart 2012 @ 14:50:
Zo kan het ook:
code:
1
crontab -e


Dan de volgende regel invoegen:
code:
1
0 1 * * 1 /sbin/zpool scrub [poolnaam]

Dit zal elke eerste dag van de maand een scrub uitvoeren. Makkelijker kan naar mijn idee niet. Als je vervolgens een van mijn notificatie scriptjes gebruikt dan hoor je snel genoeg of er wat mis was met je pool.

code:
1
0 0,4,8,12,16,20 * * * /usr/sbin/zpool_check.pl

In dit geval draai ik hem elke 4 uur.

Het scriptje zpool_check.pl
code:
1
2
3
4
5
6
7
8
9
10
11
#!/usr/bin/perl
my $command_output = `/sbin/zpool status -x`;
if ($command_output eq "all pools are healthy\n") {
exit;
}
else
{
$to='YOUR@EMAIL.COM';
$from='YOUR@EMAIL.COM';
`echo "Subject: ZFS Alert\n$command_output" | /usr/sbin/sendmail -f $from $to`;
}
Ik had dit ooit werkend, maar na een herinstallatie (system version 9.0-004 met ZFSGuru 0.2.0-beta5) krijg ik het niet meer werkend :(
De server wil de mail lokaal afleveren lijkt het, ik kan me nog herinneren dat ik een smart host (smtp.ziggo.nl) had opgegeven, maar ook dat krijg ik niet meer aan de praat.
Kan iemand me even een duwtje in de juiste richting geven?

Overigens start ook Samba niet automatisch sinds deze update, in Linux (Ubuntu) ben ik redelijk thuis, maar in FreeBSD kan ik mijn weg nog niet zo goed vinden, hoe zorg ik ervoor dat Samba gewoon weer automatisch start?

  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 10:21

Pixeltje

Woo-woohoo!

FireDrunk schreef op woensdag 21 maart 2012 @ 14:24:
Ik durf het niet te zeggen, maar het lijkt er wel op...
Ik heb net gebeld met 4launch, ik kan alle schijven opsturen op het RMA nummer, zij sturen de schijven naar Seagate. Als Seagate besluit de schijven te repareren krijg ik deze terug, als Seagate besluit dat ze vervangen worden neemt 4launch contact op en kan ik andere schijven uitzoeken. Erg netjes, en ik ben er erg blij mee. Hoop stiekem wel een beetje dat seagate ze niet wil repareren, maar lijkt me dat ze net als de vorige keer, gewoon de schijf vervangen.

Als ik andere schijven kan kiezen ga ik voor WD of hitachi, daar heb ik al jaren goede ervaringen mee.

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • webfreakz.nl
  • Registratie: November 2003
  • Laatst online: 21-08 15:56

webfreakz.nl

el-nul-zet-é-er

FireDrunk schreef op woensdag 21 maart 2012 @ 13:58:
Die Seek Error Rate is wel hoog... Dat ruikt niet goed...
Een aantal van die SMART waardes zeggen mij niet zoveel, maar als ik met CrystalDiskInfo kijk naar de waardes van een Seagate ST31000528AS van mij dan krijg ik de HEX waarde van 0000111185B7. Dat lijkt me vrij veel als ik dat vertaal van HEX naar DEC :P Wat vind je van de waardes?
----------------------------------------------------------------------------
(2) ST31000528AS
----------------------------------------------------------------------------
Model : ST31000528AS
Firmware : CC35
Serial Number : 9VP128GL
Disk Size : 1000.2 GB (8.4/137.4/1000.2)
Buffer Size : onbekend
Queue Depth : 32
# of Sectors : 1953523055
Rotation Rate : 7200 RPM
Interface : Serial ATA
Major Version : ATA8-ACS
Minor Version : ATA8-ACS version 4
Transfer Mode : SATA/300
Power On Hours : 8951 uren
Power On Count : 1013 keer
Temparature : 36 C (96 F)
Health Status : Goed
Features : S.M.A.R.T., AAM, 48bit LBA, NCQ
APM Level : ----
AAM Level : FE00h [ON]

-- S.M.A.R.T. --------------------------------------------------------------
ID Cur Wor Thr RawValues(6) Attribute Name
01 106 _99 __6 000000AF45FC Read Error Rate
03 _95 _95 __0 000000000000 Spin-Up Time
04 _99 _99 _20 0000000007ED Start/Stop Count
05 100 100 _36 000000000000 Reallocated Sectors Count
07 _84 _60 _30 0000111185B7 Seek Error Rate
09 _90 _90 __0 0000000022F7 Power-On Hours
0A 100 100 _97 000000000000 Spin Retry Count
0C 100 100 _20 0000000003F5 Power Cycle Count
B7 100 100 __0 000000000000 Onbekend
B8 100 100 _99 000000000000 End-to-End Error
BB 100 100 __0 000000000000 Reported Uncorrectable Errors
BC 100 _96 __0 000000000232 Command Timeout
BD 100 100 __0 000000000000 High Fly Writes
BE _64 _49 _45 000024110024 Airflow Temperature
C2 _36 _51 __0 000C00000024 Temperature
C3 _45 _24 __0 000000AF45FC Hardware ECC recovered
C5 100 100 __0 000000000000 Current Pending Sector Count
C6 100 100 __0 000000000000 Uncorrectable Sector Count
C7 200 200 __0 000000000000 UltraDMA CRC Error Count
F0 100 253 __0 ED7900002DF1 Head Flying Hours
F1 100 253 __0 0000EEA990A5 Bedrijfsspecificatie
F2 100 253 __0 000026DC5679 Bedrijfsspecificatie

"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!


  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 10:21

Pixeltje

Woo-woohoo!

Misschien ter uwer info.. toen de man van de webshop zag welke schijven het zijn, kwam er wel een "oh... die" door de telefoon. Nu heb jij andere schijven zo te zien, maar wellicht dat de hele serie gewoon brak is?

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


Verwijderd

Topicstarter
De raw value is proprietary!

Je moet bji deze waardes kijken naar de threshold values. De schijf van Pixeltje heeft een seek waarde van 72 op dit moment, 60 is het laagste ooit geweest en als hij beneden de 30 komt, geldt hij als failed. Dit is dus ver boven de nominale waardes; ik zie het probleem niet zo?

Als je elke schijf die gen perfecte SMART meer geeft gaat omwisselen denk ik niet dat je ook maar één hardeschijf overhoudt na paar maanden gebruik. Het blijven mechanische dingen met wisselende prestaties; is dat zo erg?

Ik ben zelf niet zo van het 'uit voorzorg' vervangen van schijven; in mijn ervaring zijn de schijven die het het langst uithouden nooit vrij van defecten zoals een paar bad sectors, en bijvoorbeeld een keer een te lange spinup geeft gelijk errors in je SMART output, maar zo overdreven om voor één keertje 'verslapen' een HDD gelijk af te schrijven.

Bedenk ook dat je seek errors krijgt als je hardeschijf niet strak gemonteerd is in zijn kast, waardoor zijn eigen vibraties onvoldoende worden tegengehouden door het metalen frame.

[ Voor 9% gewijzigd door Verwijderd op 21-03-2012 15:07 ]

Zoals ik al zei, ik durf het niet te zeggen. Het is volledig eigen interpretatie :)

Even niets...


  • webfreakz.nl
  • Registratie: November 2003
  • Laatst online: 21-08 15:56

webfreakz.nl

el-nul-zet-é-er

Ik keek nog eens naar die SMART waardes toen ik een groot bestand kopieerde naar de in mijn vorige post genoemde schijf, en dan zie ik de "Read Error Rate" en "Seek Error Rate" flink oplopen.

In rust loopt alleen de SER op, en wel elke 1-2 seconden een paar units.

"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!


Verwijderd

Topicstarter
Bij SMART waardes geldt dat een hoger getal beter is; 255 is het hoogst, 0 is het laagste. Als je waarde onder de threshold-value zakt, dan geeft SMART errors. Bij de raw value hangt het van de SMART-schijf af. Maar aangezien deze proprietary-encoded is, kun je hier niet simpelweg een hoger getal van maken. Het is net zoiets als een temperatuur van "3233888829"; daarin zit dan opgeslagen zaken als hoogste temp ooit, laagste temp ooit, huidige temp.

Als de raw value proprietary encoded is, kun je er in principe niets mee. Alleen de threshold waardes zeggen dan wat over de huidige stand, en wellicht de utility van de fabrikant zelf.

  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 10:21

Pixeltje

Woo-woohoo!

Nu ben ik in de war :?

De vorige schijf die ik RMA stuurde had ook zulke idiote getallen bij de RAW data staan, en een reallocated sector count die snel opliep. de RAW output daarvan liep daarmee ook op. Wat ik toendertijd begreep van seagate (hetzelfde type en serie schijf als deze vier) is dat oplopende getallen in de RAW output wijzen op een schijf die gaat falen of al stuk is.

Vandaar dat mijn virtuele alarmbellen gingen rinkelen toen ik de smartoutput van deze schijven zag, maar CiPHER geeft nu aan dat de RAW data in principe niet zoveel zegt (behalve dan die van de UDMA CRC error count).

Voel me net een klein kind wat niet zelf kan kiezen, maar: wat nu?

[ Voor 5% gewijzigd door Pixeltje op 21-03-2012 15:23 ]

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


Verwijderd

Topicstarter
Reallocated sector count wordt niet proprietary encoded; dat is één waarde. 4 betekent 4 reallocated sectors. Andere attributen worden echter anders opgeslagen. Een temperatuur van 10003485 betekent niet dat de schijf in de hel is geworpen, maar is simpelweg een methode om meerdere cijfers in één getal op te slaan, door middel van encoding.

Krijg je dus alleen wat oplopende getallen bij Read error rate of seek error rate, dan zou ik me daar niets van aantrekken. Bij deze attributen negeer je de raw value en kijk je alleen na ar de current versus threshold value. 60 current versus 30 threshold betekent dat je twee keer boven de failure threshold zit. Wordt die waarde opeens 40 dan kun je je inderdaad zorgen maken, maar de raw value hoeft niets te zeggen; je weet überhaupt niet hoe deze data is opgeslagen.

  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 10:21

Pixeltje

Woo-woohoo!

Dank voor de uitleg.

Ik denk dat ik op de testNAS maar even windows installeer, de seatool draai en kijk wat daar uitkomt. Als de long-test goed bevonden wordt vindt ik het prima, anders gaan ze retour.

(half losstaand van dit;) Ik moet zeggen dat ik me misschien een beetje verkeken heb op het gebruik van FreeNAS en ZFS, ik dacht dat ik me redelijk goed ingelezen had maar ik kom toch elke dag weer dingen tegen waar ik nog niet goed van weet wat ik ermee moet. Veel vind ik op internet wel en FreeNAS 9en de ZFS commando's) zijn vrij eenduidig, maar dit soort dingen wil ik als het even kan graag ook horen van iemand die er echt verstand van heeft, dat geeft net even wat meer zekerheid :)

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust

Sleepie schreef op woensdag 21 maart 2012 @ 14:30:
[...]

Ik had dit ooit werkend, maar na een herinstallatie (system version 9.0-004 met ZFSGuru 0.2.0-beta5) krijg ik het niet meer werkend :(
De server wil de mail lokaal afleveren lijkt het, ik kan me nog herinneren dat ik een smart host (smtp.ziggo.nl) had opgegeven, maar ook dat krijg ik niet meer aan de praat.
Kan iemand me even een duwtje in de juiste richting geven?

Overigens start ook Samba niet automatisch sinds deze update, in Linux (Ubuntu) ben ik redelijk thuis, maar in FreeBSD kan ik mijn weg nog niet zo goed vinden, hoe zorg ik ervoor dat Samba gewoon weer automatisch start?
Voor het instellen van je SMTP server in sendmail. Stap 3 uit deze guide:
http://linuxshellaccount....o-work-in-solaris-10.html

Ik heb nu zelf mijn mail via gmail lopen (apart account voor mijn server):
http://log.bthomson.com/2...-instead-of-sendmail.html
http://wiki.freebsd.org/SecureSSMTP

Het mail commando in de scripts veranderd dan in:
code:
1
`echo "$command_output" | /usr/bin/mail -s "SMART Alert" $to`;


Samba heeft in ZFSguru nooit goed gewerkt voor mij. Daarom werk ik gewoon met een custom gecompileerde installatie.

Sinds de 2 dagen regel reageer ik hier niet meer


Verwijderd

Topicstarter
@Sleepie: samba is niet actief als je opnieuw start? Staat er geen samba_enable="YES" in je /etc/rc.conf ? Dat is default wel het geval. Alleen als je zelf /etc/rc.conf aangepast hebt, zou Samba niet automatisch kunnen starten. Kun je dit bevestigen? Waat loop je nog meer tegen aan?

@CurlyMo: hoezo werkt Samba niet voor je in ZFSguru? Die komt gewoon uit de ports namelijk; dus dan zou de ports versie ook niet moeten werken? Wat werkt er precies niet?

Het script hierboven gebruikt perl; dus dat moet je dan ook geïnstalleerd hebben op je server.
Verwijderd schreef op woensdag 21 maart 2012 @ 16:30:
@CurlyMo: hoezo werkt Samba niet voor je in ZFSguru? Die komt gewoon uit de ports namelijk; dus dan zou de ports versie ook niet moeten werken? Wat werkt er precies niet?
Zoals ik al een aantal keren had aangegeven werken de VFS objects niet in de ports versie. Misschien was het een beetje resoluut om te zeggen dat Samba überhaupt niet werkt, hij werkt in ieder geval niet naar mijn wensen.

Sinds de 2 dagen regel reageer ik hier niet meer


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01:32
Verwijderd schreef op woensdag 21 maart 2012 @ 16:30:
@Sleepie: samba is niet actief als je opnieuw start? Staat er geen samba_enable="YES" in je /etc/rc.conf ? Dat is default wel het geval. Alleen als je zelf /etc/rc.conf aangepast hebt, zou Samba niet automatisch kunnen starten. Kun je dit bevestigen? Waat loop je nog meer tegen aan?
Het script hierboven gebruikt perl; dus dat moet je dan ook geïnstalleerd hebben op je server.
Samba was inderdaad niet actief na het opnieuw opstarten van mn server.
samba_enable=YES staat gewoon in de rc.conf, maar ik zie geloof ik al wat het probleem is nu :)

Ik heb inderdaad een kleine aanpassing gemaakt in de rc.conf, ik heb mijn server namelijk een fixed IP gegeven.
En nu zie ik dat het config script wat ik daarvoor heb gebruikt mijn networking configuration helemaal onderaan rc.conf heeft geplaatst.

Ik vermoed dus zomaar, dat de netwerk laag nog niet actief is als samba wil starten, waardoor dat vervolgens niet lukt. Ik ga de networking config regels even naar boven verplaatsen in mn rc.conf :)

@CurlyMo: Thanks daar ga ik even naar kijken, dan moet het wel lukken denk ik.

[ Voor 3% gewijzigd door Sleepie op 01-03-2013 13:30 ]

Sleepie schreef op woensdag 21 maart 2012 @ 16:35:
[...]

Samba was inderdaad niet actief na het opnieuw opstarten van mn server.
samba_enable=YES staat gewoon in de rc.conf, maar ik zie geloof ik al wat het probleem is nu :)

Ik heb inderdaad een kleine aanpassing gemaakt in de rc.conf, ik heb mijn server namelijk een fixed IP gegeven.
En nu zie ik dat het config script wat ik daarvoor heb gebruikt mijn networking configuration helemaal onderaan rc.conf heeft geplaatst.

Ik vermoed dus zomaar, dat de netwerk laag nog niet actief is als samba wil starten, waardoor dat vervolgens niet lukt. Ik ga de networking config regels even naar boven verplaatsen in mn rc.conf :)
Dat zou niet moeten uitmaken. Bij mij staat ook alles (door luiheid) door elkaar in die rc.conf :)

Sinds de 2 dagen regel reageer ik hier niet meer


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01:32
CurlyMo schreef op woensdag 21 maart 2012 @ 16:36:
Dat zou niet moeten uitmaken. Bij mij staat ook alles (door luiheid) door elkaar in die rc.conf :)
OK, ik had dezelfde aanpassing in de vorige config ook gemaakt.
Hmm, dan ben ik puzzled waarom Samba niet start. In de ZFSGuru config page stond hij ook gewoon op "Disabled". Keertje op "Enable" klikken en het probleem was opgelost.

Maar ik zou toch graag hebben dat Samba gewoon weer automatisch start.
Sleepie schreef op woensdag 21 maart 2012 @ 16:38:
[...]

OK, ik had dezelfde aanpassing in de vorige config ook gemaakt.
Hmm, dan ben ik puzzled waarom Samba niet start. In de ZFSGuru config page stond hij ook gewoon op "Disabled". Keertje op "Enable" klikken en het probleem was opgelost.

Maar ik zou toch graag hebben dat Samba gewoon weer automatisch start.
Zet eens in je rc.conf --> rc_debug="YES"
Start dan je samba een vanaf de command line via: /usr/local/etc/rc.d/samba start

Welke uitput krijg je te zien?

Sinds de 2 dagen regel reageer ik hier niet meer


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01:32
De output:
code:
1
2
3
4
[root@wega /etc]# /usr/local/etc/rc.d/samba start
/usr/local/etc/rc.d/samba: DEBUG: checkyesno: samba_enable is set to YES.
/usr/local/etc/rc.d/samba: DEBUG: checkyesno: winbindd_enable is set to NO.
Cannot 'start' samba. Set winbindd_enable to YES in /etc/rc.conf or use 'onestart' instead of 'start'.


Na toevoegen van winbindd_enable="YES" in rc.conf start/stopt samba nu zonder problemen.

Ik kan nu even niet rebooten om te testen of het ook bij opstarten nu goed gaat helaas.

[ Voor 21% gewijzigd door Sleepie op 21-03-2012 16:45 ]

Wat zegt je log /var/log/samba/log.smbd?'
Niet meer van toepassing

[ Voor 29% gewijzigd door CurlyMo op 21-03-2012 16:50 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Verwijderd

Topicstarter
Sleepie: ZFSguru heeft geen windbind; dus je hebt custom een Samba-package geïnstalleerd buiten ZFSguru om. Dan moet je inderdaad je /etc/rc.conf ook aanpassen, dit keer met winbindd_enable="YES" erbij.

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01:32
CurlyMo schreef op woensdag 21 maart 2012 @ 16:46:
Wat zegt je log /var/log/samba/log.smbd?
http://pastebin.com/TyTfMg46
Verwijderd schreef op woensdag 21 maart 2012 @ 16:50:
Sleepie: ZFSguru heeft geen windbind; dus je hebt custom een Samba-package geïnstalleerd buiten ZFSguru om. Dan moet je inderdaad je /etc/rc.conf ook aanpassen, dit keer met winbindd_enable="YES" erbij.
Dat komt dan waarschijnlijk omdat samba is geupdate bij een system upgrade die ik heb uitgevoerd bij het installeren van sabnzbd en dergelijke. Dat is de enige reden die ik kan bedenken :)
Het werkt nu, dat is het belangrijkste :) Log was dus niet meer nodig.

Sinds de 2 dagen regel reageer ik hier niet meer


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01:32
Klopt, uiteindelijk krijgen we het wel werkend hoor :)

Het is alleen een beetje zoeken waar alle bestanden staan enzo, da's af en toe weer net wat anders dan bij Ubuntu-achtigen die ik meer gewend ben.

Vanavond eens even kijken of ik het mail gebeuren aan de gang kan krijgen, in ieder geval weer bedankt heren!

Verwijderd

Topicstarter
Als jullie kleine vraagjes hebben over FreeBSD/ZFSguru mag dat ook via DM; ik loop in dit topic een beetje achter door de vele posts afgelopen dagen. :P

  • jadjong
  • Registratie: Juli 2001
  • Niet online
Ik heb een pool met een R2 vdev van 6 disks, met ashift=9 omdat ik niet beter wist. :+ Kan ik hier een mirror van 6 disks met a=12 aan toevoegen? Dan sloop ik daarna weer de mirror. Heb niet veel zin om handmatig alle data te kopieren.

Verwijderd

Topicstarter
Nee, je kunt NOOIT disks met hogere sectorsize toevoegen aan een pool. Als je pool ashift=9 is, kun je alleen disks toevoegen met een sectorsize van 512 bytes of lager.

Is je pool ashift=12, dan kun je alleen disks toevoegen met een sectorsize van 4096 bytes (4K) of lager. 4K disks mag je dus niet toevoegen aan een ashift=9 pool.

De ashift-waarde wordt bepaald wanneer je de pool aanmaakt. Dus als je denkt 4K disks te gebruiken word je sterk aangeraden om de GNOP-feature te gebruiken als je op FreeBSD platform zit. Zo niet, dan kun je je pool aanmaken met FreeBSD platform en daarna switchen, omdat Solaris niet op een veilige manier de ashift kan instellen.

jadjong, als je geen 4K disks gebruikt heb je ook geen ashift=12 nodig, mits je blijft bij 512-byte disks. Zit er minimaal één 4K disk in de pool (die 512B sectors emuleert) dan kun je véél beter een ashift=12 pool hebben.

  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
Ik hier nu een pool van 6x een WD20EARS, deze staan in RAIDZ2.
Hoe kan ik hiervan op een makkelijke manier testen wat de write en readsnelheden zijn in Linux?

En aangezien ZFS niet ondersteund om disks toe te voegen aan een pool, maar wel mogelijk is om een disk te vervangen voor een grotere disk bijv van 2TB naar 3TB. Maakt het dan uit dat ik bijv maar één van deze zes harde schijven omwissel voor een 3TB disk, of moeten ze alle zes in één keer omgewisseld worden?

Verwijderd

Topicstarter
Dutch3men, ik heb je al eerder een reply gegeven over ZFS expansion, want wat jij zegt is niet helemaal correct. Heb je de volgende reply gemist?

Benchmarken kun je met dd, vervang /tank/ door je pool mountpoint:
dd if=/dev/zero of=/tank/zerofile.txt bs=1M count=64000
dd if=/tank/zerofile.txt of=/dev/null bs=1M
Dutch3men schreef op donderdag 08 maart 2012 @ 16:24:
[...]
Dus als ik ZFS zou willen gebruiken zou ik telkens als er een disk vrij komt een nieuw volume moeten aanmaken, maar aangezien ik RAID5/6 wil draaien moet ik telkens wachten tot ik 3 of 4 disken leeg ik voordat ik weer een nieuw volume kan aanmaken. Dus kort weg gezegd stel ik wil met mijn huidige setup ZFS draaien in RAID5, moet ik twee volumes aanmaken en verlies ik i.v.m RAID5 twee harde schijven aan opslag.

Dan lijkt MDADM een betere oplossing aangezien hierbij gewoon telkens een HDD aan een array gekoppeld kan worden, correct?
Ouderwets expanden van RAID5 is voor thuisgebruikers heerlijk, omdat ze altijd even een schijfje bij kunnen pleuren. Voor Enterprise-gebruikers is deze feature niet interessant, om meerdere redenen:
  • Je server in principe offline voor 24+ uur; de lage I/O performance is onvoldoende om een enterprise server te laten draaien
  • Het is niet volkomen veilig; het is een riskante operatie waarbij het de vraag is hoe goed de engine omgaat met bijvoorbeeld een crash of bad sector of andere problemen tijdens de expansion
  • Het verlaagt je redundancy-niveau; je hebt meer schijven maar niet meer redundancy; je array wordt er dus onveiliger van. Meestal niet zo'n probleem.
Voor thuisgebruikers is het niet 'ouderwets' kunnen expanden van ZFS een groot nadeel. Maar wat vaak onderkend wordt, is dat ZFS ook voordelen biedt boven de 'ouderwetse' methode:
  • ZFS expansion is volkomen veilig; de bestaande data blijft waar hij staat.
  • ZFS expansion is in één seconde afgerond; geen downtime of lage I/O performance whatsoever.
  • ZFS expansion behoudt je redundancy, doordat je steeds nieuwe arrays toevoegt in plaats van de stripe width uitbreidt.
  • Je kunt vdevs van een ander type toevoegen; dus bijvoorbeeld RAID5 met mirror combineren; of RAID-Z2 met RAID-Z3 combineren.
  • Je kunt grotere disks gebruiken; dus je begint nu met 2TB disks en later voeg je 3TB disks toe en in de toekomst ruimte voor 4TB disks. Bij ouderwets expanden moet je dezelfde disks gebruiken.
  • ZFS doet load balancing over de verschillende vdevs; dus als je nieuwe array/vdev sneller of langzamer is dan de oude, remmen ze elkaar niet af. Bij ouderwets expansion zal een snellere schijf nauwelijks voordeel geven.
  • Doordat je ook extra SATA poorten nodig hebt en dus een controller moet kopen, is het uitbreiden met meerdere disks tegelijk meestal niet zo heel erg als je dat kunt plannen.
Wat bijvoorbeeld ook kan:
  • Beginnen met een degraded RAID-Z of RAID-Z2 array. Dus bijvoorbeeld een 6-disk RAID-Z2 waarbij je maar 4 echte schijven gebruikt. Je kunt dan data overkopiëren en schijven vrijmaken waar nog data op stond, en die vervolgens toevoegen aan je pool.
  • Beginnen met een RAID0 en uitbreiden naar mirror; of andersom. Dus bijvoorbeeld 4 disks in RAID0 waarnaartoe je data kopiëert. En later voeg je 4 schijven toe zodat je 4 mirrors hebt van in totaal 8 schijven.
Ik wil niet zeggen dat ZFS daarmee alle nadelen voor thuisgebruikers wegneemt, maar het is ook een kwestie van perspectief. Als je op een andere manier denkt, is de methode van ZFS eigenlijk zo gek nog niet. Natuurlijk hoop ik wel dat die feature er ooit in komt, maar voorlopig zie ik dat niet gebeuren.

  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
Bij deze mijn resultaten:
code:
1
2
3
4
5
6
7
8
server:/home/ # dd if=/dev/zero of=/mnt/pool/zerofile.txt bs=1M count=64000
64000+0 records in
64000+0 records out
67108864000 bytes (67 GB) copied, 1033.36 s, 64.9 MB/s
server:/home/ # dd if=/mnt/pool/zerofile.txt of=/dev/null bs=1M
64000+0 records in
64000+0 records out
67108864000 bytes (67 GB) copied, 331.001 s, 203 MB/s


Lijkt mij wel erg laag of niet?

En ik had die reply wel gelezen, en dat je zoals bij RAID niet kan expanden dat weet ik alleen door dit raak ik in de war:
Je kunt grotere disks gebruiken; dus je begint nu met 2TB disks en later voeg je 3TB disks toe en in de toekomst ruimte voor 4TB disks. Bij ouderwets expanden moet je dezelfde disks gebruiken.

Gebeurt dit in dezelfde vdev, dus de enigste die ik nu heb? Of moet ik hiervoor gewoon een nieuwe vdev voor aanmaken?

Verwijderd

Topicstarter
Nee, je kunt ZFS uitbreiden door vdevs toe te voegen. Dus elke keer gooi je er een array bij. Dat kan zijn:
- een enkele disk ('RAID0') dat wil je niet want dan is je pool niet veilig meer
- een mirror (RAID1) van 2 of meer schijven
- een RAID-Z van 2 of meer schijven
- een RAID-Z2 van 3 of meer schijven
- een RAID-Z3 van 4 of meer schijven

Dit doe je met het zpool add commando, of via een web-interface als je dat hebt. De extra vrije ruimte van de nieuwe vdev komt direct overal binnen de pool beschikbaar.

  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
Ah dat is duidelijk, je maakt gewoon een nieuwe vdev aan in dezelfde pool als die ik nu heb, en daardoor wordt de pool in size vergroot :p

En stel je hebt in de kast geen ruimte meer voor meer hardeschijven, kan je een vdev verwijderen en dan die disken vervangen voor grotere exemplaren. Hier weer een vdev van maken en deze vdev wordt weer toegevoegd waardoor de poolsize weer groter wordt correct?

Oh en tips om mijn lees en schrijf snelheid te verhogen?

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 15-12 14:55
Dutch3men schreef op donderdag 22 maart 2012 @ 19:28:
Ah dat is duidelijk, je maakt gewoon een nieuwe vdev aan in dezelfde pool als die ik nu heb, en daardoor wordt de pool in size vergroot :p

En stel je hebt in de kast geen ruimte meer voor meer hardeschijven, kan je een vdev verwijderen en dan die disken vervangen voor grotere exemplaren. Hier weer een vdev van maken en deze vdev wordt weer toegevoegd waardoor de poolsize weer groter wordt correct?

Oh en tips om mijn lees en schrijf snelheid te verhogen?
je kunt alle schijven een voor een vervangen door een groter exemplaar en als je alles vervangen hebt wordt de pool van zelf vergroot.

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 15-12 14:55
kan ik eigenlijk zonder problemen een freebsd 9 zfs pool gebruiken in openindiana 151?
matty___ schreef op donderdag 22 maart 2012 @ 23:24:
kan ik eigenlijk zonder problemen een freebsd 9 zfs pool gebruiken in openindiana 151?
Als de juiste versies worden ondersteund door beide OS-en dan wel. Solaris ondersteund bijv. max. zfs v. 5 en zpool v. 31. FreeBSD ondersteund max. zpool v. 28. Een Solaris zpool v. 31 kan je dus niet importeren in FreeBSD. Zolang je je zpool max. versie 28 houdt zit je wel veilig met multi os support.

Sinds de 2 dagen regel reageer ik hier niet meer


  • Bolk
  • Registratie: Februari 2001
  • Niet online

Bolk

Change the equation.

/edit: nevermind, systeem besluit opeens niet meer te booten (blijft hangen op USB)... Post later nog wel :P

[ Voor 111% gewijzigd door Bolk op 23-03-2012 03:59 ]

Ik bespeur hier een zekere mate van onethische logica.

@CiPHER, kan je uitleggen waarom in ZFSguru de default nog steeds ZPL4 en ZFSv15 de default is?

Even niets...


  • Bolk
  • Registratie: Februari 2001
  • Niet online

Bolk

Change the equation.

Zeau, ik heb een intitiele variant gebouwd van een nieuwe productieserver van ons... De keuze is gevallen op de SuperMicro SuperServer 6026T-URF4+. Deze hebben we uitgerust met 24GB geheugen, 2 Intel 320 SSD's van 120GB en 6x 2GB WD EARX. De O/S disks zijn aangesloten op de Intel controller van het moederbord, de storage pool op een USAS2-L8i kaart. Deze is geflashed naar IT mode.

De indeling is als volgt:

code:
1
2
3
4
5
6
7
[root@Discovery /]# gpart show ada0
=>       34  234441581  ada0  GPT  (111G)
         34         94     1  freebsd-boot  (47k)
        128   41943040     2  freebsd-zfs  (20G)
   41943168   10485760     3  freebsd-zfs  (5.0G)
   52428928  125829120     4  freebsd-zfs  (60G)
  178258048   56183567        - free -  (26G)


Deze draaien in mirror, 20GB voor o/s, 5GB voor SLOG, 60GB voor L2ARC (x2). De pools zien er dan zo uit:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
[root@Discovery /]# zpool status
  pool: storage
 state: ONLINE
 scan: resilvered 4K in 0h0m with 0 errors on Fri Mar 23 02:55:00 2012
config:

        NAME        STATE     READ WRITE CKSUM
        storage     ONLINE       0     0     0
          raidz2-0  ONLINE       0     0     0
            da3     ONLINE       0     0     0
            da4     ONLINE       0     0     0
            da5     ONLINE       0     0     0
            da1     ONLINE       0     0     0
            da0     ONLINE       0     0     0
            da2     ONLINE       0     0     0
        logs
          mirror-1  ONLINE       0     0     0
            ada0p3  ONLINE       0     0     0
            ada1p3  ONLINE       0     0     0
        cache
          ada0p4    ONLINE       0     0     0
          ada1p4    ONLINE       0     0     0

errors: No known data errors

  pool: zroot
 state: ONLINE
 scan: resilvered 28K in 0h0m with 0 errors on Fri Mar 23 03:19:03 2012
config:

        NAME        STATE     READ WRITE CKSUM
        zroot       ONLINE       0     0     0
          mirror-0  ONLINE       0     0     0
            ada0p2  ONLINE       0     0     0
            ada1p2  ONLINE       0     0     0

errors: No known data errors


Dit zijn de eerste benchmarks:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
[root@Discovery /]# dd if=/dev/zero of=/storage/10gb.bin bs=1M count=10240
10240+0 records in
10240+0 records out
10737418240 bytes transferred in 43.848886 secs (244873227 bytes/sec)
[root@Discovery /]# dd of=/dev/zero if=/storage/10gb.bin bs=1M count=10240
10240+0 records in
10240+0 records out
10737418240 bytes transferred in 1.676792 secs (6403547556 bytes/sec)

[root@Discovery /]# dd if=/dev/zero of=/storage/60gb.bin bs=1M count=61440
61440+0 records in
61440+0 records out
64424509440 bytes transferred in 281.164871 secs (229134277 bytes/sec)
[root@Discovery /]# dd of=/dev/zero if=/storage/60gb.bin bs=1M count=61440
61440+0 records in
61440+0 records out
64424509440 bytes transferred in 166.316137 secs (387361747 bytes/sec)


Is dit een beetje netjes? Of moet ik meer kunnen halen? Ik heb me nog niet verdiept in 4K alignment, is dat automatisch bij het aanmaken van een pool?

[ Voor 8% gewijzigd door Bolk op 23-03-2012 12:57 ]

Ik bespeur hier een zekere mate van onethische logica.


  • jadjong
  • Registratie: Juli 2001
  • Niet online
Doe eens een test groter dan het interne geheugen. Je schrijft nu met 230MB/s, wat niet echt overweldigend is, en je leest met 6GB/s, wat fysiek onmogelijk is voor die schijven. :+

Verwijderd

Topicstarter
Bolk: check je dd commando's tien keer dubbel want op deze manier (de if= en of= omwisselen) ga je echt een keer gruwelijk fouten maken! Je dd benches zijn verkeerd, omdat:
1) je een veel te lage size pakt die in zijn geheel in je RAM past; voor nauwkeurig benches test je met 8 keer je RAM size dus 8*24GiB = 192GB ofwel bs=192000
2) je schrijft naar /dev/zero bij de leestest, terwijl het of=/dev/null moet zijn. Bij de leesttest heb je geen count= parameter nodig.

Verder nog wat kleine opmerkingen:
  • Je gebruikt geen GPT labels; dat is wel zo handig om je schijven qua naam te kunnen herkennen. Voordat je je pool echt in gebruik neemt wil je dat misschien aanpassen.
  • Je laat 24GiB van de 120GB ongebruikt; dat is niet zoveel voor een server SSD. 50% is vrij normaal hier. Ik zou je L2ARC 10 gig kleiner maken en als spare space gebruiken. 2x50GB = 100GB L2ARC is best mooi, en daar heb je ook al tussen de 1 en 32 gigabyte RAM nodig alleen voor de L2ARC functie!
  • Je SLOG heb je gemirrored en je L2ARC heb je gestriped; dat is goed!
  • Doordat je geen partities op je dataschijven gebruikt, kun je in de problemen komen wanneer je één schijf moet vervangen. Als je vervangende schijf dan een paar kilobyte kleiner is, kun je die niet gebruiken om een gefaalde disk te vervangen. Mijn advies: ALTIJD partities gebruiken en ruimte reserveren op het einde. Alignment start op 1MiB offset (2048 sector) en dan kun je ook gelijk een partitielabel geven.
  • Je pool heeft nu waarschijnlijk ashift=9 setting; optimized for 512B disks. Dit kun je controleren met: zdb -e <poolname> | grep ashift. Voor betere random write performance kun je optimaliseren voor ashift=12 tijdens het aanmaken van de pool, door middel van de GNOP methode.
Alle dingen die ik beschrijf worden automatisch gedaan in de ZFSguru distributie. Wellicht kun je daar eens naar kijken of zelfs je partities mee laten aanmaken, want dat is wel zo makkelijk. Bedenk dat als je je SSDs opnieuw wilt indelen, je eerst een TRIM-erase uitvoert: newfs -E -b 65536 /dev/<SSD device>.
FireDrunk schreef op vrijdag 23 maart 2012 @ 08:37:
@CiPHER, kan je uitleggen waarom in ZFSguru de default nog steeds ZPL4 en ZFSv15 de default is?
Alleen maar vanwege compatibility met andere OS. Zo zijn er Solaris versies met ZFS v26, ZFS v22 en met name FreeNAS zit nog met de oude V15. Aangezien je te alle tijde kunt upgraden via de ZFSguru interface, is gekozen om standaard te starten met een pool met lagere versie. Als je dan modernere features wilt gebruiken, upgrade je je pool gewoon en kun je daarna die feature gebruiken. Maar totdat je dat doet kun je je pool beter compatible houden met zoveel mogelijk platforms, zodat je makkelijk kunt switchen.

Dit zou uiteindelijk vervangen moeten worden door twee radio-buttons: of je je pool compatible wilt houden met oudere ZFS platforms. Zo nee, dan kiest hij gewoon de hoogste versie (28).

[ Voor 17% gewijzigd door Verwijderd op 23-03-2012 13:04 ]


  • Bolk
  • Registratie: Februari 2001
  • Niet online

Bolk

Change the equation.

Dank u dank u :+ Still learning.

Ik ga eerst even die pool destroyen en dan zorgen dat de ashift op 12 komt, die is idd nu 9. Labeling ga ik ook regelen. Ik had ZFSGuru op een CD staan, maar ik kreeg op een gegeven moment op alles een 404 van de webinterface, toen ben ik verder gegaan met FreeBSD zelf. Ik ga nog even met ZFSGuru aan de slag...

Ik bespeur hier een zekere mate van onethische logica.


  • syl765
  • Registratie: Juni 2004
  • Laatst online: 26-11 11:00
@ CIPHER

Even snel een vraagje.
Als je de pool ashift 12 maakt, hoe gaan de SLOG en L2ARC daar mee om, die zijn geen 4k.
Of staan de SLOG en L2ARC los van de ashift van de pool.

En nog een nu ik toch bezig ben
Ik heb nu pool van mirrored vdevs van 300GB schijven.
Stel in mijn mirror gaat een schijf stuk.
En zoals het behoort te gaan in de IT is er geen spare van 300 GB aanwezig, en de levertijd is over twee weken.
Kan ik voor nood een SATA schijv van zeg 500 GB plaatsen.
Om deze weer te wisselen als de eigenlijke 300 GB schijf geleverd word.

gr
Johan

  • Pixeltje
  • Registratie: November 2005
  • Laatst online: 10:21

Pixeltje

Woo-woohoo!

syl765 schreef op vrijdag 23 maart 2012 @ 13:15:

En nog een nu ik toch bezig ben
Ik heb nu pool van mirrored vdevs van 300GB schijven.
Stel in mijn mirror gaat een schijf stuk.
En zoals het behoort te gaan in de IT is er geen spare van 300 GB aanwezig, en de levertijd is over twee weken.
Kan ik voor nood een SATA schijv van zeg 500 GB plaatsen.
Om deze weer te wisselen als de eigenlijke 300 GB schijf geleverd word.

gr
Johan
Groter is geen probleem, je kunt die extra ruimte in een mirror alleen niet gebruiken. Ik had in mijn testopstelling twee 250GB schijven in mirror, eentje had ik even ergens anders nodig; replacen, 500GB schijf erin en werd gewoon geaccepteerd.

[ Voor 11% gewijzigd door Pixeltje op 23-03-2012 13:19 ]

And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust


  • Bolk
  • Registratie: Februari 2001
  • Niet online

Bolk

Change the equation.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
[root@Discovery /]# gpart show da0
=>        34  3907029101  da0  GPT  (1.8T)
          34         512    1  freebsd-boot  (256k)
         546        1502       - free -  (751k)
        2048  3907024896    2  freebsd-zfs  (1.8T)
  3907026944        2191       - free -  (1.1M)

[root@Discovery /]# zpool status storage
  pool: storage
 state: ONLINE
 scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        storage     ONLINE       0     0     0
          raidz2-0  ONLINE       0     0     0
            da0p2   ONLINE       0     0     0
            da1p2   ONLINE       0     0     0
            da2p2   ONLINE       0     0     0
            da3p2   ONLINE       0     0     0
            da4p2   ONLINE       0     0     0
            da5p2   ONLINE       0     0     0

errors: No known data errors
[root@Discovery /]# zdb -e storage | grep ashift
                ashift: 12


Dat lijkt er al meer op denk ik (afgezien van de labels). SLOG en L2ARC hebben ook baat bij een 4K alignment op m'n SSD's neem ik aan?

Ik bespeur hier een zekere mate van onethische logica.


Verwijderd

Topicstarter
Nu is je partitie 2000396746752 bytes groot. Je kunt het beste onder de 2TB komen, dan weet je zeker dat elke 2TB schijf een vervanging kan zijn voor je huidige schijf. Met andere woorden: 400MB op het laatst reserveren. Dat is toch de langzaamste plek dus daar hoef je niet zo droevig om te zijn. :P

SLOG en L2ARC zijn anders; als je pool ashift=12 is dan zouden je SLOG en L2ARC ook maar dergelijke requests (vanaf 4K) moeten krijgen. Al maakt het voor je SSDs minder uit. Intel doet het bijvoorbeeld héél goed op 512-byte writes; tot 70.000 IOps bij de oude X25-M generatie. Andere SSDs zoals Marvell en Sandforce hebben een significant lagere performance, en zijn sterk voor 4K-aligned I/O geoptimaliseerd. Voor deze SSDs zou ik je pool inderdaad ashift=12 maken.

  • Bolk
  • Registratie: Februari 2001
  • Niet online

Bolk

Change the equation.

Verwijderd schreef op vrijdag 23 maart 2012 @ 13:45:
Nu is je partitie 2000396746752 bytes groot. Je kunt het beste onder de 2TB komen, dan weet je zeker dat elke 2TB schijf een vervanging kan zijn voor je huidige schijf. Met andere woorden: 400MB op het laatst reserveren. Dat is toch de langzaamste plek dus daar hoef je niet zo droevig om te zijn. :P

SLOG en L2ARC zijn anders; als je pool ashift=12 is dan zouden je SLOG en L2ARC ook maar dergelijke requests (vanaf 4K) moeten krijgen. Al maakt het voor je SSDs minder uit. Intel doet het bijvoorbeeld héél goed op 512-byte writes; tot 70.000 IOps bij de oude X25-M generatie. Andere SSDs zoals Marvell en Sandforce hebben een significant lagere performance, en zijn sterk voor 4K-aligned I/O geoptimaliseerd. Voor deze SSDs zou ik je pool inderdaad ashift=12 maken.
Ja potver, werk ik met ZFSGuru is het nog niet goed haha ;) De write performance is in ieder geval flink verbeterd na de 4K alignment. Ik zal het aanpassen.

Nog 1 n00b vraag, dat TRIM-erase commando, is heeft dat invloed op m'n complete installatie of is dat gewoon een flush zegmaar nadat ik die cache partitie verwijderd heb? Niet dat ik zometeen weer heel FreeBSD opnieuw moet installeren :P

Ik bespeur hier een zekere mate van onethische logica.


Verwijderd

Topicstarter
Oh dacht dat je de partities niet had aangemaakt onder ZFSguru omdat je geen label had. :P

Maar ehm, ZFSguru kan op twee manieren formatteren:
1. quick format onderaan de disks pagina; hier kun je eenvoudig één datapartitie maken van volledige capaciteit, exclusief ruimte op het einde die standaard op 1 megabyte staat. Verander die 1 in 400 (400MB) dan zit je partitie dus net onder de 2TB en dat is denk ik wat je wilt.
2. partition map editor (waar ik aan heb gewerkt *O* ) kun je meerdere partities mee maken. Let op: maak je een partitie zonder label, dan kun je die achteraf wel toevoegen/veranderen, maar pas na een reboot wordt deze actief. Je kunt op deze manier meerdere partities maken, zoals op je SSD.

  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
Dutch3men schreef op donderdag 22 maart 2012 @ 19:16:
Bij deze mijn resultaten:
code:
1
2
3
4
5
6
7
8
server:/home/ # dd if=/dev/zero of=/mnt/pool/zerofile.txt bs=1M count=64000
64000+0 records in
64000+0 records out
67108864000 bytes (67 GB) copied, 1033.36 s, 64.9 MB/s
server:/home/ # dd if=/mnt/pool/zerofile.txt of=/dev/null bs=1M
64000+0 records in
64000+0 records out
67108864000 bytes (67 GB) copied, 331.001 s, 203 MB/s


Lijkt mij wel erg laag of niet?
Iemand tips, om de speeds omhoog te krijgen?

Verwijderd

Topicstarter
ZFS via FUSE kun je beter niet draaien. Er is een ZFSonLinux native kernel project en nog beter migreer je naar FreeBSD of Solaris (of één van de vele afgeleiden al dan niet met web-interface).

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 19-12 06:57

Ultraman

Moderator Harde Waren

Boefje

Precies. Als je per se Linux wilt/moet draaien dan kun je dat altijd nog in een VM doen.
Maar dan zou ik zeker eerst naar jails gaan kijken :)

Voor een enkel schijfje, zoals een extern USB ding voor backups, is ZFS via FUSE wel geinig. Wel de caching op metadata only zetten.
En ik heb een plan om nog een keer te gaan hobbyen met de ZFSonLinux kernel module, maar daar heb ik voorlopig geen tijd voor. Zag wel dat er laatst een nieuwe versie is uitgebracht, goed om te zien dat er nog aan gewerkt wordt :)

[ Voor 4% gewijzigd door Ultraman op 24-03-2012 00:19 ]

Als je stil blijft staan, komt de hoek wel naar jou toe.

[root@NAS ~]# dd if=/dev/zero of=/mnt/zfsnas/test.000 bs=1M count=2048
2048+0 records in
2048+0 records out
2147483648 bytes (2.1 GB) copied, 16.3624 s, 131 MB/s


Naar een memorydisk met een ZFS pool erop via VirtIO.

Kan het nog langzamer... :(

Even niets...


  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
Ultraman schreef op zaterdag 24 maart 2012 @ 00:19:
Precies. Als je per se Linux wilt/moet draaien dan kun je dat altijd nog in een VM doen.
Maar dan zou ik zeker eerst naar jails gaan kijken :)
Binnenkort maar eens FreeBSD proberen, en jails gebruik ik al want daar draait mijn ftp server in :)
OK, het wordt weer allemaal wat onduidelijker en ik snap enkele dingen niet...

Tweakertjes to the rescue :+

Ik heb in de voormiddag OpenIndiana geïnstalleerd in VMware Workstation met een 10GB bootdiskje op mijn SSD in mijn workstation, napp-it er over gegooid, 4x 100GB thin provisioned VMDK's er aan gehangen, en beginnen experimenteren...

Hot add van die disks werkte, leuk, na een rescan vond ie ze allemaal netjes, proper!

Dan maar een pool aangemaakt:

Afbeeldingslocatie: http://dl.dropbox.com/u/829511/pool%20maken.PNG

Joepie! Pool is aangemaakt:

Afbeeldingslocatie: http://dl.dropbox.com/u/829511/pool%20aangemaakt.PNG

Maar nu heb ik geen volume, klopt dit?

Afbeeldingslocatie: http://dl.dropbox.com/u/829511/geen%20volume.PNG

Ik dacht dat het enige wat je moest doen voor data op je storage machine op te kunnen opslaan het aanmaken van een vdev met daarbovenop een pool was... Blijkbaar niet?

Kan iemand hier wat meer uitleg over geven? Wat doe ik hierna? een ZFS Folder aanmaken of een volume aanmaken, nu wordt het redelijk technisch en op een dieper niveau met mountpoints en shares enz... veronderstel ik (?)

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 15-12 14:55
HyperBart schreef op zaterdag 24 maart 2012 @ 12:58:
OK, het wordt weer allemaal wat onduidelijker en ik snap enkele dingen niet...

Tweakertjes to the rescue :+

Ik heb in de voormiddag OpenIndiana geïnstalleerd in VMware Workstation met een 10GB bootdiskje op mijn SSD in mijn workstation, napp-it er over gegooid, 4x 100GB thin provisioned VMDK's er aan gehangen, en beginnen experimenteren...

Hot add van die disks werkte, leuk, na een rescan vond ie ze allemaal netjes, proper!

Dan maar een pool aangemaakt:

[afbeelding]

Joepie! Pool is aangemaakt:

[afbeelding]

Maar nu heb ik geen volume, klopt dit?

[afbeelding]

Ik dacht dat het enige wat je moest doen voor data op je storage machine op te kunnen opslaan het aanmaken van een vdev met daarbovenop een pool was... Blijkbaar niet?

Kan iemand hier wat meer uitleg over geven? Wat doe ik hierna? een ZFS Folder aanmaken of een volume aanmaken, nu wordt het redelijk technisch en op een dieper niveau met mountpoints en shares enz... veronderstel ik (?)
Een volume is wat anders. Het is pool -> zfs en/of volume.
een volume zou je bv gebruiken als je het via iscsi gaat aanbieden of het swap file.

het is eigenlijk
# zfs create pooltje/movies
krijgt dan als mountpoint /pooltje/movies

[ Voor 3% gewijzigd door matty___ op 24-03-2012 13:05 ]

OK, dus dat is het principe van

blockdevice + blockdevice + blockdevice = vdev

vdev + vdev + vdev enz... = zpool of volume

Ik heb nu een ZFS Folder aangemaakt, genaamd test1 maar daar geraak ik nu niet binnen met mijn account van op de console... Ik zie die test1 folder wel als ik naar het IP-adres ga in explorer :)

[ Voor 12% gewijzigd door HyperBart op 24-03-2012 13:19 ]


  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 15-12 14:55
HyperBart schreef op zaterdag 24 maart 2012 @ 13:18:
OK, dus dat is het principe van

blockdevice + blockdevice + blockdevice = vdev

vdev + vdev + vdev enz... = zpool of volume

Ik heb nu een ZFS Folder aangemaakt, genaamd test1 maar daar geraak ik nu niet binnen met mijn account van op de console... Ik zie die test1 folder wel als ik naar het IP-adres ga in explorer :)
ik zou zeggen ssh even naar je bak en doe eens
#zfs list

want geen idee of een zfs folder (:?) hetzelfde is als een zfs filesystem.

het laatste moet je eerst hebben denk ik

[ Voor 10% gewijzigd door matty___ op 24-03-2012 13:21 ]

bart@openindianavm:~$ zfs list
NAME                                   USED  AVAIL  REFER  MOUNTPOINT
pooltje                               29.3G   293G  44.9K  /pooltje
pooltje/test1                         47.9K   264G  47.9K  /pooltje/test1
rpool                                 8.36G  1.42G    47K  /rpool
rpool/ROOT                            4.22G  1.42G    31K  legacy
rpool/ROOT/napp-it-0.7l_update_03.24  1.76G  1.42G  1.75G  /
rpool/ROOT/openindiana                5.13M  1.42G  1.75G  /
rpool/ROOT/openindiana-1               408M  1.42G  1.70G  /
rpool/ROOT/openindiana-2               371M  1.42G  1.66G  /
rpool/ROOT/openindiana-3               378M  1.42G  1.67G  /
rpool/ROOT/openindiana-4               378M  1.42G  1.67G  /
rpool/ROOT/openindiana-5               385M  1.42G  1.67G  /
rpool/ROOT/openindiana-6               589M  1.42G  1.93G  /
rpool/ROOT/pre_napp-it-0.7l             38K  1.42G  1.53G  /
rpool/dump                            2.00G  1.42G  2.00G  -
rpool/export                          13.0M  1.42G    32K  /export
rpool/export/home                     13.0M  1.42G    32K  /export/home
rpool/export/home/bart                13.0M  1.42G  13.0M  /export/home/bart
rpool/swap                            2.13G  3.42G   133M  -


Bijkomend vraagje: hoe komt het dat ik bij pooltje al 29.3GB in use is :?

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 15-12 14:55
HyperBart schreef op zaterdag 24 maart 2012 @ 13:25:
bart@openindianavm:~$ zfs list
NAME                                   USED  AVAIL  REFER  MOUNTPOINT
pooltje                               29.3G   293G  44.9K  /pooltje
pooltje/test1                         47.9K   264G  47.9K  /pooltje/test1
rpool                                 8.36G  1.42G    47K  /rpool
rpool/ROOT                            4.22G  1.42G    31K  legacy
rpool/ROOT/napp-it-0.7l_update_03.24  1.76G  1.42G  1.75G  /
rpool/ROOT/openindiana                5.13M  1.42G  1.75G  /
rpool/ROOT/openindiana-1               408M  1.42G  1.70G  /
rpool/ROOT/openindiana-2               371M  1.42G  1.66G  /
rpool/ROOT/openindiana-3               378M  1.42G  1.67G  /
rpool/ROOT/openindiana-4               378M  1.42G  1.67G  /
rpool/ROOT/openindiana-5               385M  1.42G  1.67G  /
rpool/ROOT/openindiana-6               589M  1.42G  1.93G  /
rpool/ROOT/pre_napp-it-0.7l             38K  1.42G  1.53G  /
rpool/dump                            2.00G  1.42G  2.00G  -
rpool/export                          13.0M  1.42G    32K  /export
rpool/export/home                     13.0M  1.42G    32K  /export/home
rpool/export/home/bart                13.0M  1.42G  13.0M  /export/home/bart
rpool/swap                            2.13G  3.42G   133M  -
dan is een zfs folder blijkbaar wel hetzelfde als een zfs filesystem. ;)

heb je iets met quotas gedaan?
wat zegt
zpool list

  • grotius
  • Registratie: April 2007
  • Laatst online: 23-11 11:09
Ik wil graag een zfs pool aanmaken. Het liefst een pool met redelijke snelheid (films / series) en een klein deel met meer zekerheid (documenten, foto's muziek). Wat is een 'goede' pool? Ik heb 7 hitachi deskstar 5k3000 shijven van 3tb. Het Zfs systeem draait op een aparte ssd (open indiana onder esxi 5). Ik dacht zelf aan een RAIDZ (7-1) pool maar misschien is er wel een slimmere combinatie mogelijk?

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 15-12 14:55
grotius schreef op zaterdag 24 maart 2012 @ 13:34:
Ik wil graag een zfs pool aanmaken. Het liefst een pool met redelijke snelheid (films / series) en een klein deel met meer zekerheid (documenten, foto's muziek). Wat is een 'goede' pool? Ik heb 7 hitachi deskstar 5k3000 shijven van 3tb. Het Zfs systeem draait op een aparte ssd (open indiana onder esxi 5). Ik dacht zelf aan een RAIDZ (7-1) pool maar misschien is er wel een slimmere combinatie mogelijk?
1080P doet nog geen 10mb/s over het netwerk. Dus daar zal het niet aan liggen.
Maar met zo grote en aantal schijven zou ik zeker niet voor z1 gaan maar voor z2.
grotius schreef op zaterdag 24 maart 2012 @ 13:34:
Ik wil graag een zfs pool aanmaken. Het liefst een pool met redelijke snelheid (films / series) en een klein deel met meer zekerheid (documenten, foto's muziek). Wat is een 'goede' pool? Ik heb 7 hitachi deskstar 5k3000 shijven van 3tb. Het Zfs systeem draait op een aparte ssd (open indiana onder esxi 5). Ik dacht zelf aan een RAIDZ (7-1) pool maar misschien is er wel een slimmere combinatie mogelijk?
raidz2 :Y

Superveilig en maximalisatie van je beschikbare diskgrootte's

Eventueel als je bv een weekje aan een stuk aan foto's en video's werkt kan je opteren voor een SSD om dat wat te upspeeden...
matty___ schreef op zaterdag 24 maart 2012 @ 13:26:
[...]

dan is een zfs folder blijkbaar wel hetzelfde als een zfs filesystem. ;)

heb je iets met quotas gedaan?
wat zegt
zpool list
bart@openindianavm:~$ zpool list
NAME      SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
pooltje   398G   265K   398G     0%  1.00x  ONLINE  -
rpool    9.94G  6.37G  3.57G    64%  1.00x  ONLINE  -


Niet met quotas, denk dat iemand me gewoon moet zeggen hoe ik een gebruiker access geef tot een share/folder...

Wel belangrijk voor mij dat ik met een beperkte set van gebruikers kan gaan werken naar de toekomst toe...

Mijn pr0n collectie moet niet accessible zijn voor iedereen van het gezin :+

Naar de toekomst toe zou ik dus graag iets als volgt willen

vdev van X aantal disks vormt een pool, onder die pool kan ik verschillende shares maken:
Video
Beeldmateriaal Gezin
Muziek
enz...

[ Voor 42% gewijzigd door HyperBart op 24-03-2012 13:50 ]


  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 15-12 14:55
HyperBart schreef op zaterdag 24 maart 2012 @ 13:45:
[...]

raidz2 :Y

Superveilig en maximalisatie van je beschikbare diskgrootte's

Eventueel als je bv een weekje aan een stuk aan foto's en video's werkt kan je opteren voor een SSD om dat wat te upspeeden...


[...]


bart@openindianavm:~$ zpool list
NAME      SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
pooltje   398G   265K   398G     0%  1.00x  ONLINE  -
rpool    9.94G  6.37G  3.57G    64%  1.00x  ONLINE  -


Niet met quotas, denk dat iemand me gewoon moet zeggen hoe ik een gebruiker access geef tot een share/folder...

Wel belangrijk voor mij dat ik met een beperkte set van gebruikers kan gaan werken naar de toekomst toe...

Mijn pr0n collectie moet niet accessible zijn voor iedereen van het gezin :+

Naar de toekomst toe zou ik dus graag iets als volgt willen

vdev van X aantal disks vormt een pool, onder die pool kan ik verschillende shares maken:
Video
Beeldmateriaal Gezin
Muziek
enz...
als je voor elke share een zfs filessystem aan maakt kun je gewoon daar rechten aan toe kennen.
Maar chmod 000 porn werkt ook wel hoor ;)
Ja, maar hoe, ik geraak er nu even niet aan uit hoe ik op een folder "test1" alleen "bart" toegang kan geven en aan folder test2 alleen "pieter" leesrechten enz...

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 15-12 14:55
HyperBart schreef op zaterdag 24 maart 2012 @ 14:17:
Ja, maar hoe, ik geraak er nu even niet aan uit hoe ik op een folder "test1" alleen "bart" toegang kan geven en aan folder test2 alleen "pieter" leesrechten enz...
heb je al de handleiding van napp gelezen? staat er vast in.

Maar ik denk dat je eerst de users moet aan maken.

Dan de zfs filesystems:
pooltje/familie/bla1
pooltje/familie/bla2
pooltje/familie/bla3
pooltje/bartje/porn1


Dan de 2 smb shares : 1 familie 1 bartje en aan de share kun je rechten en gebruikers hangen

zo iets?
>:)

[ Voor 4% gewijzigd door matty___ op 24-03-2012 14:20 ]

Haahaahaa, prachtig gewoon dat snapshotting van ZFS :)

Krijg ze al netjes te zien in explorer bij previous versions, zalig gewoon. Iedere dag een auto-snapshot, backups voor bazen :7

Alleen tegen fysieke disaster uitvallen zoals brand, bliksem, waterschade ben je dan weer niet tegen beschermd, maar een jaarlijks archiefbackup'je op een externe HDD lost dat dan weer prachtig op :)

Alleen die ACL's moet ik nog eens uitpluizen en daar vind ik echt mijn weg niet in waar ik dat uberhaupt kan doen :?

[ Voor 13% gewijzigd door HyperBart op 24-03-2012 14:37 ]

Ik heb hier de volgende filesystems:

data/shared/Fotografie
data/shared/Video
enz.

data/gezinslid1/School
data/gezinslid1/Werk
enz.

data/gezinslid1/School
data/gezinslid1/Werk
enz.

Vervolgens via symlinks heb ik alle gedeelde mappen in de user shares gezet

data/shared/Fotografie --> data/gezinslid1/Fotografie
data/shared/Fotografie --> data/gezinslid2/Fotografie
data/shared/Video --> data/gezinslid1/Video
data/shared/Video --> data/gezinslid2/Video

Zo zijn alle mappen uit shared toegankelijk voor alle gebruikers. Alle mappen per gezinslid zijn persoonlijke mappen en alleen voor dat gezinslid te bereiken.

Voor je pr0n zou ik gewoon een truecrypt container maken. Dan weet je zeker dat niemand erbij kan. Dat doe ik met bijv. mijn belastingdienst gegevens e.d. Mocht er ingebroken worden dan weet ik écht zeker dat niemand erbij kan.

Edit:
ACL gebruik ik hier niet, ik werk gewoon met de rechten van het systeem via chmod & chown. Voor mij een stuk overzichtelijker en makkelijk i.c.m. samba.

[ Voor 8% gewijzigd door CurlyMo op 24-03-2012 14:39 ]

Sinds de 2 dagen regel reageer ik hier niet meer

Wtf... Voor ACL's in te stellen op je SMB-shares (je kan ook op de folders ACL's instellen?) moet je een extension registeren en die zou betalend zijn/worden?

Dafuq... ;w
Daarom ben ik een beetje klaar met die Storage Distro's. Alles is weer Enterprise, en betaald en limieten.
Ik wil gewoon simpel klein en werkend. Niet van die logge dingen...

Even niets...

FireDrunk schreef op zaterdag 24 maart 2012 @ 14:52:
Daarom ben ik een beetje klaar met die Storage Distro's. Alles is weer Enterprise, en betaald en limieten.
Ik wil gewoon simpel klein en werkend. Niet van die logge dingen...
Word!

Op zich is die OpenIndiana eigenlijk best wel OK voor mij, maar je moet bij mij met Napp-it niet afkomen met van die rotzooi van "voor deze functie moet je verplicht betalen", "dit is de limiet omwille van licenties" en si en la... Neen, geef me gewoon full fledged, beperk me niet, val me niet lastig met van die prullaria omdat ik eens gek wil doen en zorg er zeker voor dat zoiets TRIVIAAL (for god's sake |:( ) als SMB ACL's er standaard inzit...

Voor de rest: napp-it, leuk dingetje... Wel geweldig hoe simpel het allemaal is, zeker die Previous Versions in Windows, klik klik, snapshotje gemaakt und alles werkt :)

Nu, aan de andere kant... 20 EUR ofzo voor een SMB ACL functionaliteit is het mij nu nog wel waard...

Voorlopig maar even wachten wat trustees zoals CiPHER er van zeggen :)

Want ik heb nu ook folder test1 en test2 waar ik niet in geraak en waarvan ik niet weet hoe ik mezelf toegang kan geven... 8)7

[ Voor 12% gewijzigd door HyperBart op 24-03-2012 15:41 ]


  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 19-12 06:57

Ultraman

Moderator Harde Waren

Boefje

Wat willen jullie voor speciale dingen dat je ACLs nodig hebt?
Ik heb het hier thuis altijd nog prima gered met klassieke Unix permissies, en dat doe ik nu nog steeds eigenlijk.

Ieder heeft een eigen home directory die alleen door die persoon betreden kan worden. En dan is er nog een user genaamd share, daarin zit al het gedeelde spul. Die directory heeft de read bit aan staan voor iedereen.
En die directory heeft de write bit op user en group niveau, waardoor je in share kunt schrijven als je het wachtwoord van de user share weet (die weet ik en mogelijk mijn broertje), of als je in de group 'share' zit.
Ik en mijn broertje zitten ook in de group 'share', dus kunnen vanaf onze eigen accounts er naar toe schrijven.
Wil ik iemand schrijftoegang (en dus ook delete) geven, dan voeg ik die persoon toe aan de groep share.

Pas als je binnen share op directory niveau per gebruiker dingen wilt gaan doen worden ACLs denk ik pas een noodzaak. Hangt dus een beetje af van wat je zoal van plan bent...

Als je stil blijft staan, komt de hoek wel naar jou toe.

Mjah, dan moet je dus je rechten bijhouden op Unix, en niet op de share.

offtopic:
Heb je je DM uitstaan? :)

Even niets...


  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 19-12 06:57

Ultraman

Moderator Harde Waren

Boefje

FireDrunk schreef op zaterdag 24 maart 2012 @ 16:08:
Mjah, dan moet je dus je rechten bijhouden op Unix, en niet op de share.
Die begrijp ik niet helemaal.
offtopic:
Heb je je DM uitstaan? :)
offtopic:
Nee, ik heb hem gezien. Alleen nog even geen antwoord voor je. Echt een traject is er niet, maar er is wel een draadje dus ik gooi wel ff een balletje op :)

Als je stil blijft staan, komt de hoek wel naar jou toe.


  • DARKLORD
  • Registratie: December 2000
  • Laatst online: 26-11 22:40
HyperBart schreef op zaterdag 24 maart 2012 @ 14:46:
Wtf... Voor ACL's in te stellen op je SMB-shares (je kan ook op de folders ACL's instellen?) moet je een extension registeren en die zou betalend zijn/worden?

Dafuq... ;w
Als je de handleiding zou lezen, dan had je al ontdekt dat je hier helemaal niet voor hoeft te betalen. dit kan je gewoon vanaf je windows pc doen
Ultraman schreef op zaterdag 24 maart 2012 @ 15:51:
Wat willen jullie voor speciale dingen dat je ACLs nodig hebt?
Ik heb het hier thuis altijd nog prima gered met klassieke Unix permissies, en dat doe ik nu nog steeds eigenlijk.

Ieder heeft een eigen home directory die alleen door die persoon betreden kan worden. En dan is er nog een user genaamd share, daarin zit al het gedeelde spul. Die directory heeft de read bit aan staan voor iedereen.
En die directory heeft de write bit op user en group niveau, waardoor je in share kunt schrijven als je het wachtwoord van de user share weet (die weet ik en mogelijk mijn broertje), of als je in de group 'share' zit.
Ik en mijn broertje zitten ook in de group 'share', dus kunnen vanaf onze eigen accounts er naar toe schrijven.
Wil ik iemand schrijftoegang (en dus ook delete) geven, dan voeg ik die persoon toe aan de groep share.

Pas als je binnen share op directory niveau per gebruiker dingen wilt gaan doen worden ACLs denk ik pas een noodzaak. Hangt dus een beetje af van wat je zoal van plan bent...
Niets, maar dan moet ik me idd terug eens gaan inlezen in UNIX permissies (das best lang geleden), want op zich gaat het inderdaad van het principe dat ik overal toegang moet hebben, en dat ik een bepaalde groep (het gezin) lees/schrijfrechten moet geven op mappen...
DARKLORD schreef op zaterdag 24 maart 2012 @ 16:30:
[...]


Als je de handleiding zou lezen, dan had je al ontdekt dat je hier helemaal niet voor hoeft te betalen. dit kan je gewoon vanaf je windows pc doen
Doe eens lief jij, die heb ik nagelezen, maar bij het aanpassen kreeg ik permissions denied, en mijn eigen username die ik bij de installatie heb aangemaakt van OpenIndiana kan ik mezelf niet vinden bij de share security objects als ik zoek op locatie "openindianavm", alleen nieuw aangemaakte in de napp-it interface usernames kon ik toevoegen in het lijstje, maar op OK klikken gaf een access denied...

  • DARKLORD
  • Registratie: December 2000
  • Laatst online: 26-11 22:40
Ok was een beetje bot, kon ook anders.

Maar je moet zorgen dat je als root inlogt op je share. dan heb je wel de rechten om het aan te passen. rechtse knop op een map en dan kan je rechten aanpassen. via computer management gaat dat moeilijker. hoop dat je hier genoeg aan hebt om het werkend te krijgen. vind het zelf ideaal namelijk
DARKLORD schreef op zaterdag 24 maart 2012 @ 16:42:
Ok was een beetje bot, kon ook anders.
*; ;)
Maar je moet zorgen dat je als root inlogt op je share. dan heb je wel de rechten om het aan te passen. rechtse knop op een map en dan kan je rechten aanpassen. via computer management gaat dat moeilijker. hoop dat je hier genoeg aan hebt om het werkend te krijgen. vind het zelf ideaal namelijk
Ja, heb ik ook al geprobeerd, aan te melden op die share met root en mijn pwd, nada :(
Als ik een (User) groep die op mijn PC/Thuisnetwerk staat rechten wil geven op een share, moet je toch een ACL mapping hebben? Of ben ik nou gek?

Overigens gebruik ik gewoon Unix rechten hoor, Windows kan me onderhand gestolen worden.

Pestsoftware... 8-)

[ Voor 16% gewijzigd door FireDrunk op 24-03-2012 16:51 ]

Even niets...

Fancy :-(

Vertrek bij mijn thuis, die OpenIndiana wou niet afsluiten, dus maar hard power off in VMware workstation gedaan...

Kom hier aan bij de vriendin, pool is weg, niets meer van te zien :X

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 15-12 14:55
HyperBart schreef op zaterdag 24 maart 2012 @ 17:22:
Fancy :-(

Vertrek bij mijn thuis, die OpenIndiana wou niet afsluiten, dus maar hard power off in VMware workstation gedaan...

Kom hier aan bij de vriendin, pool is weg, niets meer van te zien :X
lekker dan :/
Op zich is een zfs pool niet zomaar kapot te krijgen. Als je wat meer informatie kan geven, dan kan er meegedacht worden met mogelijke oorzaken.

Sinds de 2 dagen regel reageer ik hier niet meer

Ik heb 'm terug geimporteerd en alles was terug...

Had wel de VM afgesloten via de shell, su shutdown now, maar dan gaf ie heel de tijd van die vragen waar ik op dat moment niet aan uit kon:

Afbeeldingslocatie: http://dl.dropbox.com/u/829511/Capture.PNG

En sinds de install van Napp-it heeft hij ook de naam van mijn host verandert naar die aaaaaa en die tekentjes er tussen met dan mijn hostname die ik hem had gegeven erachter...

Waar kan je nu ergens die UNIX permissies instellen?

bart@²²²ééOpenIndianaVM:/pooltje$ ls -la
total 10
drwxr-xr-x+  5 root root  6 2012-03-24 14:14 .
drwxr-xr-x  25 root root 26 2012-03-24 17:30 ..
-rw-r--r--+  1 root root  0 2012-03-24 14:14 Bonnie.log
drwxrwxrwx+  3 root root  3 2012-03-24 17:43 test1
drwxrwxrwx+  3 root root  3 2012-03-24 17:43 test2
drwxrwxrwx+  4 root root  7 2012-03-24 17:43 test3
bart@²²²ééOpenIndianaVM:/pooltje$


En toch geraak ik niet binnen in die shares met root...

En what the :X al mijn users zijn ook weg, mijn mail instellingen voor notifications zijn, what the hell is er met die VM gebeurd :S

[ Voor 64% gewijzigd door HyperBart op 24-03-2012 17:56 ]

Kaput?

* FireDrunk is zijn data naar een NASje aan het migreren, omdaarna eens met zijn volledige hardware met ZFS te gaan spelen.

Als het bevalt, dan blijft het, mocht het niet bevallen ga ik terug naar MDADM (en tegelijk kan ik dan mooi migreren naar EXT4 en een groteren chunksize ;) )

Ik hoop dat de kopie vanavond nog klaar is, maar die nas is **** traag (28MB/s).
Ik dacht dat een Iomega Storcenter wel snel zou zijn.

* FireDrunk heeft dat dus verkeerd gedacht...

[ Voor 97% gewijzigd door FireDrunk op 24-03-2012 18:21 ]

Even niets...


  • DARKLORD
  • Registratie: December 2000
  • Laatst online: 26-11 22:40
heb je al passwd root gedaan? anders gaat het sowieso niet werken. voor iedere user moet je een passwd uitvoeren
FireDrunk schreef op zaterdag 24 maart 2012 @ 18:17:
Ik dacht dat een Iomega Storcenter wel snel zou zijn.
You're kidding, right? :X

Nu zak je echt op mijn waarderingsschaal :+ , die dingen zijn zo onbetrouwbaar en traag als de PEEEEST!

Dacht dat in de beginne toen ik ze voor eerst zag "ooh, EMC dochterbedrijfje, gaat wel goed zijn", niets ook niet, wat een rotdingen :X
Pagina: 1 ... 27 ... 214 Laatste

Let op:
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.