And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust
anders begin je alvast te sparen voor 4 nieuwePixeltje schreef op maandag 19 maart 2012 @ 09:33:
[...]
Hoe kan ik de smartstatus van één disk opvragen? (of van allemaal voor that matter) in FreeNAS? Er zit een optie in om SMART scans in te plannen, maar ik kan (ook op internet) niet vinden hoe ik nu, eenmalig, de SMART info van een schijf/de schijven kan opvragen, uitgebreider dan 'zpool status'
[...]
Ja hou op.. ik heb deze schijven gekocht samen met mijn vorige NAS. Was tweedehands maar zo goed als nieuw(2 maanden oud ofzo?) De DOA was dus niet bij mij, maar de vorige RMA wel. Zit me nu ook af te vragen of ik wel eenzelfde seagate schijf terug wil, als die dingen elk halfjaar dood neervallen blijf ik bezig. Aan de andere kant; om nu één andere schijf in m'n array te hangen is ook niet echt ideaal.
Tja, ik zie daar de lol niet zo van in eigenlijk, maar daar was ik al mee bezig ja.matty___ schreef op maandag 19 maart 2012 @ 14:47:
[...]
anders begin je alvast te sparen voor 4 nieuwe
And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust
Het is wel wat met die schijven, zoals ik al zei; het liefst zou ik andere halen maar dat is nu gewoon niet te betalen. Kost me minstens 430 euro om vier nieuwe schijven te kopen, dat is me te gek.HyperBart schreef op maandag 19 maart 2012 @ 15:29:
Ik leef met je mee... Ik heb hier 2 van die disks als cold spares liggen... Kan je het mij kwalijk nemen dat ik gezegd heb dat er ooit eentje van RMA niet is aangekomen en dat ik daardoor nu 2 heb liggen... Geen overbodige luxe zoals die disks falen...
And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust
sorryPixeltje schreef op maandag 19 maart 2012 @ 15:19:
[...]
Tja, ik zie daar de lol niet zo van in eigenlijk, maar daar was ik al mee bezig ja.
V&A aangeboden: 3xWD20EARS
[ Voor 17% gewijzigd door matty___ op 19-03-2012 15:35 ]
Bij het opstarten komt dit in beeld;

(klikbaar voor groter)
Wat op zich logisch is als er een schijf stuk is, ad1 is ook de schijf die in de webgui van FreeNAS nu als 'unknown' staat.
Tijdens het afsluiten..

(klikbaar voor groter)
Dat lijkt te duiden op een geheugenprobleem? De NAS blijft overigens hangen op deze melding en sluit niet verder af. Ben nu bezig de kabels van alle schijven te vervangen. /dev/ad0 (de problematische schijf) zat zo te zien goed aangesloten op poort 0 van het moederbord, dus nu met andere kabels weer op die poort aangesloten.
--
Edit:
Nog steeds errors op die schijf. Als ik de schijf loskoppel geen errors, als ik een andere schijf aan AHCI0 hang, ook geen problemen. Kan ik hieruit concluderen dat ik inderdaad een dode schijf heb?
Overigens is met het verwijderen van de kapotte schijf ook de page error bij het afsluiten weg.
[ Voor 31% gewijzigd door Pixeltje op 19-03-2012 18:49 ]
And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust
Heb je de pc al eens 24+ uur lang MemTest86+ laten draaien? Zo nee, download ISO: http://www.memtest.org/
Ik snap niet wat je bedoeld;Verwijderd schreef op maandag 19 maart 2012 @ 18:49:
Kabels veranderen van schijven met UDMA CRC Error Count = 0 is onzinnig; check je SMART output! Meten is weten.
Heb je de pc al eens 24+ uur lang MemTest86+ laten draaien? Zo nee, download ISO: http://www.memtest.org/
De schijf die stuk is kan niet meer uitgelezen worden (ik krijg een error als ik smartctl -a /dev/ada0 doe: kan de schijf niet vinden/openen), dus kan er ook geen smart data meer van krijgen.
Daarnaast zijn de problemen over als ik de stukke schijf niet aansluit op het systeem. Begrijp ik je nu verkeerd, of heb ik het niet goed uitgelegd eerder?
Memtest kan via USB cdrom speler, ik zal 'm zo aanzetten en dan morgen rapporteren wat er op t scherm staat.
And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust
Is die "ad0" een typo en bedoel je "ada0"?Pixeltje schreef op maandag 19 maart 2012 @ 20:12:
De schijf die stuk is kan niet meer uitgelezen worden (ik krijg een error als ik smartctl -a /dev/ad0 doe: kan de schijf niet vinden/openen), dus kan er ook geen smart data meer van krijgen.
Of daadwerkelijk foutje gemaakt?
Want in Pixeltje in "Het grote ZFS topic" is dat de naamgeving die je disken hebben gekregen.
CiPHER, leuk die discussie zo!
Drukke dag vandaag, reply heb je nog te goed
Als je stil blijft staan, komt de hoek wel naar jou toe.
Je hebt gelijk, is typo hier op het forum. Memtest draait, ben nu niet thuis maar het eerste halfuur/3 kwartier zonder fouten.Ultraman schreef op maandag 19 maart 2012 @ 20:51:
[...]
Is die "ad0" een typo en bedoel je "ada0"?
Of daadwerkelijk foutje gemaakt?
Want in Pixeltje in "Het grote ZFS topic" is dat de naamgeving die je disken hebben gekregen.
CiPHER, leuk die discussie zo!
Drukke dag vandaag, reply heb je nog te goed
And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust
ZFS: FreeBSD10+ZFSguru, ASRock C2550D4I , 16GB, Nexus Value 430w
Edit:
Net thuis terug; memtest geeft geen errors, heeft sinds gisteravond uur of 8 gedraaid, dus lijkt me redelijk betrouwbaar.
De schijf in een andere PC hangen is me niet gelukt, de PC die hier als testbak staat heeft een kapotte SATA poort (dat wist ik al) en op de andere zit al een schijf aangesloten.
Ik probeer nu de SMART data alsnog uit te lezen via de nieuwe NAS, maar heb er een hard hoofd in.
Voor de zekerheid toch maar even vragen; Hoeveel kwaad kan het om toch een andere schijf tussen de drie overgbleven seagates te zetten in deze array? Stel nu dat ik een Spinpoint of WD schijf van 2TB koop (of terugvraag uit RMA), is dat echt een probleem?
Ik wordt een beetje moe van deze schijven en heb geen zin in elke 4 maanden een RMA, om een refurbished ding terug te krijgen wat na een jaar ook sterft. Het zijn gewoon slechte schijven en daar wil ik zo min mogelijk afhankelijk van zijn.
edit2:
Van schijf 1 zijn dit de smart-waarden.. Op zich prima lijkt me; alle belangrijke RAW waarden zijn goed (voor zover ik kan zien). Maak me wel wat zorgen om de RAW read error rate, maar aangezien die ook allemaal gecorrigeerd lijken te zijn (en al mijn schijven zulke waarden vertonen) zal dat normaal zijn?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
| SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000f 119 099 006 Pre-fail Always - 234729564
3 Spin_Up_Time 0x0003 100 100 000 Pre-fail Always - 0
4 Start_Stop_Count 0x0032 100 100 020 Old_age Always - 252
5 Reallocated_Sector_Ct 0x0033 100 100 036 Pre-fail Always - 0
7 Seek_Error_Rate 0x000f 072 060 030 Pre-fail Always - 4313704558
9 Power_On_Hours 0x0032 093 093 000 Old_age Always - 6135
10 Spin_Retry_Count 0x0013 100 100 097 Pre-fail Always - 0
12 Power_Cycle_Count 0x0032 100 100 020 Old_age Always - 227
183 Runtime_Bad_Block 0x0032 100 100 000 Old_age Always - 0
184 End-to-End_Error 0x0032 100 100 099 Old_age Always - 0
187 Reported_Uncorrect 0x0032 100 100 000 Old_age Always - 0
188 Command_Timeout 0x0032 100 100 000 Old_age Always - 0
189 High_Fly_Writes 0x003a 100 100 000 Old_age Always - 0
190 Airflow_Temperature_Cel 0x0022 065 054 045 Old_age Always - 35 (Min/Max 33/35)
194 Temperature_Celsius 0x0022 035 046 000 Old_age Always - 35 (0 15 0 0)
195 Hardware_ECC_Recovered 0x001a 038 025 000 Old_age Always - 234729564
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0010 100 100 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x003e 200 200 000 Old_age Always - 0
240 Head_Flying_Hours 0x0000 100 253 000 Old_age Offline - 202125455923845
241 Total_LBAs_Written 0x0000 100 253 000 Old_age Offline - 1689561595
242 Total_LBAs_Read 0x0000 100 253 000 Old_age Offline - 3311957841
SMART Error Log Version: 1
No Errors Logged
SMART Self-test log structure revision number 1
No self-tests have been logged. [To run self-tests, use: smartctl -t]
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay. |
Maar van schijf 0 (die dus stuk is), op welke kabel of welke poort dan ook, krijg ik geen respons anders dan;
1
2
3
4
5
6
7
8
9
10
| [Sjaak@freenas] ~> smartctl -a /dev/ada0 smartctl 5.41 2011-06-09 r3365 [FreeBSD 8.2-RELEASE-p6 amd64] (local build) Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net /dev/xpt0 control device couldn't opened: Permission denied Unable to get CAM device list /dev/ada0: Unable to detect device type Smartctl: please specify device type with the -d option. Use smartctl -h to get a usage summary |
[ Voor 144% gewijzigd door Pixeltje op 21-03-2012 08:22 ]
And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust
Ter vergelijking:
SMART Attributes Data Structure revision number: 16 Vendor Specific SMART Attributes with Thresholds: ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0 3 Spin_Up_Time 0x0027 205 166 021 Pre-fail Always - 4725 4 Start_Stop_Count 0x0032 099 099 000 Old_age Always - 1157 5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0 7 Seek_Error_Rate 0x002e 200 200 000 Old_age Always - 0 9 Power_On_Hours 0x0032 093 093 000 Old_age Always - 5650 10 Spin_Retry_Count 0x0032 100 100 000 Old_age Always - 0 11 Calibration_Retry_Count 0x0032 100 253 000 Old_age Always - 0 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 84 192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 70 193 Load_Cycle_Count 0x0032 200 200 000 Old_age Always - 2909 194 Temperature_Celsius 0x0022 117 108 000 Old_age Always - 33 196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0 197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0 198 Offline_Uncorrectable 0x0030 200 200 000 Old_age Offline - 0 199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0 200 Multi_Zone_Error_Rate 0x0008 200 200 000 Old_age Offline - 0
Even niets...
Dat betekend dat al mijn schijven (de drie die ik kan benaderen hebben allemaal zulke cijfers) ook aan het sterven zijn?
Het zijn wellicht nog geen unrecoverable errors, maar dat laat natuurlijk niet lang op zich wachten met deze waarden. Ik heb goedkeuring (tegen alle verwachting) van de RMA van de kapotte schijf, dus denk dat ik maar even bel met de webshop om te vragen wat er mogelijk is. Ik heb liever vier andere schijven en een beetje bijbetalen dan vier half-brakke schijven in mijn NAS.
Het ding is deels ook als backupmachine bedoeld, en moet dus wel gewoon betrouwbaar zijn.
[ Voor 64% gewijzigd door Pixeltje op 21-03-2012 14:26 ]
And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust
Even niets...
Ik had dit ooit werkend, maar na een herinstallatie (system version 9.0-004 met ZFSGuru 0.2.0-beta5) krijg ik het niet meer werkendCurlyMo schreef op donderdag 08 maart 2012 @ 14:50:
Zo kan het ook:
code:
1 crontab -e
Dan de volgende regel invoegen:
code:
1 0 1 * * 1 /sbin/zpool scrub [poolnaam]
Dit zal elke eerste dag van de maand een scrub uitvoeren. Makkelijker kan naar mijn idee niet. Als je vervolgens een van mijn notificatie scriptjes gebruikt dan hoor je snel genoeg of er wat mis was met je pool.
code:
1 0 0,4,8,12,16,20 * * * /usr/sbin/zpool_check.pl
In dit geval draai ik hem elke 4 uur.
Het scriptje zpool_check.pl
code:
1 2 3 4 5 6 7 8 9 10 11#!/usr/bin/perl my $command_output = `/sbin/zpool status -x`; if ($command_output eq "all pools are healthy\n") { exit; } else { $to='YOUR@EMAIL.COM'; $from='YOUR@EMAIL.COM'; `echo "Subject: ZFS Alert\n$command_output" | /usr/sbin/sendmail -f $from $to`; }
De server wil de mail lokaal afleveren lijkt het, ik kan me nog herinneren dat ik een smart host (smtp.ziggo.nl) had opgegeven, maar ook dat krijg ik niet meer aan de praat.
Kan iemand me even een duwtje in de juiste richting geven?
Overigens start ook Samba niet automatisch sinds deze update, in Linux (Ubuntu) ben ik redelijk thuis, maar in FreeBSD kan ik mijn weg nog niet zo goed vinden, hoe zorg ik ervoor dat Samba gewoon weer automatisch start?
Ik heb net gebeld met 4launch, ik kan alle schijven opsturen op het RMA nummer, zij sturen de schijven naar Seagate. Als Seagate besluit de schijven te repareren krijg ik deze terug, als Seagate besluit dat ze vervangen worden neemt 4launch contact op en kan ik andere schijven uitzoeken. Erg netjes, en ik ben er erg blij mee. Hoop stiekem wel een beetje dat seagate ze niet wil repareren, maar lijkt me dat ze net als de vorige keer, gewoon de schijf vervangen.FireDrunk schreef op woensdag 21 maart 2012 @ 14:24:
Ik durf het niet te zeggen, maar het lijkt er wel op...
Als ik andere schijven kan kiezen ga ik voor WD of hitachi, daar heb ik al jaren goede ervaringen mee.
And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust
Een aantal van die SMART waardes zeggen mij niet zoveel, maar als ik met CrystalDiskInfo kijk naar de waardes van een Seagate ST31000528AS van mij dan krijg ik de HEX waarde van 0000111185B7. Dat lijkt me vrij veel als ik dat vertaal van HEX naar DECFireDrunk schreef op woensdag 21 maart 2012 @ 13:58:
Die Seek Error Rate is wel hoog... Dat ruikt niet goed...
----------------------------------------------------------------------------
(2) ST31000528AS
----------------------------------------------------------------------------
Model : ST31000528AS
Firmware : CC35
Serial Number : 9VP128GL
Disk Size : 1000.2 GB (8.4/137.4/1000.2)
Buffer Size : onbekend
Queue Depth : 32
# of Sectors : 1953523055
Rotation Rate : 7200 RPM
Interface : Serial ATA
Major Version : ATA8-ACS
Minor Version : ATA8-ACS version 4
Transfer Mode : SATA/300
Power On Hours : 8951 uren
Power On Count : 1013 keer
Temparature : 36 C (96 F)
Health Status : Goed
Features : S.M.A.R.T., AAM, 48bit LBA, NCQ
APM Level : ----
AAM Level : FE00h [ON]
-- S.M.A.R.T. --------------------------------------------------------------
ID Cur Wor Thr RawValues(6) Attribute Name
01 106 _99 __6 000000AF45FC Read Error Rate
03 _95 _95 __0 000000000000 Spin-Up Time
04 _99 _99 _20 0000000007ED Start/Stop Count
05 100 100 _36 000000000000 Reallocated Sectors Count
07 _84 _60 _30 0000111185B7 Seek Error Rate
09 _90 _90 __0 0000000022F7 Power-On Hours
0A 100 100 _97 000000000000 Spin Retry Count
0C 100 100 _20 0000000003F5 Power Cycle Count
B7 100 100 __0 000000000000 Onbekend
B8 100 100 _99 000000000000 End-to-End Error
BB 100 100 __0 000000000000 Reported Uncorrectable Errors
BC 100 _96 __0 000000000232 Command Timeout
BD 100 100 __0 000000000000 High Fly Writes
BE _64 _49 _45 000024110024 Airflow Temperature
C2 _36 _51 __0 000C00000024 Temperature
C3 _45 _24 __0 000000AF45FC Hardware ECC recovered
C5 100 100 __0 000000000000 Current Pending Sector Count
C6 100 100 __0 000000000000 Uncorrectable Sector Count
C7 200 200 __0 000000000000 UltraDMA CRC Error Count
F0 100 253 __0 ED7900002DF1 Head Flying Hours
F1 100 253 __0 0000EEA990A5 Bedrijfsspecificatie
F2 100 253 __0 000026DC5679 Bedrijfsspecificatie
"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!
And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust
Je moet bji deze waardes kijken naar de threshold values. De schijf van Pixeltje heeft een seek waarde van 72 op dit moment, 60 is het laagste ooit geweest en als hij beneden de 30 komt, geldt hij als failed. Dit is dus ver boven de nominale waardes; ik zie het probleem niet zo?
Als je elke schijf die gen perfecte SMART meer geeft gaat omwisselen denk ik niet dat je ook maar één hardeschijf overhoudt na paar maanden gebruik. Het blijven mechanische dingen met wisselende prestaties; is dat zo erg?
Ik ben zelf niet zo van het 'uit voorzorg' vervangen van schijven; in mijn ervaring zijn de schijven die het het langst uithouden nooit vrij van defecten zoals een paar bad sectors, en bijvoorbeeld een keer een te lange spinup geeft gelijk errors in je SMART output, maar zo overdreven om voor één keertje 'verslapen' een HDD gelijk af te schrijven.
Bedenk ook dat je seek errors krijgt als je hardeschijf niet strak gemonteerd is in zijn kast, waardoor zijn eigen vibraties onvoldoende worden tegengehouden door het metalen frame.
[ Voor 9% gewijzigd door Verwijderd op 21-03-2012 15:07 ]
Even niets...
In rust loopt alleen de SER op, en wel elke 1-2 seconden een paar units.
"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!
Als de raw value proprietary encoded is, kun je er in principe niets mee. Alleen de threshold waardes zeggen dan wat over de huidige stand, en wellicht de utility van de fabrikant zelf.
De vorige schijf die ik RMA stuurde had ook zulke idiote getallen bij de RAW data staan, en een reallocated sector count die snel opliep. de RAW output daarvan liep daarmee ook op. Wat ik toendertijd begreep van seagate (hetzelfde type en serie schijf als deze vier) is dat oplopende getallen in de RAW output wijzen op een schijf die gaat falen of al stuk is.
Vandaar dat mijn virtuele alarmbellen gingen rinkelen toen ik de smartoutput van deze schijven zag, maar CiPHER geeft nu aan dat de RAW data in principe niet zoveel zegt (behalve dan die van de UDMA CRC error count).
Voel me net een klein kind wat niet zelf kan kiezen, maar: wat nu?
[ Voor 5% gewijzigd door Pixeltje op 21-03-2012 15:23 ]
And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust
Krijg je dus alleen wat oplopende getallen bij Read error rate of seek error rate, dan zou ik me daar niets van aantrekken. Bij deze attributen negeer je de raw value en kijk je alleen na ar de current versus threshold value. 60 current versus 30 threshold betekent dat je twee keer boven de failure threshold zit. Wordt die waarde opeens 40 dan kun je je inderdaad zorgen maken, maar de raw value hoeft niets te zeggen; je weet überhaupt niet hoe deze data is opgeslagen.
Ik denk dat ik op de testNAS maar even windows installeer, de seatool draai en kijk wat daar uitkomt. Als de long-test goed bevonden wordt vindt ik het prima, anders gaan ze retour.
(half losstaand van dit;) Ik moet zeggen dat ik me misschien een beetje verkeken heb op het gebruik van FreeNAS en ZFS, ik dacht dat ik me redelijk goed ingelezen had maar ik kom toch elke dag weer dingen tegen waar ik nog niet goed van weet wat ik ermee moet. Veel vind ik op internet wel en FreeNAS 9en de ZFS commando's) zijn vrij eenduidig, maar dit soort dingen wil ik als het even kan graag ook horen van iemand die er echt verstand van heeft, dat geeft net even wat meer zekerheid
And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust
Voor het instellen van je SMTP server in sendmail. Stap 3 uit deze guide:Sleepie schreef op woensdag 21 maart 2012 @ 14:30:
[...]
Ik had dit ooit werkend, maar na een herinstallatie (system version 9.0-004 met ZFSGuru 0.2.0-beta5) krijg ik het niet meer werkend
De server wil de mail lokaal afleveren lijkt het, ik kan me nog herinneren dat ik een smart host (smtp.ziggo.nl) had opgegeven, maar ook dat krijg ik niet meer aan de praat.
Kan iemand me even een duwtje in de juiste richting geven?
Overigens start ook Samba niet automatisch sinds deze update, in Linux (Ubuntu) ben ik redelijk thuis, maar in FreeBSD kan ik mijn weg nog niet zo goed vinden, hoe zorg ik ervoor dat Samba gewoon weer automatisch start?
http://linuxshellaccount....o-work-in-solaris-10.html
Ik heb nu zelf mijn mail via gmail lopen (apart account voor mijn server):
http://log.bthomson.com/2...-instead-of-sendmail.html
http://wiki.freebsd.org/SecureSSMTP
Het mail commando in de scripts veranderd dan in:
1
| `echo "$command_output" | /usr/bin/mail -s "SMART Alert" $to`; |
Samba heeft in ZFSguru nooit goed gewerkt voor mij. Daarom werk ik gewoon met een custom gecompileerde installatie.
Sinds de 2 dagen regel reageer ik hier niet meer
@CurlyMo: hoezo werkt Samba niet voor je in ZFSguru? Die komt gewoon uit de ports namelijk; dus dan zou de ports versie ook niet moeten werken? Wat werkt er precies niet?
Het script hierboven gebruikt perl; dus dat moet je dan ook geïnstalleerd hebben op je server.
Zoals ik al een aantal keren had aangegeven werken de VFS objects niet in de ports versie. Misschien was het een beetje resoluut om te zeggen dat Samba überhaupt niet werkt, hij werkt in ieder geval niet naar mijn wensen.Verwijderd schreef op woensdag 21 maart 2012 @ 16:30:
@CurlyMo: hoezo werkt Samba niet voor je in ZFSguru? Die komt gewoon uit de ports namelijk; dus dan zou de ports versie ook niet moeten werken? Wat werkt er precies niet?
Sinds de 2 dagen regel reageer ik hier niet meer
Samba was inderdaad niet actief na het opnieuw opstarten van mn server.Verwijderd schreef op woensdag 21 maart 2012 @ 16:30:
@Sleepie: samba is niet actief als je opnieuw start? Staat er geen samba_enable="YES" in je /etc/rc.conf ? Dat is default wel het geval. Alleen als je zelf /etc/rc.conf aangepast hebt, zou Samba niet automatisch kunnen starten. Kun je dit bevestigen? Waat loop je nog meer tegen aan?
Het script hierboven gebruikt perl; dus dat moet je dan ook geïnstalleerd hebben op je server.
samba_enable=YES staat gewoon in de rc.conf, maar ik zie geloof ik al wat het probleem is nu
Ik heb inderdaad een kleine aanpassing gemaakt in de rc.conf, ik heb mijn server namelijk een fixed IP gegeven.
En nu zie ik dat het config script wat ik daarvoor heb gebruikt mijn networking configuration helemaal onderaan rc.conf heeft geplaatst.
Ik vermoed dus zomaar, dat de netwerk laag nog niet actief is als samba wil starten, waardoor dat vervolgens niet lukt. Ik ga de networking config regels even naar boven verplaatsen in mn rc.conf
@CurlyMo: Thanks daar ga ik even naar kijken, dan moet het wel lukken denk ik.
[ Voor 3% gewijzigd door Sleepie op 01-03-2013 13:30 ]
Dat zou niet moeten uitmaken. Bij mij staat ook alles (door luiheid) door elkaar in die rc.confSleepie schreef op woensdag 21 maart 2012 @ 16:35:
[...]
Samba was inderdaad niet actief na het opnieuw opstarten van mn server.
samba_enable=YES staat gewoon in de rc.conf, maar ik zie geloof ik al wat het probleem is nu
Ik heb inderdaad een kleine aanpassing gemaakt in de rc.conf, ik heb mijn server namelijk een fixed IP gegeven.
En nu zie ik dat het config script wat ik daarvoor heb gebruikt mijn networking configuration helemaal onderaan rc.conf heeft geplaatst.
Ik vermoed dus zomaar, dat de netwerk laag nog niet actief is als samba wil starten, waardoor dat vervolgens niet lukt. Ik ga de networking config regels even naar boven verplaatsen in mn rc.conf
Sinds de 2 dagen regel reageer ik hier niet meer
OK, ik had dezelfde aanpassing in de vorige config ook gemaakt.CurlyMo schreef op woensdag 21 maart 2012 @ 16:36:
Dat zou niet moeten uitmaken. Bij mij staat ook alles (door luiheid) door elkaar in die rc.conf
Hmm, dan ben ik puzzled waarom Samba niet start. In de ZFSGuru config page stond hij ook gewoon op "Disabled". Keertje op "Enable" klikken en het probleem was opgelost.
Maar ik zou toch graag hebben dat Samba gewoon weer automatisch start.
Zet eens in je rc.conf --> rc_debug="YES"Sleepie schreef op woensdag 21 maart 2012 @ 16:38:
[...]
OK, ik had dezelfde aanpassing in de vorige config ook gemaakt.
Hmm, dan ben ik puzzled waarom Samba niet start. In de ZFSGuru config page stond hij ook gewoon op "Disabled". Keertje op "Enable" klikken en het probleem was opgelost.
Maar ik zou toch graag hebben dat Samba gewoon weer automatisch start.
Start dan je samba een vanaf de command line via: /usr/local/etc/rc.d/samba start
Welke uitput krijg je te zien?
Sinds de 2 dagen regel reageer ik hier niet meer
1
2
3
4
| [root@wega /etc]# /usr/local/etc/rc.d/samba start /usr/local/etc/rc.d/samba: DEBUG: checkyesno: samba_enable is set to YES. /usr/local/etc/rc.d/samba: DEBUG: checkyesno: winbindd_enable is set to NO. Cannot 'start' samba. Set winbindd_enable to YES in /etc/rc.conf or use 'onestart' instead of 'start'. |
Na toevoegen van winbindd_enable="YES" in rc.conf start/stopt samba nu zonder problemen.
Ik kan nu even niet rebooten om te testen of het ook bij opstarten nu goed gaat helaas.
[ Voor 21% gewijzigd door Sleepie op 21-03-2012 16:45 ]
Niet meer van toepassing
[ Voor 29% gewijzigd door CurlyMo op 21-03-2012 16:50 ]
Sinds de 2 dagen regel reageer ik hier niet meer
http://pastebin.com/TyTfMg46CurlyMo schreef op woensdag 21 maart 2012 @ 16:46:
Wat zegt je log /var/log/samba/log.smbd?
Dat komt dan waarschijnlijk omdat samba is geupdate bij een system upgrade die ik heb uitgevoerd bij het installeren van sabnzbd en dergelijke. Dat is de enige reden die ik kan bedenkenVerwijderd schreef op woensdag 21 maart 2012 @ 16:50:
Sleepie: ZFSguru heeft geen windbind; dus je hebt custom een Samba-package geïnstalleerd buiten ZFSguru om. Dan moet je inderdaad je /etc/rc.conf ook aanpassen, dit keer met winbindd_enable="YES" erbij.
Sinds de 2 dagen regel reageer ik hier niet meer
Het is alleen een beetje zoeken waar alle bestanden staan enzo, da's af en toe weer net wat anders dan bij Ubuntu-achtigen die ik meer gewend ben.
Vanavond eens even kijken of ik het mail gebeuren aan de gang kan krijgen, in ieder geval weer bedankt heren!
Is je pool ashift=12, dan kun je alleen disks toevoegen met een sectorsize van 4096 bytes (4K) of lager. 4K disks mag je dus niet toevoegen aan een ashift=9 pool.
De ashift-waarde wordt bepaald wanneer je de pool aanmaakt. Dus als je denkt 4K disks te gebruiken word je sterk aangeraden om de GNOP-feature te gebruiken als je op FreeBSD platform zit. Zo niet, dan kun je je pool aanmaken met FreeBSD platform en daarna switchen, omdat Solaris niet op een veilige manier de ashift kan instellen.
jadjong, als je geen 4K disks gebruikt heb je ook geen ashift=12 nodig, mits je blijft bij 512-byte disks. Zit er minimaal één 4K disk in de pool (die 512B sectors emuleert) dan kun je véél beter een ashift=12 pool hebben.
Hoe kan ik hiervan op een makkelijke manier testen wat de write en readsnelheden zijn in Linux?
En aangezien ZFS niet ondersteund om disks toe te voegen aan een pool, maar wel mogelijk is om een disk te vervangen voor een grotere disk bijv van 2TB naar 3TB. Maakt het dan uit dat ik bijv maar één van deze zes harde schijven omwissel voor een 3TB disk, of moeten ze alle zes in één keer omgewisseld worden?
Benchmarken kun je met dd, vervang /tank/ door je pool mountpoint:
dd if=/dev/zero of=/tank/zerofile.txt bs=1M count=64000
dd if=/tank/zerofile.txt of=/dev/null bs=1M
Ouderwets expanden van RAID5 is voor thuisgebruikers heerlijk, omdat ze altijd even een schijfje bij kunnen pleuren. Voor Enterprise-gebruikers is deze feature niet interessant, om meerdere redenen:Dutch3men schreef op donderdag 08 maart 2012 @ 16:24:
[...]
Dus als ik ZFS zou willen gebruiken zou ik telkens als er een disk vrij komt een nieuw volume moeten aanmaken, maar aangezien ik RAID5/6 wil draaien moet ik telkens wachten tot ik 3 of 4 disken leeg ik voordat ik weer een nieuw volume kan aanmaken. Dus kort weg gezegd stel ik wil met mijn huidige setup ZFS draaien in RAID5, moet ik twee volumes aanmaken en verlies ik i.v.m RAID5 twee harde schijven aan opslag.
Dan lijkt MDADM een betere oplossing aangezien hierbij gewoon telkens een HDD aan een array gekoppeld kan worden, correct?
- Je server in principe offline voor 24+ uur; de lage I/O performance is onvoldoende om een enterprise server te laten draaien
- Het is niet volkomen veilig; het is een riskante operatie waarbij het de vraag is hoe goed de engine omgaat met bijvoorbeeld een crash of bad sector of andere problemen tijdens de expansion
- Het verlaagt je redundancy-niveau; je hebt meer schijven maar niet meer redundancy; je array wordt er dus onveiliger van. Meestal niet zo'n probleem.
- ZFS expansion is volkomen veilig; de bestaande data blijft waar hij staat.
- ZFS expansion is in één seconde afgerond; geen downtime of lage I/O performance whatsoever.
- ZFS expansion behoudt je redundancy, doordat je steeds nieuwe arrays toevoegt in plaats van de stripe width uitbreidt.
- Je kunt vdevs van een ander type toevoegen; dus bijvoorbeeld RAID5 met mirror combineren; of RAID-Z2 met RAID-Z3 combineren.
- Je kunt grotere disks gebruiken; dus je begint nu met 2TB disks en later voeg je 3TB disks toe en in de toekomst ruimte voor 4TB disks. Bij ouderwets expanden moet je dezelfde disks gebruiken.
- ZFS doet load balancing over de verschillende vdevs; dus als je nieuwe array/vdev sneller of langzamer is dan de oude, remmen ze elkaar niet af. Bij ouderwets expansion zal een snellere schijf nauwelijks voordeel geven.
- Doordat je ook extra SATA poorten nodig hebt en dus een controller moet kopen, is het uitbreiden met meerdere disks tegelijk meestal niet zo heel erg als je dat kunt plannen.
- Beginnen met een degraded RAID-Z of RAID-Z2 array. Dus bijvoorbeeld een 6-disk RAID-Z2 waarbij je maar 4 echte schijven gebruikt. Je kunt dan data overkopiëren en schijven vrijmaken waar nog data op stond, en die vervolgens toevoegen aan je pool.
- Beginnen met een RAID0 en uitbreiden naar mirror; of andersom. Dus bijvoorbeeld 4 disks in RAID0 waarnaartoe je data kopiëert. En later voeg je 4 schijven toe zodat je 4 mirrors hebt van in totaal 8 schijven.
1
2
3
4
5
6
7
8
| server:/home/ # dd if=/dev/zero of=/mnt/pool/zerofile.txt bs=1M count=64000 64000+0 records in 64000+0 records out 67108864000 bytes (67 GB) copied, 1033.36 s, 64.9 MB/s server:/home/ # dd if=/mnt/pool/zerofile.txt of=/dev/null bs=1M 64000+0 records in 64000+0 records out 67108864000 bytes (67 GB) copied, 331.001 s, 203 MB/s |
Lijkt mij wel erg laag of niet?
En ik had die reply wel gelezen, en dat je zoals bij RAID niet kan expanden dat weet ik alleen door dit raak ik in de war:
Je kunt grotere disks gebruiken; dus je begint nu met 2TB disks en later voeg je 3TB disks toe en in de toekomst ruimte voor 4TB disks. Bij ouderwets expanden moet je dezelfde disks gebruiken.
Gebeurt dit in dezelfde vdev, dus de enigste die ik nu heb? Of moet ik hiervoor gewoon een nieuwe vdev voor aanmaken?
- een enkele disk ('RAID0') dat wil je niet want dan is je pool niet veilig meer
- een mirror (RAID1) van 2 of meer schijven
- een RAID-Z van 2 of meer schijven
- een RAID-Z2 van 3 of meer schijven
- een RAID-Z3 van 4 of meer schijven
Dit doe je met het zpool add commando, of via een web-interface als je dat hebt. De extra vrije ruimte van de nieuwe vdev komt direct overal binnen de pool beschikbaar.
En stel je hebt in de kast geen ruimte meer voor meer hardeschijven, kan je een vdev verwijderen en dan die disken vervangen voor grotere exemplaren. Hier weer een vdev van maken en deze vdev wordt weer toegevoegd waardoor de poolsize weer groter wordt correct?
Oh en tips om mijn lees en schrijf snelheid te verhogen?
je kunt alle schijven een voor een vervangen door een groter exemplaar en als je alles vervangen hebt wordt de pool van zelf vergroot.Dutch3men schreef op donderdag 22 maart 2012 @ 19:28:
Ah dat is duidelijk, je maakt gewoon een nieuwe vdev aan in dezelfde pool als die ik nu heb, en daardoor wordt de pool in size vergroot
En stel je hebt in de kast geen ruimte meer voor meer hardeschijven, kan je een vdev verwijderen en dan die disken vervangen voor grotere exemplaren. Hier weer een vdev van maken en deze vdev wordt weer toegevoegd waardoor de poolsize weer groter wordt correct?
Oh en tips om mijn lees en schrijf snelheid te verhogen?
Als de juiste versies worden ondersteund door beide OS-en dan wel. Solaris ondersteund bijv. max. zfs v. 5 en zpool v. 31. FreeBSD ondersteund max. zpool v. 28. Een Solaris zpool v. 31 kan je dus niet importeren in FreeBSD. Zolang je je zpool max. versie 28 houdt zit je wel veilig met multi os support.matty___ schreef op donderdag 22 maart 2012 @ 23:24:
kan ik eigenlijk zonder problemen een freebsd 9 zfs pool gebruiken in openindiana 151?
Sinds de 2 dagen regel reageer ik hier niet meer
[ Voor 111% gewijzigd door Bolk op 23-03-2012 03:59 ]
Ik bespeur hier een zekere mate van onethische logica.
Even niets...
De indeling is als volgt:
1
2
3
4
5
6
7
| [root@Discovery /]# gpart show ada0
=> 34 234441581 ada0 GPT (111G)
34 94 1 freebsd-boot (47k)
128 41943040 2 freebsd-zfs (20G)
41943168 10485760 3 freebsd-zfs (5.0G)
52428928 125829120 4 freebsd-zfs (60G)
178258048 56183567 - free - (26G) |
Deze draaien in mirror, 20GB voor o/s, 5GB voor SLOG, 60GB voor L2ARC (x2). De pools zien er dan zo uit:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
| [root@Discovery /]# zpool status
pool: storage
state: ONLINE
scan: resilvered 4K in 0h0m with 0 errors on Fri Mar 23 02:55:00 2012
config:
NAME STATE READ WRITE CKSUM
storage ONLINE 0 0 0
raidz2-0 ONLINE 0 0 0
da3 ONLINE 0 0 0
da4 ONLINE 0 0 0
da5 ONLINE 0 0 0
da1 ONLINE 0 0 0
da0 ONLINE 0 0 0
da2 ONLINE 0 0 0
logs
mirror-1 ONLINE 0 0 0
ada0p3 ONLINE 0 0 0
ada1p3 ONLINE 0 0 0
cache
ada0p4 ONLINE 0 0 0
ada1p4 ONLINE 0 0 0
errors: No known data errors
pool: zroot
state: ONLINE
scan: resilvered 28K in 0h0m with 0 errors on Fri Mar 23 03:19:03 2012
config:
NAME STATE READ WRITE CKSUM
zroot ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
ada0p2 ONLINE 0 0 0
ada1p2 ONLINE 0 0 0
errors: No known data errors |
Dit zijn de eerste benchmarks:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
| [root@Discovery /]# dd if=/dev/zero of=/storage/10gb.bin bs=1M count=10240 10240+0 records in 10240+0 records out 10737418240 bytes transferred in 43.848886 secs (244873227 bytes/sec) [root@Discovery /]# dd of=/dev/zero if=/storage/10gb.bin bs=1M count=10240 10240+0 records in 10240+0 records out 10737418240 bytes transferred in 1.676792 secs (6403547556 bytes/sec) [root@Discovery /]# dd if=/dev/zero of=/storage/60gb.bin bs=1M count=61440 61440+0 records in 61440+0 records out 64424509440 bytes transferred in 281.164871 secs (229134277 bytes/sec) [root@Discovery /]# dd of=/dev/zero if=/storage/60gb.bin bs=1M count=61440 61440+0 records in 61440+0 records out 64424509440 bytes transferred in 166.316137 secs (387361747 bytes/sec) |
Is dit een beetje netjes? Of moet ik meer kunnen halen? Ik heb me nog niet verdiept in 4K alignment, is dat automatisch bij het aanmaken van een pool?
[ Voor 8% gewijzigd door Bolk op 23-03-2012 12:57 ]
Ik bespeur hier een zekere mate van onethische logica.
1) je een veel te lage size pakt die in zijn geheel in je RAM past; voor nauwkeurig benches test je met 8 keer je RAM size dus 8*24GiB = 192GB ofwel bs=192000
2) je schrijft naar /dev/zero bij de leestest, terwijl het of=/dev/null moet zijn. Bij de leesttest heb je geen count= parameter nodig.
Verder nog wat kleine opmerkingen:
- Je gebruikt geen GPT labels; dat is wel zo handig om je schijven qua naam te kunnen herkennen. Voordat je je pool echt in gebruik neemt wil je dat misschien aanpassen.
- Je laat 24GiB van de 120GB ongebruikt; dat is niet zoveel voor een server SSD. 50% is vrij normaal hier. Ik zou je L2ARC 10 gig kleiner maken en als spare space gebruiken. 2x50GB = 100GB L2ARC is best mooi, en daar heb je ook al tussen de 1 en 32 gigabyte RAM nodig alleen voor de L2ARC functie!
- Je SLOG heb je gemirrored en je L2ARC heb je gestriped; dat is goed!
- Doordat je geen partities op je dataschijven gebruikt, kun je in de problemen komen wanneer je één schijf moet vervangen. Als je vervangende schijf dan een paar kilobyte kleiner is, kun je die niet gebruiken om een gefaalde disk te vervangen. Mijn advies: ALTIJD partities gebruiken en ruimte reserveren op het einde. Alignment start op 1MiB offset (2048 sector) en dan kun je ook gelijk een partitielabel geven.
- Je pool heeft nu waarschijnlijk ashift=9 setting; optimized for 512B disks. Dit kun je controleren met: zdb -e <poolname> | grep ashift. Voor betere random write performance kun je optimaliseren voor ashift=12 tijdens het aanmaken van de pool, door middel van de GNOP methode.
Alleen maar vanwege compatibility met andere OS. Zo zijn er Solaris versies met ZFS v26, ZFS v22 en met name FreeNAS zit nog met de oude V15. Aangezien je te alle tijde kunt upgraden via de ZFSguru interface, is gekozen om standaard te starten met een pool met lagere versie. Als je dan modernere features wilt gebruiken, upgrade je je pool gewoon en kun je daarna die feature gebruiken. Maar totdat je dat doet kun je je pool beter compatible houden met zoveel mogelijk platforms, zodat je makkelijk kunt switchen.FireDrunk schreef op vrijdag 23 maart 2012 @ 08:37:
@CiPHER, kan je uitleggen waarom in ZFSguru de default nog steeds ZPL4 en ZFSv15 de default is?
Dit zou uiteindelijk vervangen moeten worden door twee radio-buttons: of je je pool compatible wilt houden met oudere ZFS platforms. Zo nee, dan kiest hij gewoon de hoogste versie (28).
[ Voor 17% gewijzigd door Verwijderd op 23-03-2012 13:04 ]
Ik ga eerst even die pool destroyen en dan zorgen dat de ashift op 12 komt, die is idd nu 9. Labeling ga ik ook regelen. Ik had ZFSGuru op een CD staan, maar ik kreeg op een gegeven moment op alles een 404 van de webinterface, toen ben ik verder gegaan met FreeBSD zelf. Ik ga nog even met ZFSGuru aan de slag...
Ik bespeur hier een zekere mate van onethische logica.
Even snel een vraagje.
Als je de pool ashift 12 maakt, hoe gaan de SLOG en L2ARC daar mee om, die zijn geen 4k.
Of staan de SLOG en L2ARC los van de ashift van de pool.
En nog een nu ik toch bezig ben
Ik heb nu pool van mirrored vdevs van 300GB schijven.
Stel in mijn mirror gaat een schijf stuk.
En zoals het behoort te gaan in de IT is er geen spare van 300 GB aanwezig, en de levertijd is over twee weken.
Kan ik voor nood een SATA schijv van zeg 500 GB plaatsen.
Om deze weer te wisselen als de eigenlijke 300 GB schijf geleverd word.
gr
Johan
Groter is geen probleem, je kunt die extra ruimte in een mirror alleen niet gebruiken. Ik had in mijn testopstelling twee 250GB schijven in mirror, eentje had ik even ergens anders nodig; replacen, 500GB schijf erin en werd gewoon geaccepteerd.syl765 schreef op vrijdag 23 maart 2012 @ 13:15:
En nog een nu ik toch bezig ben
Ik heb nu pool van mirrored vdevs van 300GB schijven.
Stel in mijn mirror gaat een schijf stuk.
En zoals het behoort te gaan in de IT is er geen spare van 300 GB aanwezig, en de levertijd is over twee weken.
Kan ik voor nood een SATA schijv van zeg 500 GB plaatsen.
Om deze weer te wisselen als de eigenlijke 300 GB schijf geleverd word.
gr
Johan
[ Voor 11% gewijzigd door Pixeltje op 23-03-2012 13:19 ]
And I begged Angel of the Lord what are these tortured screams? And the angel said unto me; These are the cries of the carrots, the cries of the carrots! You see, Reverend Maynard, Tomorrow is harvest day and to them it is the holocaust
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
| [root@Discovery /]# gpart show da0
=> 34 3907029101 da0 GPT (1.8T)
34 512 1 freebsd-boot (256k)
546 1502 - free - (751k)
2048 3907024896 2 freebsd-zfs (1.8T)
3907026944 2191 - free - (1.1M)
[root@Discovery /]# zpool status storage
pool: storage
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
storage ONLINE 0 0 0
raidz2-0 ONLINE 0 0 0
da0p2 ONLINE 0 0 0
da1p2 ONLINE 0 0 0
da2p2 ONLINE 0 0 0
da3p2 ONLINE 0 0 0
da4p2 ONLINE 0 0 0
da5p2 ONLINE 0 0 0
errors: No known data errors
[root@Discovery /]# zdb -e storage | grep ashift
ashift: 12 |
Dat lijkt er al meer op denk ik (afgezien van de labels). SLOG en L2ARC hebben ook baat bij een 4K alignment op m'n SSD's neem ik aan?
Ik bespeur hier een zekere mate van onethische logica.
SLOG en L2ARC zijn anders; als je pool ashift=12 is dan zouden je SLOG en L2ARC ook maar dergelijke requests (vanaf 4K) moeten krijgen. Al maakt het voor je SSDs minder uit. Intel doet het bijvoorbeeld héél goed op 512-byte writes; tot 70.000 IOps bij de oude X25-M generatie. Andere SSDs zoals Marvell en Sandforce hebben een significant lagere performance, en zijn sterk voor 4K-aligned I/O geoptimaliseerd. Voor deze SSDs zou ik je pool inderdaad ashift=12 maken.
Ja potver, werk ik met ZFSGuru is het nog niet goed hahaVerwijderd schreef op vrijdag 23 maart 2012 @ 13:45:
Nu is je partitie 2000396746752 bytes groot. Je kunt het beste onder de 2TB komen, dan weet je zeker dat elke 2TB schijf een vervanging kan zijn voor je huidige schijf. Met andere woorden: 400MB op het laatst reserveren. Dat is toch de langzaamste plek dus daar hoef je niet zo droevig om te zijn.
SLOG en L2ARC zijn anders; als je pool ashift=12 is dan zouden je SLOG en L2ARC ook maar dergelijke requests (vanaf 4K) moeten krijgen. Al maakt het voor je SSDs minder uit. Intel doet het bijvoorbeeld héél goed op 512-byte writes; tot 70.000 IOps bij de oude X25-M generatie. Andere SSDs zoals Marvell en Sandforce hebben een significant lagere performance, en zijn sterk voor 4K-aligned I/O geoptimaliseerd. Voor deze SSDs zou ik je pool inderdaad ashift=12 maken.
Nog 1 n00b vraag, dat TRIM-erase commando, is heeft dat invloed op m'n complete installatie of is dat gewoon een flush zegmaar nadat ik die cache partitie verwijderd heb? Niet dat ik zometeen weer heel FreeBSD opnieuw moet installeren
Ik bespeur hier een zekere mate van onethische logica.
Maar ehm, ZFSguru kan op twee manieren formatteren:
1. quick format onderaan de disks pagina; hier kun je eenvoudig één datapartitie maken van volledige capaciteit, exclusief ruimte op het einde die standaard op 1 megabyte staat. Verander die 1 in 400 (400MB) dan zit je partitie dus net onder de 2TB en dat is denk ik wat je wilt.
2. partition map editor (waar ik aan heb gewerkt
Iemand tips, om de speeds omhoog te krijgen?Dutch3men schreef op donderdag 22 maart 2012 @ 19:16:
Bij deze mijn resultaten:
code:
1 2 3 4 5 6 7 8 server:/home/ # dd if=/dev/zero of=/mnt/pool/zerofile.txt bs=1M count=64000 64000+0 records in 64000+0 records out 67108864000 bytes (67 GB) copied, 1033.36 s, 64.9 MB/s server:/home/ # dd if=/mnt/pool/zerofile.txt of=/dev/null bs=1M 64000+0 records in 64000+0 records out 67108864000 bytes (67 GB) copied, 331.001 s, 203 MB/s
Lijkt mij wel erg laag of niet?
Maar dan zou ik zeker eerst naar jails gaan kijken
Voor een enkel schijfje, zoals een extern USB ding voor backups, is ZFS via FUSE wel geinig. Wel de caching op metadata only zetten.
En ik heb een plan om nog een keer te gaan hobbyen met de ZFSonLinux kernel module, maar daar heb ik voorlopig geen tijd voor. Zag wel dat er laatst een nieuwe versie is uitgebracht, goed om te zien dat er nog aan gewerkt wordt
[ Voor 4% gewijzigd door Ultraman op 24-03-2012 00:19 ]
Als je stil blijft staan, komt de hoek wel naar jou toe.
[root@NAS ~]# dd if=/dev/zero of=/mnt/zfsnas/test.000 bs=1M count=2048 2048+0 records in 2048+0 records out 2147483648 bytes (2.1 GB) copied, 16.3624 s, 131 MB/s
Naar een memorydisk met een ZFS pool erop via VirtIO.
Kan het nog langzamer...
Even niets...
Binnenkort maar eens FreeBSD proberen, en jails gebruik ik al want daar draait mijn ftp server inUltraman schreef op zaterdag 24 maart 2012 @ 00:19:
Precies. Als je per se Linux wilt/moet draaien dan kun je dat altijd nog in een VM doen.
Maar dan zou ik zeker eerst naar jails gaan kijken
Tweakertjes to the rescue
Ik heb in de voormiddag OpenIndiana geïnstalleerd in VMware Workstation met een 10GB bootdiskje op mijn SSD in mijn workstation, napp-it er over gegooid, 4x 100GB thin provisioned VMDK's er aan gehangen, en beginnen experimenteren...
Hot add van die disks werkte, leuk, na een rescan vond ie ze allemaal netjes, proper!
Dan maar een pool aangemaakt:
Joepie! Pool is aangemaakt:
Maar nu heb ik geen volume, klopt dit?
Ik dacht dat het enige wat je moest doen voor data op je storage machine op te kunnen opslaan het aanmaken van een vdev met daarbovenop een pool was... Blijkbaar niet?
Kan iemand hier wat meer uitleg over geven? Wat doe ik hierna? een ZFS Folder aanmaken of een volume aanmaken, nu wordt het redelijk technisch en op een dieper niveau met mountpoints en shares enz... veronderstel ik (?)
Een volume is wat anders. Het is pool -> zfs en/of volume.HyperBart schreef op zaterdag 24 maart 2012 @ 12:58:
OK, het wordt weer allemaal wat onduidelijker en ik snap enkele dingen niet...
Tweakertjes to the rescue![]()
Ik heb in de voormiddag OpenIndiana geïnstalleerd in VMware Workstation met een 10GB bootdiskje op mijn SSD in mijn workstation, napp-it er over gegooid, 4x 100GB thin provisioned VMDK's er aan gehangen, en beginnen experimenteren...
Hot add van die disks werkte, leuk, na een rescan vond ie ze allemaal netjes, proper!
Dan maar een pool aangemaakt:
[afbeelding]
Joepie! Pool is aangemaakt:
[afbeelding]
Maar nu heb ik geen volume, klopt dit?
[afbeelding]
Ik dacht dat het enige wat je moest doen voor data op je storage machine op te kunnen opslaan het aanmaken van een vdev met daarbovenop een pool was... Blijkbaar niet?
Kan iemand hier wat meer uitleg over geven? Wat doe ik hierna? een ZFS Folder aanmaken of een volume aanmaken, nu wordt het redelijk technisch en op een dieper niveau met mountpoints en shares enz... veronderstel ik (?)
een volume zou je bv gebruiken als je het via iscsi gaat aanbieden of het swap file.
het is eigenlijk
# zfs create pooltje/movies
krijgt dan als mountpoint /pooltje/movies
[ Voor 3% gewijzigd door matty___ op 24-03-2012 13:05 ]
blockdevice + blockdevice + blockdevice = vdev
vdev + vdev + vdev enz... = zpool of volume
Ik heb nu een ZFS Folder aangemaakt, genaamd test1 maar daar geraak ik nu niet binnen met mijn account van op de console... Ik zie die test1 folder wel als ik naar het IP-adres ga in explorer
[ Voor 12% gewijzigd door HyperBart op 24-03-2012 13:19 ]
ik zou zeggen ssh even naar je bak en doe eensHyperBart schreef op zaterdag 24 maart 2012 @ 13:18:
OK, dus dat is het principe van
blockdevice + blockdevice + blockdevice = vdev
vdev + vdev + vdev enz... = zpool of volume
Ik heb nu een ZFS Folder aangemaakt, genaamd test1 maar daar geraak ik nu niet binnen met mijn account van op de console... Ik zie die test1 folder wel als ik naar het IP-adres ga in explorer
#zfs list
want geen idee of een zfs folder (
het laatste moet je eerst hebben denk ik
[ Voor 10% gewijzigd door matty___ op 24-03-2012 13:21 ]
bart@openindianavm:~$ zfs list NAME USED AVAIL REFER MOUNTPOINT pooltje 29.3G 293G 44.9K /pooltje pooltje/test1 47.9K 264G 47.9K /pooltje/test1 rpool 8.36G 1.42G 47K /rpool rpool/ROOT 4.22G 1.42G 31K legacy rpool/ROOT/napp-it-0.7l_update_03.24 1.76G 1.42G 1.75G / rpool/ROOT/openindiana 5.13M 1.42G 1.75G / rpool/ROOT/openindiana-1 408M 1.42G 1.70G / rpool/ROOT/openindiana-2 371M 1.42G 1.66G / rpool/ROOT/openindiana-3 378M 1.42G 1.67G / rpool/ROOT/openindiana-4 378M 1.42G 1.67G / rpool/ROOT/openindiana-5 385M 1.42G 1.67G / rpool/ROOT/openindiana-6 589M 1.42G 1.93G / rpool/ROOT/pre_napp-it-0.7l 38K 1.42G 1.53G / rpool/dump 2.00G 1.42G 2.00G - rpool/export 13.0M 1.42G 32K /export rpool/export/home 13.0M 1.42G 32K /export/home rpool/export/home/bart 13.0M 1.42G 13.0M /export/home/bart rpool/swap 2.13G 3.42G 133M -
Bijkomend vraagje: hoe komt het dat ik bij pooltje al 29.3GB in use is
dan is een zfs folder blijkbaar wel hetzelfde als een zfs filesystem.HyperBart schreef op zaterdag 24 maart 2012 @ 13:25:
bart@openindianavm:~$ zfs list NAME USED AVAIL REFER MOUNTPOINT pooltje 29.3G 293G 44.9K /pooltje pooltje/test1 47.9K 264G 47.9K /pooltje/test1 rpool 8.36G 1.42G 47K /rpool rpool/ROOT 4.22G 1.42G 31K legacy rpool/ROOT/napp-it-0.7l_update_03.24 1.76G 1.42G 1.75G / rpool/ROOT/openindiana 5.13M 1.42G 1.75G / rpool/ROOT/openindiana-1 408M 1.42G 1.70G / rpool/ROOT/openindiana-2 371M 1.42G 1.66G / rpool/ROOT/openindiana-3 378M 1.42G 1.67G / rpool/ROOT/openindiana-4 378M 1.42G 1.67G / rpool/ROOT/openindiana-5 385M 1.42G 1.67G / rpool/ROOT/openindiana-6 589M 1.42G 1.93G / rpool/ROOT/pre_napp-it-0.7l 38K 1.42G 1.53G / rpool/dump 2.00G 1.42G 2.00G - rpool/export 13.0M 1.42G 32K /export rpool/export/home 13.0M 1.42G 32K /export/home rpool/export/home/bart 13.0M 1.42G 13.0M /export/home/bart rpool/swap 2.13G 3.42G 133M -
heb je iets met quotas gedaan?
wat zegt
zpool list
1080P doet nog geen 10mb/s over het netwerk. Dus daar zal het niet aan liggen.grotius schreef op zaterdag 24 maart 2012 @ 13:34:
Ik wil graag een zfs pool aanmaken. Het liefst een pool met redelijke snelheid (films / series) en een klein deel met meer zekerheid (documenten, foto's muziek). Wat is een 'goede' pool? Ik heb 7 hitachi deskstar 5k3000 shijven van 3tb. Het Zfs systeem draait op een aparte ssd (open indiana onder esxi 5). Ik dacht zelf aan een RAIDZ (7-1) pool maar misschien is er wel een slimmere combinatie mogelijk?
Maar met zo grote en aantal schijven zou ik zeker niet voor z1 gaan maar voor z2.
raidz2grotius schreef op zaterdag 24 maart 2012 @ 13:34:
Ik wil graag een zfs pool aanmaken. Het liefst een pool met redelijke snelheid (films / series) en een klein deel met meer zekerheid (documenten, foto's muziek). Wat is een 'goede' pool? Ik heb 7 hitachi deskstar 5k3000 shijven van 3tb. Het Zfs systeem draait op een aparte ssd (open indiana onder esxi 5). Ik dacht zelf aan een RAIDZ (7-1) pool maar misschien is er wel een slimmere combinatie mogelijk?
Superveilig en maximalisatie van je beschikbare diskgrootte's
Eventueel als je bv een weekje aan een stuk aan foto's en video's werkt kan je opteren voor een SSD om dat wat te upspeeden...
matty___ schreef op zaterdag 24 maart 2012 @ 13:26:
[...]
dan is een zfs folder blijkbaar wel hetzelfde als een zfs filesystem.
heb je iets met quotas gedaan?
wat zegt
zpool list
bart@openindianavm:~$ zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT pooltje 398G 265K 398G 0% 1.00x ONLINE - rpool 9.94G 6.37G 3.57G 64% 1.00x ONLINE -
Niet met quotas, denk dat iemand me gewoon moet zeggen hoe ik een gebruiker access geef tot een share/folder...
Wel belangrijk voor mij dat ik met een beperkte set van gebruikers kan gaan werken naar de toekomst toe...
Mijn pr0n collectie moet niet accessible zijn voor iedereen van het gezin
Naar de toekomst toe zou ik dus graag iets als volgt willen
vdev van X aantal disks vormt een pool, onder die pool kan ik verschillende shares maken:
Video
Beeldmateriaal Gezin
Muziek
enz...
[ Voor 42% gewijzigd door HyperBart op 24-03-2012 13:50 ]
als je voor elke share een zfs filessystem aan maakt kun je gewoon daar rechten aan toe kennen.HyperBart schreef op zaterdag 24 maart 2012 @ 13:45:
[...]
raidz2![]()
Superveilig en maximalisatie van je beschikbare diskgrootte's
Eventueel als je bv een weekje aan een stuk aan foto's en video's werkt kan je opteren voor een SSD om dat wat te upspeeden...
[...]
bart@openindianavm:~$ zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT pooltje 398G 265K 398G 0% 1.00x ONLINE - rpool 9.94G 6.37G 3.57G 64% 1.00x ONLINE -
Niet met quotas, denk dat iemand me gewoon moet zeggen hoe ik een gebruiker access geef tot een share/folder...
Wel belangrijk voor mij dat ik met een beperkte set van gebruikers kan gaan werken naar de toekomst toe...
Mijn pr0n collectie moet niet accessible zijn voor iedereen van het gezin
Naar de toekomst toe zou ik dus graag iets als volgt willen
vdev van X aantal disks vormt een pool, onder die pool kan ik verschillende shares maken:
Video
Beeldmateriaal Gezin
Muziek
enz...
Maar chmod 000 porn werkt ook wel hoor
heb je al de handleiding van napp gelezen? staat er vast in.HyperBart schreef op zaterdag 24 maart 2012 @ 14:17:
Ja, maar hoe, ik geraak er nu even niet aan uit hoe ik op een folder "test1" alleen "bart" toegang kan geven en aan folder test2 alleen "pieter" leesrechten enz...
Maar ik denk dat je eerst de users moet aan maken.
Dan de zfs filesystems:
pooltje/familie/bla1
pooltje/familie/bla2
pooltje/familie/bla3
pooltje/bartje/porn1
Dan de 2 smb shares : 1 familie 1 bartje en aan de share kun je rechten en gebruikers hangen
zo iets?
[ Voor 4% gewijzigd door matty___ op 24-03-2012 14:20 ]
Krijg ze al netjes te zien in explorer bij previous versions, zalig gewoon. Iedere dag een auto-snapshot, backups voor bazen
Alleen tegen fysieke disaster uitvallen zoals brand, bliksem, waterschade ben je dan weer niet tegen beschermd, maar een jaarlijks archiefbackup'je op een externe HDD lost dat dan weer prachtig op
Alleen die ACL's moet ik nog eens uitpluizen en daar vind ik echt mijn weg niet in waar ik dat uberhaupt kan doen
[ Voor 13% gewijzigd door HyperBart op 24-03-2012 14:37 ]
data/shared/Fotografie
data/shared/Video
enz.
data/gezinslid1/School
data/gezinslid1/Werk
enz.
data/gezinslid1/School
data/gezinslid1/Werk
enz.
Vervolgens via symlinks heb ik alle gedeelde mappen in de user shares gezet
data/shared/Fotografie --> data/gezinslid1/Fotografie
data/shared/Fotografie --> data/gezinslid2/Fotografie
data/shared/Video --> data/gezinslid1/Video
data/shared/Video --> data/gezinslid2/Video
Zo zijn alle mappen uit shared toegankelijk voor alle gebruikers. Alle mappen per gezinslid zijn persoonlijke mappen en alleen voor dat gezinslid te bereiken.
Voor je pr0n zou ik gewoon een truecrypt container maken. Dan weet je zeker dat niemand erbij kan. Dat doe ik met bijv. mijn belastingdienst gegevens e.d. Mocht er ingebroken worden dan weet ik écht zeker dat niemand erbij kan.
Edit:
ACL gebruik ik hier niet, ik werk gewoon met de rechten van het systeem via chmod & chown. Voor mij een stuk overzichtelijker en makkelijk i.c.m. samba.
[ Voor 8% gewijzigd door CurlyMo op 24-03-2012 14:39 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Dafuq...
Ik wil gewoon simpel klein en werkend. Niet van die logge dingen...
Even niets...
Word!FireDrunk schreef op zaterdag 24 maart 2012 @ 14:52:
Daarom ben ik een beetje klaar met die Storage Distro's. Alles is weer Enterprise, en betaald en limieten.
Ik wil gewoon simpel klein en werkend. Niet van die logge dingen...
Op zich is die OpenIndiana eigenlijk best wel OK voor mij, maar je moet bij mij met Napp-it niet afkomen met van die rotzooi van "voor deze functie moet je verplicht betalen", "dit is de limiet omwille van licenties" en si en la... Neen, geef me gewoon full fledged, beperk me niet, val me niet lastig met van die prullaria omdat ik eens gek wil doen en zorg er zeker voor dat zoiets TRIVIAAL (for god's sake
Voor de rest: napp-it, leuk dingetje... Wel geweldig hoe simpel het allemaal is, zeker die Previous Versions in Windows, klik klik, snapshotje gemaakt und alles werkt
Nu, aan de andere kant... 20 EUR ofzo voor een SMB ACL functionaliteit is het mij nu nog wel waard...
Voorlopig maar even wachten wat trustees zoals CiPHER er van zeggen
Want ik heb nu ook folder test1 en test2 waar ik niet in geraak en waarvan ik niet weet hoe ik mezelf toegang kan geven...
[ Voor 12% gewijzigd door HyperBart op 24-03-2012 15:41 ]
Ik heb het hier thuis altijd nog prima gered met klassieke Unix permissies, en dat doe ik nu nog steeds eigenlijk.
Ieder heeft een eigen home directory die alleen door die persoon betreden kan worden. En dan is er nog een user genaamd share, daarin zit al het gedeelde spul. Die directory heeft de read bit aan staan voor iedereen.
En die directory heeft de write bit op user en group niveau, waardoor je in share kunt schrijven als je het wachtwoord van de user share weet (die weet ik en mogelijk mijn broertje), of als je in de group 'share' zit.
Ik en mijn broertje zitten ook in de group 'share', dus kunnen vanaf onze eigen accounts er naar toe schrijven.
Wil ik iemand schrijftoegang (en dus ook delete) geven, dan voeg ik die persoon toe aan de groep share.
Pas als je binnen share op directory niveau per gebruiker dingen wilt gaan doen worden ACLs denk ik pas een noodzaak. Hangt dus een beetje af van wat je zoal van plan bent...
Als je stil blijft staan, komt de hoek wel naar jou toe.
Heb je je DM uitstaan?
Even niets...
Die begrijp ik niet helemaal.FireDrunk schreef op zaterdag 24 maart 2012 @ 16:08:
Mjah, dan moet je dus je rechten bijhouden op Unix, en niet op de share.
offtopic:
Heb je je DM uitstaan?
Nee, ik heb hem gezien. Alleen nog even geen antwoord voor je. Echt een traject is er niet, maar er is wel een draadje dus ik gooi wel ff een balletje op
Als je stil blijft staan, komt de hoek wel naar jou toe.
Als je de handleiding zou lezen, dan had je al ontdekt dat je hier helemaal niet voor hoeft te betalen. dit kan je gewoon vanaf je windows pc doenHyperBart schreef op zaterdag 24 maart 2012 @ 14:46:
Wtf... Voor ACL's in te stellen op je SMB-shares (je kan ook op de folders ACL's instellen?) moet je een extension registeren en die zou betalend zijn/worden?
Dafuq...
Niets, maar dan moet ik me idd terug eens gaan inlezen in UNIX permissies (das best lang geleden), want op zich gaat het inderdaad van het principe dat ik overal toegang moet hebben, en dat ik een bepaalde groep (het gezin) lees/schrijfrechten moet geven op mappen...Ultraman schreef op zaterdag 24 maart 2012 @ 15:51:
Wat willen jullie voor speciale dingen dat je ACLs nodig hebt?
Ik heb het hier thuis altijd nog prima gered met klassieke Unix permissies, en dat doe ik nu nog steeds eigenlijk.
Ieder heeft een eigen home directory die alleen door die persoon betreden kan worden. En dan is er nog een user genaamd share, daarin zit al het gedeelde spul. Die directory heeft de read bit aan staan voor iedereen.
En die directory heeft de write bit op user en group niveau, waardoor je in share kunt schrijven als je het wachtwoord van de user share weet (die weet ik en mogelijk mijn broertje), of als je in de group 'share' zit.
Ik en mijn broertje zitten ook in de group 'share', dus kunnen vanaf onze eigen accounts er naar toe schrijven.
Wil ik iemand schrijftoegang (en dus ook delete) geven, dan voeg ik die persoon toe aan de groep share.
Pas als je binnen share op directory niveau per gebruiker dingen wilt gaan doen worden ACLs denk ik pas een noodzaak. Hangt dus een beetje af van wat je zoal van plan bent...
Doe eens lief jij, die heb ik nagelezen, maar bij het aanpassen kreeg ik permissions denied, en mijn eigen username die ik bij de installatie heb aangemaakt van OpenIndiana kan ik mezelf niet vinden bij de share security objects als ik zoek op locatie "openindianavm", alleen nieuw aangemaakte in de napp-it interface usernames kon ik toevoegen in het lijstje, maar op OK klikken gaf een access denied...DARKLORD schreef op zaterdag 24 maart 2012 @ 16:30:
[...]
Als je de handleiding zou lezen, dan had je al ontdekt dat je hier helemaal niet voor hoeft te betalen. dit kan je gewoon vanaf je windows pc doen
Maar je moet zorgen dat je als root inlogt op je share. dan heb je wel de rechten om het aan te passen. rechtse knop op een map en dan kan je rechten aanpassen. via computer management gaat dat moeilijker. hoop dat je hier genoeg aan hebt om het werkend te krijgen. vind het zelf ideaal namelijk
DARKLORD schreef op zaterdag 24 maart 2012 @ 16:42:
Ok was een beetje bot, kon ook anders.
Ja, heb ik ook al geprobeerd, aan te melden op die share met root en mijn pwd, nadaMaar je moet zorgen dat je als root inlogt op je share. dan heb je wel de rechten om het aan te passen. rechtse knop op een map en dan kan je rechten aanpassen. via computer management gaat dat moeilijker. hoop dat je hier genoeg aan hebt om het werkend te krijgen. vind het zelf ideaal namelijk
Als ik een (User) groep die op mijn PC/Thuisnetwerk staat rechten wil geven op een share, moet je toch een ACL mapping hebben? Of ben ik nou gek?Ultraman schreef op zaterdag 24 maart 2012 @ 16:11:
Die begrijp ik niet helemaal.
Overigens gebruik ik gewoon Unix rechten hoor, Windows kan me onderhand gestolen worden.
Pestsoftware...
[ Voor 16% gewijzigd door FireDrunk op 24-03-2012 16:51 ]
Even niets...
Vertrek bij mijn thuis, die OpenIndiana wou niet afsluiten, dus maar hard power off in VMware workstation gedaan...
Kom hier aan bij de vriendin, pool is weg, niets meer van te zien
lekker danHyperBart schreef op zaterdag 24 maart 2012 @ 17:22:
Fancy![]()
Vertrek bij mijn thuis, die OpenIndiana wou niet afsluiten, dus maar hard power off in VMware workstation gedaan...
Kom hier aan bij de vriendin, pool is weg, niets meer van te zien
Sinds de 2 dagen regel reageer ik hier niet meer
Had wel de VM afgesloten via de shell, su shutdown now, maar dan gaf ie heel de tijd van die vragen waar ik op dat moment niet aan uit kon:
En sinds de install van Napp-it heeft hij ook de naam van mijn host verandert naar die aaaaaa en die tekentjes er tussen met dan mijn hostname die ik hem had gegeven erachter...
Waar kan je nu ergens die UNIX permissies instellen?
bart@²²²ééOpenIndianaVM:/pooltje$ ls -la total 10 drwxr-xr-x+ 5 root root 6 2012-03-24 14:14 . drwxr-xr-x 25 root root 26 2012-03-24 17:30 .. -rw-r--r--+ 1 root root 0 2012-03-24 14:14 Bonnie.log drwxrwxrwx+ 3 root root 3 2012-03-24 17:43 test1 drwxrwxrwx+ 3 root root 3 2012-03-24 17:43 test2 drwxrwxrwx+ 4 root root 7 2012-03-24 17:43 test3 bart@²²²ééOpenIndianaVM:/pooltje$
En toch geraak ik niet binnen in die shares met root...
En what the
[ Voor 64% gewijzigd door HyperBart op 24-03-2012 17:56 ]
* FireDrunk is zijn data naar een NASje aan het migreren, omdaarna eens met zijn volledige hardware met ZFS te gaan spelen.
Als het bevalt, dan blijft het, mocht het niet bevallen ga ik terug naar MDADM (en tegelijk kan ik dan mooi migreren naar EXT4 en een groteren chunksize
Ik hoop dat de kopie vanavond nog klaar is, maar die nas is **** traag (28MB/s).
Ik dacht dat een Iomega Storcenter wel snel zou zijn.
* FireDrunk heeft dat dus verkeerd gedacht...
[ Voor 97% gewijzigd door FireDrunk op 24-03-2012 18:21 ]
Even niets...
You're kidding, right?FireDrunk schreef op zaterdag 24 maart 2012 @ 18:17:
Ik dacht dat een Iomega Storcenter wel snel zou zijn.
Nu zak je echt op mijn waarderingsschaal
Dacht dat in de beginne toen ik ze voor eerst zag "ooh, EMC dochterbedrijfje, gaat wel goed zijn", niets ook niet, wat een rotdingen
Voor het bouwen van een ZFS NAS en andere hardwarevragen kun je beter terecht in Het grote DIY RAID NAS topic deel 3, zodat we dit topic reserveren voor ZFS-specifieke vragen en discussies.