• BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 21-12 09:31
matthijsln schreef op maandag 05 september 2011 @ 23:55:
[...]


WTF, dat is freaky. Je mist gewoon 8257 sectors. Je kan deze schijf denk ik beter gewoon RMA'en, want in de specs van WD zelf staat dat een WD20EARS gewoon 3.907.029.168 sectors moet hebben. Jouw schijf schijnt er maar 3.907.020.911 te hebben. Geeft een andere disk info utility (Palimpsest oid) niet meer info? Vreemde SMART info misschien?
Ik had dit inderdaad ook niet verwacht...
Ik heb deze 3 schijven eerder in een HW raid-5 config gedraaid onder windows, maar ik heb daar toen niets van gemerkt (ook niet op gelet).


SMART info:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
root@vFileserver:/home/jens# smartctl -a /dev/sdg
smartctl version 5.38 [x86_64-unknown-linux-gnu] Copyright (C) 2002-8 Bruce Allen
Home page is http://smartmontools.sourceforge.net/

=== START OF INFORMATION SECTION ===
Device Model:     WDC WD20EARS-00MVWB0
Serial Number:    WD-WCAZA5700477
Firmware Version: 51.0AB51
User Capacity:    2,000,394,706,432 bytes
Device is:        Not in smartctl database [for details use: -P showall]
ATA Version is:   8
ATA Standard is:  Exact ATA specification draft version not indicated
Local Time is:    Tue Sep  6 00:20:03 2011 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x82) Offline data collection activity
                                        was completed without error.
                                        Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0) The previous self-test routine completed
                                        without error or no self-test has ever
                                        been run.
Total time to complete Offline
data collection:                 (36600) seconds.
Offline data collection
capabilities:                    (0x7b) SMART execute Offline immediate.
                                        Auto Offline data collection on/off support.
                                        Suspend Offline collection upon new
                                        command.
                                        Offline surface scan supported.
                                        Self-test supported.
                                        Conveyance Self-test supported.
                                        Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                                        power-saving mode.
                                        Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                                        General Purpose Logging supported.
Short self-test routine
recommended polling time:        (   2) minutes.
Extended self-test routine
recommended polling time:        ( 255) minutes.
Conveyance self-test routine
recommended polling time:        (   5) minutes.
SCT capabilities:              (0x3035) SCT Status supported.
                                        SCT Feature Control supported.
                                        SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   253   204   021    Pre-fail  Always       -       1341
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       103
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   100   253   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   098   098   000    Old_age   Always       -       1489
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   253   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       86
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       80
193 Load_Cycle_Count        0x0032   199   199   000    Old_age   Always       -       3230
194 Temperature_Celsius     0x0022   123   110   000    Old_age   Always       -       27
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   200   200   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       0

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]


SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

  • sloth
  • Registratie: Januari 2010
  • Niet online
* sloth kan wat advies gebruiken bij de keuze van een file system

Het gaat hierbij om enkel losse 2TB (Samsung HD204UI) disks zonder RAID. De bestanden die erop komen zijn gemiddeld tussen de 50 en 100MB en er zal vooral van gelezen worden.
Verder hecht ik belang aan stabiliteit en betrouwbaarheid maar ook hoge readspeeds zou ik wel zo prettig vinden.

ZFS valt helaas af doordat hiervoor nog altijd een BSD of Solaris OS nodig is, terwijl ik de data vanuit Debian wil benaderen.

Zelf kwam ik bij xfs en ext4 uit, met een voorkeur voor xfs met dank aan de lovende berichten van Q in dit topic ;)

Wat me nog tegenhoud om voor XFS te gaan is het dataloss verhaal. De server komt voorlopig niet achter een UPS te houden, en ik lees dat je dan bij een powerfailure data kan verliezen.

Uit de XFS FAQ lees ik dan weer:
With a single hard disk and barriers turned on (on=default), the drive write cache is flushed before and after a barrier is issued. A powerfail "only" loses data in the cache but no essential ordering is violated, and corruption will not occur.
Als ik dit goed begrijp verlies je dus alleen maar de 32MB data in de cache indien er bij een stroomonderbreking naar de disk geschreven wordt?
Dit zou dan voor mij niet zo'n issue zijn. De stroomtoevoer is (erg) stabiel en wil de disks 75% van de tijd read only mounten.

Kan iemand hier wat opheldering over geven?

indien dit teveel offtopic gaat open ik wel een topic in NOS

[ Voor 4% gewijzigd door sloth op 06-09-2011 00:52 ]


  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 23:39
Stel ik schaf 8 x 2TB schijven aan en wil deze op de volgende RAIDkaart aansluiten: Highpoint RocketRAID RR2680SGL.

Deze kaart heeft 2x SAS SFF 8087 (oftewel mini-SAS) voor aansluitingen. Ik heb dus tweemaal een mini-SAS naar 4x SATA kabel nodig. Nu is mijn vraag wat voor kabels heb ik dan nodig? Breakout forwards?

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 22:31
Jup, forward break-out kabels.

  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 21-12 09:31
Net 2 disks toegevoegd aan mijn bestaande array sdh en sdi.
Maar nu duidt hij sdf[0](F) aan...

code:
1
2
3
4
5
root@vFileserver:/home/jens# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sdb[1] sde[5] sdd[3] sdf[0](F) sdi[7] sdc[2] sdh[6]
      7814051840 blocks super 1.2 level 5, 512k chunk, algorithm 2 [7/6] [UUUUUU_]
      [>....................]  reshape =  0.4% (8992768/1953512960) finish=1207.5min speed=26838K/sec


Mocht iemand kunnen helpen of info geven over het feit dat 1 van mijn 3 WD20EARS 8257 sectoren mist, graag... 8)7

Verwijderd

Kan het zijn dat die ene EARS schijf een oudere versie is? EARS komt namelijk in twee smaken:
- oudere 4 platter schijf van 500GB per platter (4x500GB = 2TB)
- nieuwere 3 platter schijf van 666GB per platter (3x666GB = 2TB)

  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 21-12 09:31
Verwijderd schreef op dinsdag 06 september 2011 @ 13:14:
Kan het zijn dat die ene EARS schijf een oudere versie is? EARS komt namelijk in twee smaken:
- oudere 4 platter schijf van 500GB per platter (4x500GB = 2TB)
- nieuwere 3 platter schijf van 666GB per platter (3x666GB = 2TB)
Inderdaad, maar volgens smartctl:

code:
1
2
3
4
5
6
root@vFileserver:/home/jens# smartctl -a /dev/sdg | grep Model:
Device Model:     WDC WD20EARS-00MVWB0
root@vFileserver:/home/jens# smartctl -a /dev/sdh | grep Model:
Device Model:     WDC WD20EARS-00MVWB0
root@vFileserver:/home/jens# smartctl -a /dev/sdi | grep Model:
Device Model:     WDC WD20EARS-00MVWB0

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Firmware versies?
root@ZEUS:~# hdparm -I /dev/sd[bcdefghi] | grep -i firm
        Firmware Revision:  51.0AB51
        Firmware Revision:  51.0AB51
        Firmware Revision:  1AQ10001
        Firmware Revision:  1AQ10001
        Firmware Revision:  1AQ10001
        Firmware Revision:  1AQ10001
        Firmware Revision:  51.0AB51
        Firmware Revision:  51.0AB51

[ Voor 91% gewijzigd door FireDrunk op 06-09-2011 13:43 ]

Even niets...


  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 23:33
Dat is wel heel erg vaag idd, alledrie exact zelfde type. Moet 't haast wel in de firmware zitten. Hoewel 't niet uit mag maken, schijven hangen aan dezelfde controller? Mocht dit type ze nog hebben, Adv Format jumper is niet geplaatst? Eventueel kun je nog even kijken of er niet met HPA/DCO gerommeld is.

  • thof
  • Registratie: Oktober 2008
  • Laatst online: 19-12 15:39

thof

FP ProMod
Nielson schreef op dinsdag 06 september 2011 @ 14:32:
[...]
Eventueel kun je nog even kijken of er niet met HPA/DCO gerommeld is.
Let op! Schijnt niet te werken op Windows 7 64bit las ik op een andere site. Heb het hier op win7x64 laptop ook niet draaiend gekregen: Error opening driver.

Server 1: Intel N305 | 48GB RAM | 5*4TB NVME | 4x 2.5GbE
Server 2: Intel N5105 | 64GB RAM | 1TB NVME | 4x 2.5GbE
Server 3: Intel Xeon E5-2670 | 128GB RAM | 512+750GB SATA SSD | 6x10TB HDD | 6x 1GbE [Buiten gebruik]


  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 21-12 09:31
FireDrunk schreef op dinsdag 06 september 2011 @ 13:42:
Firmware versies?
root@ZEUS:~# hdparm -I /dev/sd[bcdefghi] | grep -i firm
        Firmware Revision:  51.0AB51
        Firmware Revision:  51.0AB51
        Firmware Revision:  1AQ10001
        Firmware Revision:  1AQ10001
        Firmware Revision:  1AQ10001
        Firmware Revision:  1AQ10001
        Firmware Revision:  51.0AB51
        Firmware Revision:  51.0AB51
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
root@vFileserver:/home/jens# hdparm -I /dev/sd[bcdefghi] | grep -i firm
        Firmware Revision:  1AQ10001
        Firmware Revision:  1AQ10001
        Firmware Revision:  1AQ10001
        Firmware Revision:  1AQ10001
        Firmware Revision:  1AQ10001
        Firmware Revision:  51.0AB51
        Firmware Revision:  51.0AB51
        Firmware Revision:  51.0AB51

root@vFileserver:/home/jens# hdparm -I /dev/sd[bcdefghi] | grep -i sectors:
        CHS current addressable sectors:   16514064
        LBA    user addressable sectors:  268435455
        LBA48  user addressable sectors: 3907029168
        CHS current addressable sectors:   16514064
        LBA    user addressable sectors:  268435455
        LBA48  user addressable sectors: 3907029168
        CHS current addressable sectors:   16514064
        LBA    user addressable sectors:  268435455
        LBA48  user addressable sectors: 3907029168
        CHS current addressable sectors:   16514064
        LBA    user addressable sectors:  268435455
        LBA48  user addressable sectors: 3907029168
        CHS current addressable sectors:   16514064
        LBA    user addressable sectors:  268435455
        LBA48  user addressable sectors: 3907029168
        CHS current addressable sectors:   16514064
        LBA    user addressable sectors:  268435455
        LBA48  user addressable sectors: 3907020911     <-------------
        CHS current addressable sectors:   16514064
        LBA    user addressable sectors:  268435455
        LBA48  user addressable sectors: 3907029168
        CHS current addressable sectors:   16514064
        LBA    user addressable sectors:  268435455
        LBA48  user addressable sectors: 3907029168

[ Voor 42% gewijzigd door BlackShadow op 06-09-2011 22:23 ]


  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 23:33
Kun je eens met hdparm kijken of HPA niet in gebruik is?

hdparm -N /dev/sdg

http://www.forensicswiki.org/wiki/DCO_and_HPA

  • KorneelB
  • Registratie: Mei 2008
  • Laatst online: 13-10 14:52
Beatboxx schreef op maandag 05 september 2011 @ 21:36:
Ik post ook maar even in dit topic.

Ik heb een systeem nodig dat:
  • zo'n 20-30TB aan opslag nodig, in RAID6. (Of ev
  • Ik wil zo'n 600MByte/s doorvoer hebben
  • Gebruik voor opslag media (filmpjes e.d.), downloadserver, webserver (±250http-requests per seconde, ±100 mysql-request per seconde) maken van backup's van zo'n 15 pc's
Ik wil gebruik maken van zo'n 16 2TB hdd's, waarvan sowieso twee als "spare-device" voor als er iets uitvalt. Meteen rebuilden moet dus ook kunnen. In het begin voldoen 12 disks ook. Ik zou dus kunnen beginnen met dit:

pricewatch: Synology Disk Station DS3611xs
en daar later zoiets bij zetten: pricewatch: Synology DX1211 12-sleufs uitbreiding voor DS2411+ en DS3611xs

Zou het nuttig zijn
Of geeft dat niet genoeg "power" en moet ik zelf iets in elkaar zetten?
En als ik voor ZFS kies? Wat zijn dan exact de voordelen?
PM me even, ik kan je hiermee wel helpen, maar denk dat dit niet in dit topic past :)

60 TB can not be enough


  • sloth
  • Registratie: Januari 2010
  • Niet online
sloth schreef op dinsdag 06 september 2011 @ 00:39:
* sloth kan wat advies gebruiken bij de keuze van een file system

Het gaat hierbij om enkel losse 2TB (Samsung HD204UI) disks zonder RAID. De bestanden die erop komen zijn gemiddeld tussen de 50 en 100MB en er zal vooral van gelezen worden.
Verder hecht ik belang aan stabiliteit en betrouwbaarheid maar ook hoge readspeeds zou ik wel zo prettig vinden.

ZFS valt helaas af doordat hiervoor nog altijd een BSD of Solaris OS nodig is, terwijl ik de data vanuit Debian wil benaderen.

Zelf kwam ik bij xfs en ext4 uit, met een voorkeur voor xfs met dank aan de lovende berichten van Q in dit topic ;)

Wat me nog tegenhoud om voor XFS te gaan is het dataloss verhaal. De server komt voorlopig niet achter een UPS te houden, en ik lees dat je dan bij een powerfailure data kan verliezen.

Uit de XFS FAQ lees ik dan weer:


[...]


Als ik dit goed begrijp verlies je dus alleen maar de 32MB data in de cache indien er bij een stroomonderbreking naar de disk geschreven wordt?
Dit zou dan voor mij niet zo'n issue zijn. De stroomtoevoer is (erg) stabiel en wil de disks 75% van de tijd read only mounten.

Kan iemand hier wat opheldering over geven?

indien dit teveel offtopic gaat open ik wel een topic in NOS
Voorzichtig schopje

  • Xiphalon
  • Registratie: Juni 2001
  • Laatst online: 19:01
Ik zou ook voor XFS gaan.

Eventueel kan je voor de RO-mounts voor een ander (sneller leesbaar) FS gaan, want daar heb je geen corruptie bij stroomuival.

Verwijderd

Had je bericht gezien maar hoopte dat iemand met meer ervaring met Ext4 en XFS je vraag kon beantwoorden.

Met beide filesystems heb ik enige ervaring maar zeker niet veel. Bij zowel Ext4 en XFS heb ik diverse berichten gelezen van plotseling corruptie. In sommige gevallen ernstige corruptie. Dat kan evengoed komen door fout RAM geheugen en andere oorzaken.

Maargoed, beide filesystems bieden geen bescherming voor je bestanden; ze gaan uit van een 100% corruptievrij medium zoals bijna alle filesystems. Dat is een vrij grote beperking, omdat het betekent dat corruptie altijd op de loer ligt. Niet alleen dat, stille corruptie ofwel silent corruption is een groot probleem; je hebt niet door dat je data corrupt is totdat je het zelf probeert te openen. Dat betekent dat je corruptie kan uitbreiden naar je backup medium en pas veel later ontdekt wordt als het te laat is.

Het hangt af van je specifieke data. Heb je data die vervangbaar is dan is dit allemaal niet zo'n heel groot probleem. Echter wil je een hoge mate van zekerheid dan raad ik je toch nog eens aan om naar ZFS te kijken, wat voor het probleem hierboven gewoon dé oplossing is. Als alternatief kun je ook Btrfs overwegen, maar dat is nog geen volwassen oplossing te noemen en door de complexiteit zijn bugs hierin ook niet uitgesloten. Maar het is wel iets wat native op Linux draait.

Verder kun je ervoor kiezen om geen ingewikkelde RAID layers zoals RAID5 of RAID6 te draaien maar gewoon RAID1. Of een combinatie van verschillende oplossingen voor minder belangrijke en belangrijke data.

Wellicht het beste advies is veel aandacht te schenken aan backups; ga niet één filesystem draaien en erop vertrouwen dat het allemaal goed blijft werken, maar zorg voor een goede backup bijvoorbeeld een 2e server die je eens per week laat syncen met je hoofdserver. Dat is ongeveer de setup die ik draai. Eventueel kun je de backup server dan wel ZFS laat draaien en hem hier helemaal voor inrichten, met snapshots zodat je corruptie goed kunt tegengaan (terug in de tijd totdat je een niet-corrupt exemplaar van je data terugvindt).

Hopelijk heb je hier wat aan. :)

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Je kan altijd handmatig checksums maken natuurlijk. Maak een tar van je backups, en hash de tar.
Verplaats de tar naar je backup medium, en lees de hash de tar opnieuw.

Natuurlijk is het niet zo goed als ZFS, maar je kan naderhand altijd zien of je silent corruption gehad hebt door de hash weer te vergelijken met de TAR.

Je voorkomt niet dat je data op het originele medium foutloos geschreven word (zoals met ZFS). Maar je verliest wel silent corruption over time.

Even niets...


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

Verwijderd schreef op donderdag 08 september 2011 @ 14:12:
[...]

Had je bericht gezien maar hoopte dat iemand met meer ervaring met Ext4 en XFS je vraag kon beantwoorden.

Met beide filesystems heb ik enige ervaring maar zeker niet veel. Bij zowel Ext4 en XFS heb ik diverse berichten gelezen van plotseling corruptie. In sommige gevallen ernstige corruptie. Dat kan evengoed komen door fout RAM geheugen en andere oorzaken.

Maargoed, beide filesystems bieden geen bescherming voor je bestanden; ze gaan uit van een 100% corruptievrij medium zoals bijna alle filesystems. Dat is een vrij grote beperking, omdat het betekent dat corruptie altijd op de loer ligt. Niet alleen dat, stille corruptie ofwel silent corruption is een groot probleem; je hebt niet door dat je data corrupt is totdat je het zelf probeert te openen. Dat betekent dat je corruptie kan uitbreiden naar je backup medium en pas veel later ontdekt wordt als het te laat is.

Het hangt af van je specifieke data. Heb je data die vervangbaar is dan is dit allemaal niet zo'n heel groot probleem. Echter wil je een hoge mate van zekerheid dan raad ik je toch nog eens aan om naar ZFS te kijken, wat voor het probleem hierboven gewoon dé oplossing is. Als alternatief kun je ook Btrfs overwegen, maar dat is nog geen volwassen oplossing te noemen en door de complexiteit zijn bugs hierin ook niet uitgesloten. Maar het is wel iets wat native op Linux draait.

Verder kun je ervoor kiezen om geen ingewikkelde RAID layers zoals RAID5 of RAID6 te draaien maar gewoon RAID1. Of een combinatie van verschillende oplossingen voor minder belangrijke en belangrijke data.

Wellicht het beste advies is veel aandacht te schenken aan backups; ga niet één filesystem draaien en erop vertrouwen dat het allemaal goed blijft werken, maar zorg voor een goede backup bijvoorbeeld een 2e server die je eens per week laat syncen met je hoofdserver. Dat is ongeveer de setup die ik draai. Eventueel kun je de backup server dan wel ZFS laat draaien en hem hier helemaal voor inrichten, met snapshots zodat je corruptie goed kunt tegengaan (terug in de tijd totdat je een niet-corrupt exemplaar van je data terugvindt).

Hopelijk heb je hier wat aan. :)
LOL, ik dacht eigenlijk hetzelfde.

Een echte ext4 kenner noem ik me absoluut niet, maar mijn ervaring met Ext4 is strekt zich uit over meerdere jaren en komt er eigenlijk op neer dat ext4 best wel een knauw kan hebben.

Ik voel de vraag al aankomen, "Waar bestaat de ervaring dan uit?".

Het geval wil dat de data disk van de stoppenkast download machine al meerdere jaren zijn rondjes draait met Ext4 als FS. Aangezien deze bak geen UPS heeft betekend een stroomuitval in potentie dus een kleinere (schade aan het OS) of een omvangrijke (op de download disk) data beschadiging.
Zo op de natte vinger denk ik dat de machine 4x in de laatste 2 jaar is uitgevallen ivm een Nuon uitval of een zelf veroorzaakte kortsluiting/aardlek (krijg je als je klust in je huis en te eigenwijs bent om een groep uit te zetten)
Doorgaans is het de bak weer aanzetten, het gemekker van een 'non clean unmount' aanzien en afwachten of de journaling de fout kan/wil herstellen. Zo niet volgt er een reboot en een handmatige fschk. Kan dit het euvel niet verhelpen volgt een partijtje minder vriendelijke taal en een poging om eventuele data die nog wel goed is te redden.
In de regel is de journaling voldoende robust om er doorheen te komen.

Met XFS heb ik geen ervaring op dat gebied.

Tja XFS vs. Ext4.

- Beide hebben journaling, wat data beschadiging detecteerbaar en tot op zekere hoogte reparabel maakt.
- Beide doen aan delayed allocation wat in potentie tot data verlies kan leiden.
-Ext4 lijkt het beter te doen met kleinere bestanden.
- XFS lijkt het beter te doen met grotere bestanden.
- XFS is met betrekking tot metadata operatie trager, daar is sinds kernel 2.6.39 een patch/oplossing voor.

Onder de streep is er geen enkel FS dat tegen een abrupte uitval bestand is, de bestanden die open staat ivm een bewerking krijgen een dreun op moment ze niet meer of onvolledig uit de cache worden weggeschreven naar de disk.

Zolang je de machine niet aan een ups hangt, loop je risico op data verlies als gevolg van een stroom uitval.
Sparen voor een UPS, of bbu voor je raid controller, als je data je lief is lijkt de enige optie te zijn.
Daarnaast als je data je zeer lief is zul je toch ook over een backup mogelijkheid moeten nadenken.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Ik heb wel ervaring met stroom uitvallen van XFS. Heb uberhaupt nog nooit een fschk gedaan.. Clean unmount warnings wel eens, maar dat is met seconden van scannen weer opgelost...

Ik heb Ext4 als / en XFS op mijn array. Beide nog nooit problemen mee gehad... Maar dat is geen garantie uiteraard...

Even niets...


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op donderdag 08 september 2011 @ 15:04:
Ik heb wel ervaring met stroom uitvallen van XFS. Heb uberhaupt nog nooit een fschk gedaan.. Clean unmount warnings wel eens, maar dat is met seconden van scannen weer opgelost...

Ik heb Ext4 als / en XFS op mijn array. Beide nog nooit problemen mee gehad... Maar dat is geen garantie uiteraard...
De bekende: ' Resultaten uit het verleden.., zijn geen garantie voor de toekomst en het heden'

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Precies, daarom is ZFS altijd beter, maar als je niet anders kan, is een FS hebben wat zich bewezen heeft een goede 2e optie.

Even niets...


  • captnemo
  • Registratie: Augustus 2006
  • Laatst online: 15:52
Mijn NAS avontuur:

Je begint met een windows desktop, stopt daar steeds meer/ grotere schijven in, draait ook een webserver met PHP en MySQL en zet hem niet meer uit. Ineens heb je dan een server. Sinds een schijfcrash een paar jaar geleden draaien alle schijven standaard op bios/software Raid1.
Na verloop van tijd is de webserver verplaatst naar een mac-mini die ook al altijd aanstond, is op de mac-mini met VMWare Fusion een windows install bijgekomen voor Homeseer (domotica pakket), en kon de windows desktop uit. Alleen zaten daar nog de schijven met foto's enzo in. Ook heeft de mac-mini voor opslag een USB disk zonder redundantie.

Uiteindelijk weet je het, je wil een NAS. Ok, twee NAS-en: een Synology 2TB die off-site een copy draait en dus lokaal een NAS.

Na eerst allerlei Netgears/QNAPS/Synologies te hebben vergeleken via een collega uitgekomen bij de HP Proliant Microserver n36l. Goedkoper en meer mogelijkheden.
Het idee was FreeNAS, maar zou het niet leuk zijn om daar ook een Windows server te draaien voor de domotica (Homeseer) spullen, en eventueel de webserver? Daar begint het gedonder.

Eisen dus:
  • >4TB data
  • CIFS/SMB
  • AFP (voor mijn mac-mini, maar ook voor de macbooks).
  • Redundant (mirror is ok, minimaal 1 disk failure overwinnen)
  • Resistent (niet al je data kwijt, verzacht de pijn)
  • Windows server (Windows 7 Home Premium eigenlijk)
  • *Eenvoudig te beheren
  • **Lokaal USB support
  • ***Rond de 40MB/s lees/schrijf
*Ben van de GUI/ knip/ plak, selecteer liever opties uit een drop-down.

Bij de Microserver zat een 240GB 7200rpm disk. Daarnaast nog 4x 2TB (2x Samsung, 2x Seagate 5400rpm / green) disks aangeschaft, en er maar gelijk 8GB ECC erin.

Hypervisor
Aan het stoeien geweest met ESXi en Hyper-V. Gratis, dat wel, maar deze vallen af omdat ik de USB poorten niet kan gebruiken. Een externe disk lukt nog wel, maar voor de Domotica/Homeseer server zijn diverse USB I/O sticks noodzakelijk (ZWave/X10 etc.). Een optie is USB over IP, maar jammer van de 6 poorten op de microserver en er moeten drivers voor je guest OS zijn (voor windows niet zo'n probleem).
Ook ondersteund zowel ESXi en Hyper-V geen bios raid, dus de VMs moeten op een plain disk. Eventueel FreeNAS/Ubuntu etc in een VM die dan weer software raid draait. Een hardware raid controller zou het leven simpeler (en sneller) maken.

Linux als host OS
Volgende trial is Ubuntu 11.04. Ubuntu herkent bios raid niet helaas. Er is wel Software Raid via mdadm, maar daar kan je de linux install niet van booten.
Voor Ubuntu is geen standaard VMWare Server pakket, compilen dus. Toen ik het eenmaal had draaien werkte de SSL niet, intern was er geen plugin, en van mijn windows laptop werd ik doorgesluist naar de niet werkende SSL poort (?). VirtualBox installeert wel, maar op de mac al ondervonden dat de performance minder is, dat lees ik ook uit de forums. Geen tests meer mee gedaan. Andere packages zoals netatalk 2.2 voor AFP/ TimeMachine (Lion compatible) is eenvoudig te installeren (2.2 wel van een alternatieve repo).
Fedora heeft dezelfde beperkingen voor wat betreft de bios raid. Waarschijnlijk werkt de rpm download beter, maar VMWare Server heeft nou eenmaal geen Linux plugin.

Windows 7 als host - deel 1
Ok, grootste nadeel van Windows zijn de frequente updates (eigenlijk de noodzaak om daarna te booten). Iets wat je ook ziet bij MacOSX trouwens. Toch Windows als host proberen.
Bios raid1, windows erop. Eerlijk gezegd 99% wat ik wil. Alleen geen AFP. Volgens diverse verhalen en wat eigen ervaring met CIFS/SMB is dat niet stabiel en performt dat slecht op de Macs. Steve vindt het blijkbaar niet belangrijk?
VMWare Server met FreeNAS, en ZFS. Klinkt leuk, alleen kan VMWare Server niet een deel van een harddisk sharen, en om daar nou 1 grote VMDK op te zetten...
Na wat herconfigureren had ik van 4 schijven 2 bios mirrors, waarvan 1 in 2 delen (OS + Data), dus eigenlijk 3 bios mirrors. 2 daarvan aan FreeNAS in ZFS.
Helaas is de performance wat mager (~10MB/s write), waar kan dat aan liggen. De n36l heeft geen geweldige processor, ook zit de microserver momenteel aan een 100Mb/s netwerk, en heb ik om de kosten enigsinds laag te houden zitten er minder snelle Green/5400rpm schijven in. Overigens meldden andere vergelijkbare performance.
Overigens FreeNAS 8.0.1 RC1, hopelijk komt 8.1 snel, dan zit er alles in wat ik nodig heb (plugins voor UPnP/DLNA, torrents etc.)

Windows 7 als host - deel 2
Nu windows op de extra schijf gezet, er zat toch een 240GB disk bij. Als het OS kaal wordt gehouden is herstel gewoon opnieuw het OS installeren op een nieuwe disk, dus mirror is niet per se noodzakelijk.
VMWare Server erop en FreeNAS in een VM. De 4 2TB disks aan FreeNAS (ZFS) en weer ~10MB/s schijfsnelheid. Overigens werkte FreeNAS niet met de schijven in AHCI, dus bios staat op raid maar de schijven zijn niet in raid geconfigureerd.
Lezen zal sneller zijn, en op zich is dat niet een groot probleem, alleen bij het vullen zit je even te koekeloeren.

...
Na al dit gepruts - het toch bijna een hobby, ondanks wat ik eerder beweerde - wordt het tijd dat hij eens gaat draaien en ik me op mijn andere hobbies kan richten...

Ik ga nog proberen de 4 disks rechtstreeks in FreeNAS - vanaf USB boot - te hangen om te kijken of die performance beter is. Dat is dan eventueel een goede config voor recovery of het vullen met veel data terwijl voor dagelijks gebruik er dan een windows server met FreeNAS in een VM op draait. Mogelijk stap ik zelfs helemaal af van Windows op dit systeem en houd ik het bij FreeNAS op bare metal en plaats ik wat meer geheugen in de mac-mini voor de Windows (Homeseer) in VMWare Fusion...

Alle configuraties lijken zo dus voor en nadelen te hebben, maar ik hoor graag suggesties!

  • Staatslot
  • Registratie: December 2007
  • Laatst online: 08-12 12:27
Er staan wel wat onwaarheden in je verhaal:
Aan het stoeien geweest met ESXi en Hyper-V. Gratis, dat wel, maar deze vallen af omdat ik de USB poorten niet kan gebruiken.
Vanaf vmware esxi 4.1 kun je "gewoon" usb poorten doorgeven aan je vm's.

edit: bij dubbel lezen, misschien bedoel je dit toch niet maar echt duidelijk krijg ik het nog niet :P
Er is wel Software Raid via mdadm, maar daar kan je de linux install niet van booten.
Kan prima, of je het echt moet willen weet ik niet. Heb het zelf in een oude server prima gedraaid, 2 disks in software raid-1 waarvan werd gestart.. Maar zoals je nu al zelf zegt, misschien streep je raid1 voor je OS disks al weg, dan is dit geen issue meer.

Verder moet je vmware server niet meer willen gebruiken, dat is echt EOL.

[ Voor 15% gewijzigd door Staatslot op 08-09-2011 16:55 ]


  • Megamind
  • Registratie: Augustus 2002
  • Laatst online: 10-09 22:45
Kan iemand misschien even kijken naar deze kaart:
pricewatch: Highpoint RockerRAID 2640X4SGL 4x SAS SATA RAID PCI-E x4

Leuk kaartje met vrij goede performance voor die prijs, alleen wat voor kabel moet er nu op? Kan ik er gewoon 4 SATA schijven aan hangen met 4 SATA kabels, of kan ik ook SAS kabels gebruiken om bv 16 schijven eraan te hangen?

Plaatje toont volgens mij gewoon SATA aansluiting, maar waarom spreekt de specificatie over SAS/SATA?

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 23:33
Megamind schreef op vrijdag 09 september 2011 @ 00:12:
Kan iemand misschien even kijken naar deze kaart:
pricewatch: Highpoint RockerRAID 2640X4SGL 4x SAS SATA RAID PCI-E x4

Leuk kaartje met vrij goede performance voor die prijs, alleen wat voor kabel moet er nu op? Kan ik er gewoon 4 SATA schijven aan hangen met 4 SATA kabels, of kan ik ook SAS kabels gebruiken om bv 16 schijven eraan te hangen?

Plaatje toont volgens mij gewoon SATA aansluiting, maar waarom spreekt de specificatie over SAS/SATA?
Volgens de Promise site zit er idd gewoon een S-ATA connector op. Gebruikte Marvell chip kan gewoon beide standaarden, en aangezien de connectors bijna hetzelfde zijn zullen er ook vast wel verloopkabeltjes bestaan mocht je echt SAS apparaten hierop willen aansluiten.

  • Megamind
  • Registratie: Augustus 2002
  • Laatst online: 10-09 22:45
Ah ok thanks, alleen wil ik nog even uitzoeken of je dan ook meerdere schijven aan 1 SAS poort kan hangen, anders kan ik net zo goed een normale S-ATA raid controller kopen.

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 23:33
Megamind schreef op vrijdag 09 september 2011 @ 00:30:
Ah ok thanks, alleen wil ik nog even uitzoeken of je dan ook meerdere schijven aan 1 SAS poort kan hangen, anders kan ik net zo goed een normale S-ATA raid controller kopen.
Denk dat jij met SAS poort een SFF-8087 connector bedoeld? Dat is in feite gewoon een connector die meerdere kanalen bundelt. Als genoemde kaart deze had gehad had er maar één opgezeten, aangezien er een vier-kanaals sas/sata controller gebruikt wordt. Zie bv de RocketRAID 2644X4 in bovenstaand overzicht, welke dezelfde controller heeft maar dan met een (externe) vier-kanaals SFF-8088 connector.

  • analog_
  • Registratie: Januari 2004
  • Niet online
Nielson schreef op vrijdag 09 september 2011 @ 00:23:
[...]
Volgens de Promise site zit er idd gewoon een S-ATA connector op. Gebruikte Marvell chip kan gewoon beide standaarden, en aangezien de connectors bijna hetzelfde zijn zullen er ook vast wel verloopkabeltjes bestaan mocht je echt SAS apparaten hierop willen aansluiten.
Ik heb hetzelfde met een onboard lsi 1068e waarop ook gewone sata poorten zitten. Je kan speciale kabeltjes halen die SATA + molex naar SAS omzetten (kleinspul.nl heeft ze dacht ik). Als je met hokkietokkie bent knip je gewoon zelf een stukje uit het lid van je sata power en sata kabel. Uiteindelijk werkt dat ook maar is eerder een test oplossing dan permanent.
edit: volledig verkeerd begrepen maar bon, voor de search dan.

[ Voor 3% gewijzigd door analog_ op 09-09-2011 00:41 ]


  • Megamind
  • Registratie: Augustus 2002
  • Laatst online: 10-09 22:45
Nielson schreef op vrijdag 09 september 2011 @ 00:37:
[...]
Denk dat jij met SAS poort een SFF-8087 connector bedoeld? Dat is in feite gewoon een connector die meerdere kanalen bundelt. Als genoemde kaart deze had gehad had er maar één opgezeten, aangezien er een vier-kanaals sas/sata controller gebruikt wordt. Zie bv de RocketRAID 2644X4 in bovenstaand overzicht, welke dezelfde controller heeft maar dan met een (externe) vier-kanaals SFF-8088 connector.
Ok duidelijk, bedankt. Ik neem aan dat de door mij genoemde kaar gewoon de opvolger is van de oude
pricewatch: Highpoint RocketRAID 2640x4
Kan helaas niet echt specificaties voor de 2640x4 SGL vinden.

Ik denk dat ik dan voor de 2640x4SGL ga en S-ATA kabels gebruik.

  • captnemo
  • Registratie: Augustus 2006
  • Laatst online: 15:52
Hi Staatslot, bedankt voor je reactie.
Staatslot schreef op donderdag 08 september 2011 @ 16:54:
Er staan wel wat onwaarheden in je verhaal:
By all means, haal ze er uit. Ik doe geen allesomvattende lab-tests, maar het is niet mijn bedoeling onwaarheden te posten.
[...]
Vanaf vmware esxi 4.1 kun je "gewoon" usb poorten doorgeven aan je vm's.
edit: bij dubbel lezen, misschien bedoel je dit toch niet maar echt duidelijk krijg ik het nog niet :P
Ik wil USB devices - dus niet alleen sticks/drives - als virtuele USB device doorgeven aan de VM. Bij bijvoorbeeld VMWare Fusion op OSX kan je een USB poort connecten aan je host of een guest (popup), iets wat volgens mij bij de meeste desktop virtualizaties kan. Op die manier kan elk usb device aan een VM gekoppeld worden. Het aankoppelen van een externe harddisk via USB aan een VM kan inderdaad wel met deze hypervisors, maar dat was dus niet helemaal wat ik nodig heb.
Overigens is dit bij hypervisors 'by design'.
[...]
Kan prima, of je het echt moet willen weet ik niet. Heb het zelf in een oude server prima gedraaid, 2 disks in software raid-1 waarvan werd gestart.. Maar zoals je nu al zelf zegt, misschien streep je raid1 voor je OS disks al weg, dan is dit geen issue meer.
Welk OS? Windows kan het prima (lees 'zitten de drivers in de install'), maar hoe zorg je er bij Linux voor dat tijdens de boot de raid herkend word?
Ook al gebruik ik het nu niet, toch goed om de (on)mogelijkheden te weten.
Verder moet je vmware server niet meer willen gebruiken, dat is echt EOL.
Inderdaad... was mij niog niet opgevallen. Workstation (153 euries) is helaas niet gratis, en ik heb al een Fusion 3 (OSX) licentie. Blijft toch een beetje budget.

  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 21-12 09:31
Nielson schreef op donderdag 08 september 2011 @ 13:02:
Kun je eens met hdparm kijken of HPA niet in gebruik is?

hdparm -N /dev/sdg

http://www.forensicswiki.org/wiki/DCO_and_HPA
dat lijkt het inderdaad te zijn:

root@vFileserver:/home/jens# hdparm -N /dev/sdg

/dev/sdg:
 max sectors   = 3907020911/3907029168, HPA is enabled
root@vFileserver:/home/jens# hdparm -N /dev/sdh

/dev/sdh:
 max sectors   = 3907029168/3907029168, HPA is disabled
root@vFileserver:/home/jens# hdparm -N /dev/sdi

/dev/sdi:
 max sectors   = 3907029168/3907029168, HPA is disabled



Edit:

root@vFileserver:/home/jens# hdparm -N /dev/sdh

/dev/sdh:
 max sectors   = 3907029168/3907029168, HPA is disabled
root@vFileserver:/home/jens# hdparm -N /dev/sdg

/dev/sdg:
 max sectors   = 3907029168/3907029168, HPA is disabled
root@vFileserver:/home/jens# fdisk /dev/sdh


Echter, de schijf toevoegen aan mijn array lukt nog niet:

root@vFileserver:/home/jens# mdadm --add /dev/md0 /dev/sdg
mdadm: metadata format 01.02 unknown, ignored.
mdadm: /dev/sdg not large enough to join array


In fdisk blijft er een verschil, geen partities:

Disk /dev/sdg: 2000.4 GB, 2000394706432 bytes
255 heads, 63 sectors/track, 243200 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x27754652

   Device Boot      Start         End      Blocks   Id  System

Command (m for help): q

root@vFileserver:/home/jens# fdisk /dev/sdh

WARNING: DOS-compatible mode is deprecated. It's strongly recommended to
         switch off the mode (command 'c') and change display units to
         sectors (command 'u').

Command (m for help): p

Disk /dev/sdh: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x26e6e606

   Device Boot      Start         End      Blocks   Id  System


Waarschijnlijk moet ik nog iets wijzigen?

[ Voor 55% gewijzigd door BlackShadow op 10-09-2011 09:32 ]


  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 23:33
Heb je de machine alleen opnieuw opgestart of echt een power off/on gegeven?

  • matthijsln
  • Registratie: Augustus 2002
  • Laatst online: 22-12 16:05
captnemo schreef op vrijdag 09 september 2011 @ 13:39:
Welk OS? Windows kan het prima (lees 'zitten de drivers in de install'), maar hoe zorg je er bij Linux voor dat tijdens de boot de raid herkend word?
De 'drivers' voor mdadm zitten in de kernel/initramfs, dus dat is geen probleem. Je moet voor Ubuntu wel de 'alternate installer' gebruiken. Check mijn filmpje: YouTube: Installing Ubuntu on software raid 1 - YouTube

Het filmpje heb ik gemaakt met kvm (geen command line nodig gehad met virt-manager), dus dat is nog een optie die je kan bekijken :) Een usb poort doorsturen werkte bij mij prima.

Ik heb trouwens 10x liever mdadm software raid dan fakeraid of hardware raid. Vooral het sturen van een mail bij een degraded array en mails van smartmontools is veel makkelijker in te stellen.

  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 21-12 09:31
Nielson schreef op zaterdag 10 september 2011 @ 11:02:
Heb je de machine alleen opnieuw opgestart of echt een power off/on gegeven?
Thx again! De server draait op een ESXi en daarom was er nooit een echte powerdown van de schijven. Nu is alles in orde, mdadm is aan het reshapen en op naar de 8 schijven.

Wel heb ik al enkele malen na een reboot gehad dat mdadm de array niet online kan brengen.
Enkel met een --force kan ik de array terug online krijgen:

mdadm --assemble --force /dev/md0 /dev/sd[bcdefghi]

  • captnemo
  • Registratie: Augustus 2006
  • Laatst online: 15:52
matthijsln schreef op zaterdag 10 september 2011 @ 11:32:
[...]
De 'drivers' voor mdadm zitten in de kernel/initramfs, dus dat is geen probleem. Je moet voor Ubuntu wel de 'alternate installer' gebruiken. Check mijn filmpje: YouTube: Installing Ubuntu on software raid 1 - YouTube
Kezhong's beschijving van het installeren van Fedora op Raid1.

Dit ga ik nog wel proberen, maar dan met fysieke disks.

  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 31-08 10:48
Weet iemand nog een goede en betaalbare voeding voor een 3u hoge Chenbro RM31616 (link)? Voeding hoeft niet redundent te zijn en max 500 watt, maar graag wel 80 Plus Gold certificering.

[ Voor 12% gewijzigd door Zware Unit op 12-09-2011 14:25 ]

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
3U? Daar past toch gewoon ATX in?
Niet dus... Dan word het heel lastig, is niet echt mainstream...

[ Voor 52% gewijzigd door FireDrunk op 12-09-2011 15:58 ]

Even niets...


  • Spoooky
  • Registratie: September 2002
  • Laatst online: 16:38

Spoooky

Core temp 37°C

Wie van jullie laat zijn linux NAS een powerdown doen? En op welke manier?

Ik ben spuit 1011, aangenaam!


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

Spoooky schreef op maandag 12 september 2011 @ 16:04:
Wie van jullie laat zijn linux NAS een powerdown doen? En op welke manier?
Errhhhm, ja; shutdown -h now.

Bij behoefte krijgt de bak een magic packet voor z'n kiezen en start de bak weer op.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • WhySoSerious
  • Registratie: Maart 2009
  • Laatst online: 22:31

WhySoSerious

Be the change.

Omdat hier misschien mensen lezen die niet in de BBG's komen wil ik graag mijn vraag ook hier even neerleggen. Het is misschien niet helemaal de "core-business" van dit topic maar kleine overeenkomsten zijn er wel en wellicht heb ik mogelijkheden over het hoofd gezien die hier wel bekend zijn. Bij voorbaat dank dus alvast!

Ik ben al sinds langere tijd een NAS/Homeserver aan het overwegen. Voorkeur voor de laatste omdat ik het leuk vind deze te bouwen en te configureren (al moet ik toegeven dat ik 0,0 ervaring heb met Windows Homeserver en andere varianten...). Ik weet dat een NAS ook onderstaande taken aankan, maar de configureerbaarheid en uitbreidbaarheid spreken me aan.
Ik zal even de vragen uit de OP beantwoorden.

Wat mag het systeem gaan kosten?

Het liefst zo weinig mogelijk natuurlijk. Ik weet echter niet echt aan welke specificaties de componenten moeten voldoen... Ik denk dat dit voor een euro of 300-400 wel te realiseren is?

Wat voor functionaliteit verwacht je van je thuisserver?

Hier wordt het leuk :P Ik heb de eisen verdeeld in zeer belangrijk en in in mindere mate belangrijk. Wederom, het ligt een beetje aan uiteindelijke kosten om te kijken wat ik er uiteindelijk mee wel en niet kan.


Zeer belangrijk:
Downloaden en opslag van Usenet
1:1 kopie van Nas welke al aanwezig is in netwerk, met zeer belangrijke data
Periodieke back-up van bestanden op eigen pc (foto's, belangrijke documenten)
Streaming naar 2 Mede8ers in hetzelfde netwerk
Soort van cloud-opslag functionaliteit zodat ik aan dezelfde documenten kan werken van of mn vaste pc of van mn laptop. Netwerkschijf die dus benaderbaar is vanaf externe locaties dmv internet.


In mindere mate belangrijk:
Back-up van eigen pc, OS-schijf (lijkt me makkelijk na een mislukte windows-update of SSD die ermee stopt.) Eigen pc draait W7 Prof.

Server via internet bereiken om zo bijv. bij mijn vriendin een film te kijken die dus gedownload en opgeslagen is op de server.

Zijn er componenten die je al hebt en mee wil nemen naar je nieuwe bak? Welke?

Zijn wat resten over van oude pc's, oa een AMD 6400+ en bijbehorend moederbord en geheugen. Tevens diverse 2,5inch schijfjes die kunnen fungeren als Boot/download/uitpak-schijf.
Echter is compleet nieuwe hardware (zuinig!) ook een optie.

Wat denk je allemaal nodig te hebben?

Laten we het voor de duidelijkheid maar uitgaan van een compleet nieuw systeem... Dan komen we uit op:
Processor
Moederbord
Werkgeheugen
Voeding
Schijven
OS
Fan voor koeling

Heb je nog bepaalde voorkeuren? Waarom?

Geen voorkeuren mbt hardware-fabrikanten. Laten we in eerste instantie uitgaan van een stil systeem aangezien hij waarschijnlijk op mijn slaapkamer komt. Andere plaatsen in huis zijn ook zeker mogelijk, maar moet ik nog overwegen ivm netwerkkabels, temperaturen en luchtvochtigheid.
Wel heb ik nagedacht over mogelijke schijfconfiguratie:
1 x 2,5" voor OS (al in bezit).
1 x 1TB voor 1:1 kopie NAS (in principe in bezit, draait in huidige pc als opslag schijf maar opslag is straks dus overbodig).
1 x 2TB voor media opslag (niet aanwezig) Moet dus later uitgebreid kunnen worden.
1 of 2 TB schijven, 2 stuks voor eigen back-ups (Raid 1?) + belangrijke documenten die vanaf internet toegankelijk zijn.


Graag ontvang ik jullie feedback over bovenstaande wensen en schijf-configuraties. Wellicht een laatste puntje is dat het niet echt haast heeft, dus eventuele aankomende geschikte hardware is op te wachten.

Bedankt!!!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 23:39
Goed begin, maar er wordt wel van je verwacht dat je zelf met een setup komt. Jouw "eisen" zijn echt totaal niet zwaar, dus met elke setup kom je wel weg. Als ik jou was zou ik gewoon een zo zuinig mogelijk setup neerzetten.

Daarnaast zou ik sowieso met de huidige prijzen geen enkel 1TB-schijf meer kopen, maar alleen 2TB-schijven omdat deze qua prijs het beste naar voren komt. Je geeft zelf al aan dat je in het bezit ben van een 2.5" schijf voor je OS, zo zou ik het ook aanpakken. En als je nog een 2.5" schijf over hebt voor je downloadcache gebruiken.

[ Voor 19% gewijzigd door GioStyle op 13-09-2011 17:26 ]


Verwijderd

Ik wil graag een NAS aanschaffen. Ik twijfel tussen

http://www.misco.nl/Produ...3-5Inch-SATA-Marvell-1-6G

of

http://www.misco.nl/Produ...Info?productCode=10121307


Wat is jullie mening?

  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 31-08 10:48
Je begrijpt dat dit "Het grote DO IT YOURSELF" topic is? Zelf kopen in de winkel telt niet :+

Heb je namelijk een ander topic voor (link)

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


Verwijderd

Zware Unit schreef op dinsdag 13 september 2011 @ 21:48:
[...]

Je begrijpt dat dit "Het grote DO IT YOURSELF" topic is? Zelf kopen in de winkel telt niet :+

Heb je namelijk een ander topic voor (link)
Mijn excuus

  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 21-12 09:31
Ik vrees toch dat de zaken hier niet zo stabiel lopen:

root@vFileserver:/home/jens# mdadm --detail /dev/md0
mdadm: metadata format 01.02 unknown, ignored.
/dev/md0:
        Version : 01.02
  Creation Time : Sun Aug 28 21:34:37 2011
     Raid Level : raid5
     Array Size : 13674590720 (13041.11 GiB 14002.78 GB)
  Used Dev Size : 3907025920 (3726.03 GiB 4000.79 GB)
   Raid Devices : 8
  Total Devices : 8
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Mon Sep 12 23:17:39 2011
          State : clean
 Active Devices : 8
Working Devices : 8
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

           Name : vFileserver:0  (local to host vFileserver)
           UUID : 4c1aca9c:1041f1dd:cda70471:c66d7cc2
         Events : 34928

    Number   Major   Minor   RaidDevice State
       1       8       16        0      faulty spare rebuilding   /dev/sdb
       6       8      112        1      active sync   /dev/sdh
       2       8       32        2      faulty spare rebuilding   /dev/sdc
       3       8       48        3      faulty spare rebuilding   /dev/sdd
       5       8       64        4      faulty spare rebuilding   /dev/sde
       7       8      128        5      active sync   /dev/sdi
       0       8       80        6      faulty spare rebuilding   /dev/sdf
       8       8       96        7      active sync   /dev/sdg
root@vFileserver:/home/jens# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sdb[1](F) sdg[8] sdd[3](F) sdi[7] sdh[6] sdc[2](F) sdf[0](F) sde[5](F)
      13674590720 blocks super 1.2 level 5, 512k chunk, algorithm 2 [8/3] [_U___U_U]

unused devices: <none>


Ik kan de array wel nog browsen, dit lijkt mij toch niet normaal of mis ik iets? :?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Klinkt inderdaad een beetje eng... Ik vraag me af waarom je metadata ignored word (bovenin)...

Even niets...


  • Loekie
  • Registratie: Juli 2001
  • Laatst online: 22-12 12:28
Je dev-size lijkt ook verkeerd, je hebt toch 2TB en niet 4TB schijven?

specs


  • WhySoSerious
  • Registratie: Maart 2009
  • Laatst online: 22:31

WhySoSerious

Be the change.

GioStyle schreef op dinsdag 13 september 2011 @ 17:25:
Goed begin, maar er wordt wel van je verwacht dat je zelf met een setup komt. Jouw "eisen" zijn echt totaal niet zwaar, dus met elke setup kom je wel weg. Als ik jou was zou ik gewoon een zo zuinig mogelijk setup neerzetten.

Daarnaast zou ik sowieso met de huidige prijzen geen enkel 1TB-schijf meer kopen, maar alleen 2TB-schijven omdat deze qua prijs het beste naar voren komt. Je geeft zelf al aan dat je in het bezit ben van een 2.5" schijf voor je OS, zo zou ik het ook aanpakken. En als je nog een 2.5" schijf over hebt voor je downloadcache gebruiken.
True, ik heb in de loop van de tijd wel enkele basis-setups samengesteld (g620 of 2100T zoals die ook vaker in dit topic naar voren komt) maar vroeg me af of deze voldoende waren. Nu blijkt van wel gelukkig :) Daar kom ik dan ook wel uit.
Volgende vraag is het OS. Voldoet Windows Home Server 2011 hieraan of stellen jullie partijen als FreeNas 8.0 voor?

Gr Sjoerd

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Enige reden om WHS te gebruiken is omdat je echt niet met Linux om zou kunnen gaan en te beroerd bent om een webinterface te gebruiken.

FreeNAS heeft 99/100 dingen die WHS heeft en zelfs meer.

Enige wat het mist is een automagische backup, maar dat is vanaf je client ook wel te regelen.
FreeNAS heeft sowieso ZFS, dat is altijd beter dan wat WHS heeft.

Even niets...


  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 21-12 09:31
FireDrunk schreef op woensdag 14 september 2011 @ 08:14:
Klinkt inderdaad een beetje eng... Ik vraag me af waarom je metadata ignored word (bovenin)...
Inderdaad, ik ga de array maar eens opnieuw aanmaken denk ik:

root@vFileserver:/home/jens# mdadm --detail /dev/md0
mdadm: metadata format 01.02 unknown, ignored.
/dev/md0:
        Version : 01.02
  Creation Time : Sun Aug 28 21:34:37 2011
     Raid Level : raid5
     Array Size : 13674590720 (13041.11 GiB 14002.78 GB)
  Used Dev Size : 3907025920 (3726.03 GiB 4000.79 GB)
   Raid Devices : 8
  Total Devices : 8
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Wed Sep 14 00:36:05 2011
          State : clean, degraded
 Active Devices : 3
Working Devices : 3
 Failed Devices : 5
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

           Name : vFileserver:0  (local to host vFileserver)
           UUID : 4c1aca9c:1041f1dd:cda70471:c66d7cc2
         Events : 34934

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       6       8      112        1      active sync   /dev/sdh
       2       0        0        2      removed
       3       0        0        3      removed
       4       0        0        4      removed
       7       8      128        5      active sync   /dev/sdi
       6       0        0        6      removed
       8       8       96        7      active sync   /dev/sdg

       0       8       80        -      faulty spare   /dev/sdf
       1       8       16        -      faulty spare   /dev/sdb
       2       8       32        -      faulty spare   /dev/sdc
       3       8       48        -      faulty spare   /dev/sdd
       5       8       64        -      faulty spare   /dev/sde
Loekie schreef op woensdag 14 september 2011 @ 08:45:
Je dev-size lijkt ook verkeerd, je hebt toch 2TB en niet 4TB schijven?
Inderdaad, 8 2TB schijven...

Verwijderd

Ik begin een beetje moe te worden van die disks hier:

code:
1
2
3
4
5
6
7
8
9
10
11
Sep 14 13:51:39 neo-server kernel: [ 3643.070544] raid5_end_read_request: 42 callbacks suppressed
Sep 14 13:51:39 neo-server kernel: [ 3643.070547] md/raid:md0: read error not correctable (sector 750279504 on sdb1).
Sep 14 13:51:39 neo-server kernel: [ 3643.070552] md/raid:md0: read error not correctable (sector 750279512 on sdb1).
Sep 14 13:51:39 neo-server kernel: [ 3643.070555] md/raid:md0: read error not correctable (sector 750279520 on sdb1).
Sep 14 13:51:39 neo-server kernel: [ 3643.070558] md/raid:md0: read error not correctable (sector 750279528 on sdb1).
Sep 14 13:51:39 neo-server kernel: [ 3643.070561] md/raid:md0: read error not correctable (sector 750279536 on sdb1).
Sep 14 13:51:39 neo-server kernel: [ 3643.070564] md/raid:md0: read error not correctable (sector 750279544 on sdb1).
Sep 14 13:51:39 neo-server kernel: [ 3643.070566] md/raid:md0: read error not correctable (sector 750279552 on sdb1).
Sep 14 13:51:39 neo-server kernel: [ 3643.070569] md/raid:md0: read error not correctable (sector 750279560 on sdb1).
Sep 14 13:51:39 neo-server kernel: [ 3643.070572] md/raid:md0: read error not correctable (sector 750279568 on sdb1).
Sep 14 13:51:39 neo-server kernel: [ 3643.070575] md/raid:md0: read error not correctable (sector 750279576 on sdb1).


code:
1
2
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       6


Klinkt als weer een RMA.

edit op /dev/sda falen nu opeens ook 6 reads? Nu komen die schijven wel uit dezelfde batch, maar dit is wel heel toevallig

[ Voor 4% gewijzigd door Verwijderd op 14-09-2011 16:16 ]


Verwijderd

Raw Read Error Rate is niets mis mee; post je Current Pending Sector en UDMA CRC Error count waarde eens, van al je schijven.

Verwijderd

sda:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       6
  3 Spin_Up_Time            0x0027   205   168   021    Pre-fail  Always       -       4741
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       136
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       66
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       132
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       116
193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       91
194 Temperature_Celsius     0x0022   115   107   000    Old_age   Always       -       35
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       3
198 Offline_Uncorrectable   0x0030   100   253   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       1
200 Multi_Zone_Error_Rate   0x0008   100   253   000    Old_age   Offline      -       0


sdb
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       6
  3 Spin_Up_Time            0x0027   202   192   021    Pre-fail  Always       -       4900
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       7
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   100   253   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       3
 10 Spin_Retry_Count        0x0032   100   253   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   253   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       6
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       5
193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       1
194 Temperature_Celsius     0x0022   114   114   000    Old_age   Always       -       36
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       3
198 Offline_Uncorrectable   0x0030   100   253   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   100   253   000    Old_age   Offline      -       0


sdc
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   100   253   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   202   168   021    Pre-fail  Always       -       4900
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       60
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       68
 10 Spin_Retry_Count        0x0032   100   253   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   253   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       55
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       42
193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       1275
194 Temperature_Celsius     0x0022   115   106   000    Old_age   Always       -       35
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   100   253   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   100   253   000    Old_age   Offline      -       0

Verwijderd

Zoals je ziet hebben sda en sdb beide 3 Pending Sectors; dat is je probleem en niet de raw read error rate. Dat laatste is een indicatie hoe vaak de schijf ECC error correctie moet toepassen en is een algehele indicator voor media (platter) kwaliteit.

Je hebt dus 3 pending sectors op twee disks, dat is iets waar Linux RAID je niet erg goed tegen beschermt. Je zou die sectoren kunnen zero-writen dan verdwijnen ze, maar omdat dit bij 2 disks voordoet is dat vervelend. Wil je een oplossing waarbij je geen problemen meer hebt met bad sectors kun je ZFS overwegen, die gaat veel intelligenter om met dit probleem.

Verwijderd

Ik was er al bang voor, ik heb een half uurtje geleden inderdaad een dd gestart om die disks volledig vol te schrijven, just to be sure... mdadm vindt het in ieder geval absoluut niet leuk, dus ik begin toch naar zfs te neigen. Ik moet me dan alleen wel in freebsd gaan verdiepen, onder Linux heb ik dat systeempje nou net zo mooi op 18w idle excl. disks draaien :)

[ Voor 3% gewijzigd door Verwijderd op 14-09-2011 16:41 ]


  • lowfi
  • Registratie: Januari 2004
  • Laatst online: 22:35
Spoooky schreef op maandag 12 september 2011 @ 16:04:
Wie van jullie laat zijn linux NAS een powerdown doen? En op welke manier?
Elke nacht om 2 uur via een cron job. 4 uur snachts in het weekend. Weer aan via wol of bios.

  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 21-12 09:31
echo 1 > /sys/block/sdb/device/queue_depth


NCQ uitgezet voor al mijn schijven aangezien regelmatig te lezen valt dat dit voor uitgooien van disks kan zorgen.
De array volledig gewist en terug aangemaakt:

root@vFileserver:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sdc[1] sdd[2] sdi[7] sde[3] sdf[4] sdb[0] sdh[6] sdg[5]
      13674601472 blocks level 5, 64k chunk, algorithm 2 [8/8] [UUUUUUUU]

unused devices: <none>
root@vFileserver:~# mdadm --detail /dev/md0
mdadm: metadata format 00.90 unknown, ignored.
/dev/md0:
        Version : 00.90
  Creation Time : Wed Sep 14 12:07:02 2011
     Raid Level : raid5
     Array Size : 13674601472 (13041.12 GiB 14002.79 GB)
  Used Dev Size : 1953514496 (1863.02 GiB 2000.40 GB)
   Raid Devices : 8
  Total Devices : 8
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Wed Sep 14 19:14:23 2011
          State : clean
 Active Devices : 8
Working Devices : 8
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           UUID : 01d966a1:d3381980:7f56331e:2e1885c7
         Events : 0.42

    Number   Major   Minor   RaidDevice State
       0       8       16        0      active sync   /dev/sdb
       1       8       32        1      active sync   /dev/sdc
       2       8       48        2      active sync   /dev/sdd
       3       8       64        3      active sync   /dev/sde
       4       8       80        4      active sync   /dev/sdf
       5       8       96        5      active sync   /dev/sdg
       6       8      112        6      active sync   /dev/sdh
       7       8      128        7      active sync   /dev/sdi


"Used Dev Size" staat nu toch terug correct.

Iemand info of opmerkingen omtrent het uitschakelen van NCQ, laat iets weten aub O+

[ Voor 3% gewijzigd door BlackShadow op 14-09-2011 19:25 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Ik heb aan staan, nooit problemen mee gehad.

Even niets...


  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 21-12 09:31
En terug problemen:

root@vFileserver:~# mdadm --detail /dev/md0
mdadm: metadata format 00.90 unknown, ignored.
/dev/md0:
        Version : 00.90
  Creation Time : Wed Sep 14 12:07:02 2011
     Raid Level : raid5
     Array Size : 13674601472 (13041.12 GiB 14002.79 GB)
  Used Dev Size : 1953514496 (1863.02 GiB 2000.40 GB)
   Raid Devices : 8
  Total Devices : 8
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Wed Sep 14 20:03:42 2011
          State : clean, degraded
 Active Devices : 3
Working Devices : 3
 Failed Devices : 5
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           UUID : 01d966a1:d3381980:7f56331e:2e1885c7
         Events : 0.46

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       0        0        1      removed
       2       0        0        2      removed
       3       0        0        3      removed
       4       0        0        4      removed
       5       8       96        5      active sync   /dev/sdg
       6       8      112        6      active sync   /dev/sdh
       7       8      128        7      active sync   /dev/sdi

       8       8       32        -      faulty spare   /dev/sdc
       9       8       16        -      faulty spare   /dev/sdb
      10       8       48        -      faulty spare   /dev/sdd
      11       8       64        -      faulty spare   /dev/sde
      12       8       80        -      faulty spare   /dev/sdf
root@vFileserver:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sdc[8](F) sdb[9](F) sdh[6] sdg[5] sdd[10](F) sde[11](F) sdi[7] sdf[12](F)
      13674601472 blocks level 5, 64k chunk, algorithm 2 [8/3] [_____UUU]

unused devices: <none>

  • Q
  • Registratie: November 1999
  • Nu online
sloth schreef op dinsdag 06 september 2011 @ 00:39:
* sloth kan wat advies gebruiken bij de keuze van een file system

Het gaat hierbij om enkel losse 2TB (Samsung HD204UI) disks zonder RAID. De bestanden die erop komen zijn gemiddeld tussen de 50 en 100MB en er zal vooral van gelezen worden.
Verder hecht ik belang aan stabiliteit en betrouwbaarheid maar ook hoge readspeeds zou ik wel zo prettig vinden.

ZFS valt helaas af doordat hiervoor nog altijd een BSD of Solaris OS nodig is, terwijl ik de data vanuit Debian wil benaderen.

Zelf kwam ik bij xfs en ext4 uit, met een voorkeur voor xfs met dank aan de lovende berichten van Q in dit topic ;)

Wat me nog tegenhoud om voor XFS te gaan is het dataloss verhaal. De server komt voorlopig niet achter een UPS te houden, en ik lees dat je dan bij een powerfailure data kan verliezen.

Uit de XFS FAQ lees ik dan weer:


[...]


Als ik dit goed begrijp verlies je dus alleen maar de 32MB data in de cache indien er bij een stroomonderbreking naar de disk geschreven wordt?
Dit zou dan voor mij niet zo'n issue zijn. De stroomtoevoer is (erg) stabiel en wil de disks 75% van de tijd read only mounten.

Kan iemand hier wat opheldering over geven?

indien dit teveel offtopic gaat open ik wel een topic in NOS
Met stroomuitval is er altijd dataverlies. Waar het om gaat is dat je filesystem zelf niet corrupt raakt. XFS handeld dat wel ok af en EXT4 ook.

Als je niet over de 16 TB gaat in 1 filesystem dan is EXT4 ook goed, alhoewel ik onder ubuntu alleen maar slechte performance heb gehad met EXT4 op een desktop.

Ik draai zelf nu 2 jaar met XFS op mijn NASsen en nooit issues gehad.

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Verwijderd schreef op woensdag 14 september 2011 @ 16:39:
Ik moet me dan alleen wel in freebsd gaan verdiepen, onder Linux heb ik dat systeempje nou net zo mooi op 18w idle excl. disks draaien :)
Als je Linux snapt dan snap je BSD ook heel snel :) Lees gewoon eens het handboek door dan zie je al snel hoe en wat je kan doen straks.

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
De LSI-achtigen van de vorige generatie (3081E-R, Intel SASUC8i, etc), ondersteunen die nu eigenlijk disks van >=3TB? Ik vind voornamelijk informatie die nogal tegenstrijden en/of onduidelijk is.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

HarmoniousVibe schreef op donderdag 15 september 2011 @ 14:48:
De LSI-achtigen van de vorige generatie (3081E-R, Intel SASUC8i, etc), ondersteunen die nu eigenlijk disks van >=3TB? Ik vind voornamelijk informatie die nogal tegenstrijden en/of onduidelijk is.
In het grote ZFS topic heb ik er een klein lijstje voor gemaakt.


Controller/HBA3GB/6GB3TB
LSI SAS 9211-8i (SAS9211-8I/SGL)6GB/sondersteund
IBM M1015 (LSI SAS 9220-8i/9210-8i)6GB/sondersteund
LSI LSI SAS3081E-R-SGL3GB/sziet 2.2 TB
Intel RAID Controller SASUC8I3GB/sziet 2.2 TB
IBM ServeRAID-BR10i (LSI SAS3082E-R)3GB/sziet 2.2 TB


De gebruikte info komt uit readme's van firmware/bios upgrades van de desbetreffende controller/ info op de website van de producent en uit gebruikers ervaringen op diverse ZFS fora.

[ Voor 4% gewijzigd door Pantagruel op 15-09-2011 15:20 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 21-12 09:31
BlackShadow schreef op woensdag 14 september 2011 @ 20:06:
En terug problemen:

root@vFileserver:~# mdadm --detail /dev/md0
mdadm: metadata format 00.90 unknown, ignored.
/dev/md0:
        Version : 00.90
  Creation Time : Wed Sep 14 12:07:02 2011
     Raid Level : raid5
     Array Size : 13674601472 (13041.12 GiB 14002.79 GB)
  Used Dev Size : 1953514496 (1863.02 GiB 2000.40 GB)
   Raid Devices : 8
  Total Devices : 8
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Wed Sep 14 20:03:42 2011
          State : clean, degraded
 Active Devices : 3
Working Devices : 3
 Failed Devices : 5
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           UUID : 01d966a1:d3381980:7f56331e:2e1885c7
         Events : 0.46

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       0        0        1      removed
       2       0        0        2      removed
       3       0        0        3      removed
       4       0        0        4      removed
       5       8       96        5      active sync   /dev/sdg
       6       8      112        6      active sync   /dev/sdh
       7       8      128        7      active sync   /dev/sdi

       8       8       32        -      faulty spare   /dev/sdc
       9       8       16        -      faulty spare   /dev/sdb
      10       8       48        -      faulty spare   /dev/sdd
      11       8       64        -      faulty spare   /dev/sde
      12       8       80        -      faulty spare   /dev/sdf
root@vFileserver:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sdc[8](F) sdb[9](F) sdh[6] sdg[5] sdd[10](F) sde[11](F) sdi[7] sdf[12](F)
      13674601472 blocks level 5, 64k chunk, algorithm 2 [8/3] [_____UUU]

unused devices: <none>
Blijf het toch vreemd vinden...
Heb toen gereboot en MDADM begon de array te recoveren.
Zonet bijna 3TB aan data versluisd naar de array en geen enkel probleem....

Mocht er iemand zijn licht hierover kunnen laten schijnen, laat aub iets weten want ik ben ten einde raad... :F

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Je hebt nog steeds die Metadata error....

Even niets...


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op donderdag 15 september 2011 @ 16:14:
Je hebt nog steeds die Metadata error....
Wellicht helpt het om de extra voorloper 0 te verwijderen, zie deze link en naar een nieuwere versie van mdadm over te stappen.

[ Voor 7% gewijzigd door Pantagruel op 15-09-2011 16:38 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • Q
  • Registratie: November 1999
  • Nu online
code:
1
2
3
4
root@server:~# mdadm --detail /dev/md5
/dev/md5:
        Version : 1.2
  Creation Time : Sun Jun 26 18:27:35 2011


Waarom gebruik je een oude mdadm raid type?

Hmmm. moet niet uitmaken? dit is mijn oude 18 TB nasje,

code:
1
2
3
Bunny:~# mdadm --detail /dev/md5
/dev/md5:
        Version : 0.90


Ik ben zelf gewoon niet zo voorstander van een NAS virtueel draaien. Velen doen dit, maar op het metaal vind ik veiliger en ik durf te wedden dat de issues dan wel eens weg zouden kunnen zijn.

[ Voor 48% gewijzigd door Q op 15-09-2011 20:47 ]


  • TankiEEE
  • Registratie: Oktober 2004
  • Laatst online: 23-12 11:45
ff een kort vraagje, ik draai al enige tijd een Raidz2 array van 6x2TB en heb Freenas geïnstalleerd op een USB-stick (device number da4). Echter door ruimtegebrek wou ik hem nu uit gaan breiden met een 4x2TB Raidz array, maar zodra ik deze schijven aansluit in de NAS en daarna hem opstart dan krijg ik een mount root error.

Door zelf "ufs:da8s1a" in te typen vindt hij de root wel en start hij wel gewoon maar ik wil dit graag fixen zodat hij automatisch doorstart zonder dat ik na iedere reboot naar zolder moet lopen om dat commando in te voeren voordat ik mijn NAS kan gebruiken.

M.a.w. mijn USB stick heeft een ander device number gekregen doordat ik extra schijven heb toegevoegd (van da4 naar da8) en nu is mijn vraag of ik dit ergens kan wijzigen? Ik had al wel een tutorial gevonden hier maar dat houdt in dat je freenas opnieuw installeert en de pools export/import. Maar kan dit niet makkelijker?

Mini-ITX || Gigabyte H55N-USB3 | Core i7 870 | GTX460 | 4GB OCZ DDR3| Lian Li PC-Q11


  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 21-12 09:31
Q schreef op donderdag 15 september 2011 @ 20:42:
code:
1
2
3
4
root@server:~# mdadm --detail /dev/md5
/dev/md5:
        Version : 1.2
  Creation Time : Sun Jun 26 18:27:35 2011


Waarom gebruik je een oude mdadm raid type?

Hmmm. moet niet uitmaken? dit is mijn oude 18 TB nasje,

code:
1
2
3
Bunny:~# mdadm --detail /dev/md5
/dev/md5:
        Version : 0.90


Ik ben zelf gewoon niet zo voorstander van een NAS virtueel draaien. Velen doen dit, maar op het metaal vind ik veiliger en ik durf te wedden dat de issues dan wel eens weg zouden kunnen zijn.
Het is vreemd, ik heb de oude array verwijderd:, deze was Version : 01.02
Als ik hem (op dezelfde machine) terug aanmaak heb ik plots Version : 0.90

Wat betreft het virtuele, de volledige controller is "gepassthroughed" aan de VM, het zijn dus geen virtuele disks, maar effectief de controller en schijven zelf.

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 23:33
Q schreef op donderdag 15 september 2011 @ 20:42:
Waarom gebruik je een oude mdadm raid type?

Hmmm. moet niet uitmaken? dit is mijn oude 18 TB nasje,
Zou idd niet moeten uitmaken, bij aanmaken is de 0.90 layout is nog steeds de default.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Dan heb je een oude versie van MDADM denk ik... Die van mij zit ook al op 1.2 dacht ik.

Even niets...


  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 21-12 09:31
FireDrunk schreef op donderdag 15 september 2011 @ 22:03:
Dan heb je een oude versie van MDADM denk ik... Die van mij zit ook al op 1.2 dacht ik.
root@vFileserver:/home/jens# mdadm --version
mdadm - v2.6.7.1 - 15th October 2008

Ik draai Ubuntu 10.04 LTS

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

BlackShadow schreef op donderdag 15 september 2011 @ 22:26:
[...]


root@vFileserver:/home/jens# mdadm --version
mdadm - v2.6.7.1 - 15th October 2008

Ik draai Ubuntu 10.04 LTS
Volgens Neil Brown is ver 3.2.1 al weer een tijdje beschikbaar. De vraag is wel Ubuntu10.4.x lts een update zal krijgen.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 21-12 09:31
Pantagruel schreef op donderdag 15 september 2011 @ 23:08:
[...]


Volgens Neil Brown is ver 3.2.1 al weer een tijdje beschikbaar. De vraag is wel Ubuntu10.4.x lts een update zal krijgen.
Ik ben me momenteel aan het orienteren op de Linux markt (in het verleden beperkte ervaring en projectjes).
De overstap naar bvb debian is voor mij zeker mogelijk, ik hang met niets vast aan Ubuntu.

Het voordeel van virtuele machines is dat ik makkelijk een andere setup kan opzetten en mijn controller toewijs aan een andere machine.

Als jullie een beter besturingssysteem voor een NAS kunnen voorstellen, wil ik dit gerust proberen.


Edit:

En terug:

root@vFileserver:/home/jens# mdadm --detail /dev/md0
/dev/md0:
        Version : 00.90
  Creation Time : Wed Sep 14 20:16:53 2011
     Raid Level : raid5
     Array Size : 13674601472 (13041.12 GiB 14002.79 GB)
  Used Dev Size : 1953514496 (1863.02 GiB 2000.40 GB)
   Raid Devices : 8
  Total Devices : 8
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Thu Sep 15 21:19:34 2011
          State : clean
 Active Devices : 8
Working Devices : 8
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           UUID : 80fdc4c5:11a04fdd:04a416c6:9e7b9cf6
         Events : 0.48

    Number   Major   Minor   RaidDevice State
      11       8       16        0      faulty spare rebuilding   /dev/sdb
       8       8       32        1      faulty spare rebuilding   /dev/sdc
      12       8       48        2      faulty spare rebuilding   /dev/sdd
      10       8       64        3      faulty spare rebuilding   /dev/sde
       9       8       80        4      faulty spare rebuilding   /dev/sdf
       5       8       96        5      active sync   /dev/sdg
       6       8      112        6      active sync   /dev/sdh
       7       8      128        7      active sync   /dev/sdi
root@vFileserver:/home/jens# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sdc[8](F) sdi[7] sdf[9](F) sde[10](F) sdh[6] sdg[5] sdb[11](F) sdd[12](F)
      13674601472 blocks level 5, 64k chunk, algorithm 2 [8/3] [_____UUU]

unused devices: <none>


En de array blijft benaderbaar.... :)

Als extra info: sd[bcdef] zijn de samsungs, sd[ghi] zijn de WD's
Nu ziet hij alle Samsungs dus als "faulty spare rebuilding"

En iets later...

root@vFileserver:/home/jens# ls -alh /mnt/data/
total 8.0K
drwxrwxrwx 3 root root   17 2011-09-15 12:09 .
drwxr-xr-x 3 root root 4.0K 2011-08-30 22:55 ..
drwxr-xr-x 9 jens jens 4.0K 2011-09-15 20:31 YAMJ
root@vFileserver:/home/jens# ls -alh /mnt/data/YAMJ/
ls: reading directory /mnt/data/YAMJ/: Input/output error
total 0

[ Voor 61% gewijzigd door BlackShadow op 16-09-2011 07:58 ]


  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 23:33
FireDrunk schreef op donderdag 15 september 2011 @ 22:03:
Dan heb je een oude versie van MDADM denk ik... Die van mij zit ook al op 1.2 dacht ik.
Ik was uitgegaan van een (blijkbaar) verouderde handleiding, net even geprobeerd met 3.1.4 en krijg idd ook een version 1.20 superblock.

  • Oid
  • Registratie: November 2002
  • Niet online

Oid

TankiEEE schreef op donderdag 15 september 2011 @ 20:45:
ff een kort vraagje, ik draai al enige tijd een Raidz2 array van 6x2TB en heb Freenas geïnstalleerd op een USB-stick (device number da4). Echter door ruimtegebrek wou ik hem nu uit gaan breiden met een 4x2TB Raidz array, maar zodra ik deze schijven aansluit in de NAS en daarna hem opstart dan krijg ik een mount root error.

Door zelf "ufs:da8s1a" in te typen vindt hij de root wel en start hij wel gewoon maar ik wil dit graag fixen zodat hij automatisch doorstart zonder dat ik na iedere reboot naar zolder moet lopen om dat commando in te voeren voordat ik mijn NAS kan gebruiken.

M.a.w. mijn USB stick heeft een ander device number gekregen doordat ik extra schijven heb toegevoegd (van da4 naar da8) en nu is mijn vraag of ik dit ergens kan wijzigen? Ik had al wel een tutorial gevonden hier maar dat houdt in dat je freenas opnieuw installeert en de pools export/import. Maar kan dit niet makkelijker?
BIOS? http://sourceforge.net/ap...viewtopic.php?f=38&t=9558

http://forums.freebsd.org/showthread.php?t=9085

[ Voor 4% gewijzigd door Oid op 15-09-2011 23:54 ]


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

foutje

[ Voor 113% gewijzigd door Pantagruel op 16-09-2011 16:15 . Reden: foutje ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • fer974
  • Registratie: April 2008
  • Laatst online: 02-10 17:49
Ik heb hier de volgende setup voor mijn NAS:
#ProductPrijsSubtotaal
1Intel Core i5 2400€ 149,95€ 149,95
1Corsair Vengeance CMZ8GX3M2A1600C9€ 43,49€ 43,49
1Intel Desktop Board DQ67EPB3€ 105,20€ 105,20
Bekijk collectie
Importeer producten
Totaal€ 298,64


Ik wil hier esxi op gaan draaien met 3 a 4 VM's waarvan 1 als NAS geconfigureerd wordt. Nu ben ik alleen nog op zoek naar een goede 8 poorts raidkaart. Ik ben er alleen nog niet uit of ik software raid, of hardware raid zou gaan draaien. Ik heb gekeken naar ZFS wat me zeer interessant lijkt, maar daarvoor wordt geadviseerd om 1GB per TB aan geheugen toe te kennen. Aangezien ik het nu nog met 8GB geheugen moet doen en ook nog geheugen voor de andere VM's over wil houden is misschien toch hardware raid beter. Zou ZFS nog lekker draaien als ik maar 4GB toeken voor 8TB aan diskspace?

Verwijderd

fer974, heb je die hardware al, of ben je van plan dat te gaan kopen? Want ik zie problemen:
1) je hebt geen Vt-d dus hoe wil je controller/disks gaan doorgeven aan je NAS VM?
2) je hebt een moederbord met maar 2 DIMM slots; dus 16GiB voor 7 tientjes gaat dan niet lukken; dat is zonde als je ZFS wilt draaien!
3) ESXi zorgt voor extra stroomverbruik, dat doet je zuinige setup weer deels teniet; is dat wel de juiste weg?

Voor ZFS moet je rekenen op 8GiB RAM, dus met 16GiB fysiek RAM zou je dan goed zitten. Daarvoor heb je dan 4 DIMM slots nodig. Oh en kijk ook eens naar 1.25/1.35v geheugen als je extra zuinigheid wilt.

Ga je een FreeBSD of een Solaris platform draaien voor ZFS? Dat maakt erg uit; want FreeBSD doet het niet zo lekker met maar 4GiB geheugen. 8 poort HBA kun je kijken naar LSI 6Gbps SAS, SuperMicro USAS2-L8e bijvoorbeeld of de LSI/Intel variant met normale bracket. Ben nu even te lui om te zoeken, maar je kunt ze wel met google vinden. Merk op dat je controller in IT-mode moet kunnen draaien! 6Gbps LSI chip wordt onder BSD dacht ik alleen in IT mode firmware ondersteund.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Q67 en i5-2400 is toch een VT-d setje?

Even niets...


  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 23:39
Iemand had hier ooit een Sharkoon Rebel9 met 3 Cooler Masters' 4-in-3 modules gebruikt. Heeft iemand daar nog een foto van? Want ik kan hem niet meer terugvinden. 8)7

Never mind. Het was Borroz, klik hier.

[ Voor 26% gewijzigd door GioStyle op 18-09-2011 14:55 . Reden: Foto gevonden! ]


  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Waar heb je die foto voor nodig dan ?? Mocht het wat helpen : De 4in3 modules passen eigenlijk wel in elke kast met voldoende 5,25" ruimte :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 20-12 22:26

TrailBlazer

Karnemelk FTW

GioStyle schreef op zondag 18 september 2011 @ 14:52:
Iemand had hier ooit een Sharkoon Rebel9 met 3 Cooler Masters' 4-in-3 modules gebruikt. Heeft iemand daar nog een foto van? Want ik kan hem niet meer terugvinden. 8)7

Never mind. Het was Borroz, klik hier.
Ik heb die kast overgekocht dus als je vragen hebt?

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 23:39
Ik vind die combinatie een mooi gezicht. En aangezien mijn storage flink toeneemt door films/series en een 120mbit-Ziggolijntje, denk ik erover om gewoon een dedicated nas neer te zetten. Hoe bevalt de kast samen met de modules je? Het enige waar ik bang voor ben is dat de kast erg luidruchtig is wanneer je er 12 hardeschijven in hebt zitten. Hoe ervaar jij dat?

  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 20-12 22:26

TrailBlazer

Karnemelk FTW

ik heb er nu pas drie inzitten maar maakt nauwlijks herrie. Die bays zijn mooi opgehangen met een rubber afdekring dat dempt lekker.

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Ik heb zelf een Norco SS-500 (5 in 3, hotswap) met custom fan gekocht via V&A. Deze hangt in een Antec Sonata 550 Plus. Voorheen had ik gewoon 4 schijven in de normale 3,5"-bays hangen. Nu zijn er dus 5 bijgekomen. Ik hoor eerlijk gezegd geen enkel verschil in geluid. Het enige verschil is dat de schijven die in die module hangen een graad of 4 a 5 warmer zijn dan de schijven die onderin hangen (32 vs 37).

Wel moet ik erbij vermelden dat de Antec sowieso altijd al erg stille kast is met geluidsdempend materiaal aan de binnenkant en een goede ophanging in de bays. Ook gebruik ik louter SSD's en Green drives. Het zou dus kunnen dat je een dergelijke module in een andere kast of met andere schijven iets beter hoort.

Overigens lijkt het erop dat je ook de fan van de Coolermaster kunt vervangen, dus mocht deze wat luidruchtig zijn kun je hem altijd nog vervangen.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 22:31
Ik heb zelf een Sharkoon Rebel 12 met daarin (voorlopig) 2 IcyDock 5-in-3 hotswap modules.
Ik geef toe, verre van de goedkoopste oplossing, maar de combinatie bevalt me wel prima. Natuurlijk zal zoiets nooit helemaal stil zijn, maar ik ben toch erg tevreden over de geluidsproductie van deze opstelling.

Hoewel er nu dus twee van die modules inzitten, is het toch stiller dan mn Hyper-V server die ernaast staat met slechts een Addonics 4-in-3 module.

Als je wil zien hoe het eruit ziet, zie hier

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 23:39
Dat is ook een mooie setup. Hotswap is voor mij helaas een brug te ver vanwege de prijs. :)
Bedankt voor jullie input. Ik ga waarschijnlijk toch gewoon voor een Rebel9 met 3 Cooler Master 4-in-3 devicemodules. Plek voor 12 hardeschijven voor ongeveer 100 euro vind ik een mooie deal. :)

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Die Addonics staat er ook wel om bekend simpelweg lawaaiierig te zijn :). Maar die Coolermaster is volgens mij prima. Een vriend van me heeft er ook twee en die is er ook zeer over te spreken. Het is moeilijk te beoordelen hoe stil ze zijn, omdat de grootste bron van lawaai zijn actief gekoelde GPU is.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

GioStyle schreef op zondag 18 september 2011 @ 23:21:
Dat is ook een mooie setup. Hotswap is voor mij helaas een brug te ver vanwege de prijs. :)
Bedankt voor jullie input. Ik ga waarschijnlijk toch gewoon voor een Rebel9 met 3 Cooler Master 4-in-3 devicemodules. Plek voor 12 hardeschijven voor ongeveer 100 euro vind ik een mooie deal. :)
Dan zijn de 'beruchte' HDR-5's wellicht wat voor je, toch 5 in 3 voor een zeer zacht prijsje.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 21-12 09:31
BlackShadow schreef op donderdag 15 september 2011 @ 23:34:
[...]


Ik ben me momenteel aan het orienteren op de Linux markt (in het verleden beperkte ervaring en projectjes).
De overstap naar bvb debian is voor mij zeker mogelijk, ik hang met niets vast aan Ubuntu.

Het voordeel van virtuele machines is dat ik makkelijk een andere setup kan opzetten en mijn controller toewijs aan een andere machine.

Als jullie een beter besturingssysteem voor een NAS kunnen voorstellen, wil ik dit gerust proberen.


Edit:

En terug:

root@vFileserver:/home/jens# mdadm --detail /dev/md0
/dev/md0:
        Version : 00.90
  Creation Time : Wed Sep 14 20:16:53 2011
     Raid Level : raid5
     Array Size : 13674601472 (13041.12 GiB 14002.79 GB)
  Used Dev Size : 1953514496 (1863.02 GiB 2000.40 GB)
   Raid Devices : 8
  Total Devices : 8
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Thu Sep 15 21:19:34 2011
          State : clean
 Active Devices : 8
Working Devices : 8
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           UUID : 80fdc4c5:11a04fdd:04a416c6:9e7b9cf6
         Events : 0.48

    Number   Major   Minor   RaidDevice State
      11       8       16        0      faulty spare rebuilding   /dev/sdb
       8       8       32        1      faulty spare rebuilding   /dev/sdc
      12       8       48        2      faulty spare rebuilding   /dev/sdd
      10       8       64        3      faulty spare rebuilding   /dev/sde
       9       8       80        4      faulty spare rebuilding   /dev/sdf
       5       8       96        5      active sync   /dev/sdg
       6       8      112        6      active sync   /dev/sdh
       7       8      128        7      active sync   /dev/sdi
root@vFileserver:/home/jens# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sdc[8](F) sdi[7] sdf[9](F) sde[10](F) sdh[6] sdg[5] sdb[11](F) sdd[12](F)
      13674601472 blocks level 5, 64k chunk, algorithm 2 [8/3] [_____UUU]

unused devices: <none>


En de array blijft benaderbaar.... :)

Als extra info: sd[bcdef] zijn de samsungs, sd[ghi] zijn de WD's
Nu ziet hij alle Samsungs dus als "faulty spare rebuilding"

En iets later...

root@vFileserver:/home/jens# ls -alh /mnt/data/
total 8.0K
drwxrwxrwx 3 root root   17 2011-09-15 12:09 .
drwxr-xr-x 3 root root 4.0K 2011-08-30 22:55 ..
drwxr-xr-x 9 jens jens 4.0K 2011-09-15 20:31 YAMJ
root@vFileserver:/home/jens# ls -alh /mnt/data/YAMJ/
ls: reading directory /mnt/data/YAMJ/: Input/output error
total 0
Ondertussen alles draaiende op Ubuntu 11.04:
root@vfileserver:~# mdadm --version
mdadm - v3.1.4 - 31st August 2010
root@vfileserver:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sdd[2] sde[3] sdb[0] sdf[4] sdc[1] sdi[8] sdh[6] sdg[5]
      13674590720 blocks super 1.2 level 5, 512k chunk, algorithm 2 [8/8] [UUUUUUUU]

unused devices: <none>
root@vfileserver:~# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Sun Sep 18 23:01:21 2011
     Raid Level : raid5
     Array Size : 13674590720 (13041.11 GiB 14002.78 GB)
  Used Dev Size : 1953512960 (1863.02 GiB 2000.40 GB)
   Raid Devices : 8
  Total Devices : 8
    Persistence : Superblock is persistent

    Update Time : Mon Sep 19 18:58:37 2011
          State : active
 Active Devices : 8
Working Devices : 8
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

           Name : vfileserver:0  (local to host vfileserver)
           UUID : 3d4f9fe6:dd2b1ae9:93120f3d:52b44ff8
         Events : 14380

    Number   Major   Minor   RaidDevice State
       0       8       16        0      active sync   /dev/sdb
       1       8       32        1      active sync   /dev/sdc
       2       8       48        2      active sync   /dev/sdd
       3       8       64        3      active sync   /dev/sde
       4       8       80        4      active sync   /dev/sdf
       5       8       96        5      active sync   /dev/sdg
       6       8      112        6      active sync   /dev/sdh
       8       8      128        7      active sync   /dev/sdi


Draait nu de hele namiddag al stabiel met de 8 schijven.
Op hoop van zegen.

Info of tips nog steeds welkom O-)

[ Voor 20% gewijzigd door BlackShadow op 19-09-2011 20:04 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Ziet er weer netjes uit!
(ik zie ook geen metadata foutmeldingen meer... Heb je daar expliciet iets aan gedaan?)

Even niets...


  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 21-12 09:31
FireDrunk schreef op maandag 19 september 2011 @ 20:08:
Ziet er weer netjes uit!
(ik zie ook geen metadata foutmeldingen meer... Heb je daar expliciet iets aan gedaan?)
Eigenlijk was dat vrij simpel: In de ARRAY regel in mdadm.conf de leading 0 weg gedaan :)
Is een bugje als je mdadm --scan doet blijkbaar.

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

BlackShadow schreef op maandag 19 september 2011 @ 20:15:
[...]


Eigenlijk was dat vrij simpel: In de ARRAY regel in mdadm.conf de leading 0 weg gedaan :)
Is een bugje als je mdadm --scan doet blijkbaar.
LOL, dat had ik al eerder vermeldt om dat eens te proberen.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 21-12 09:31
Pantagruel schreef op maandag 19 september 2011 @ 20:18:
[...]


LOL, dat had ik al eerder vermeldt om dat eens te proberen.
Klopt, op donderdag 15 september 2011 16:37 meerbepaald :)
Nogmaals bedankt ook voor de hulp!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Na een poosje mijn mITX setjes aan de kant hebben laten liggen, vandaag maar weer een (honderste) poging gedaan. En je raad het al... Vandaag lukte het wel :P
Vertel me niet waarom, maar ik zit nu op 25W idle, wat mij zeer aannemelijk lijkt voor mijn config.
Enige verschil is nu volgens mij dat ik het andere bordje heb gebruikt, waar de voeding niet van kapot is...

Misschien was de voeding van dat andere bordje al gaar toen ik hem kocht, en verbruikte hij daarom wel meer...

Even niets...


  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 31-08 10:48
Gisternacht tot diep in de nacht bezig geweest met het aan de praat krijgen van mijn nieuwe moederbord, CPU, controller en geheugen. Voornamelijk de oude versie van de BIOS en controller FIRMWARE deden erg moeilijk en wilde niet samen spelen. BIOS update verliep dmv een old school DOS USB bootdisk. Firmware van de LSI controller moest ik via de ingebouwde EFI shell updaten. Men is (blijkbaar) ooit te oud om te leren.... duurt alleen wat langer dan vroeger :+

Resultaat is een stabiele NAS die momenteel op FreeNAS 8.0.1 RC2 draait.

#ProductPrijsSubtotaal
1LSI SAS 9201-16i€ 366,90€ 366,90
1Intel Core i3 2100T Boxed€ 103,-€ 103,-
2Hynix HMT351U7BFR8C-H9T0€ 55,50€ 111,-
1Supermicro X9SCM-F€ 176,90€ 176,90

Reclame: oude set staat te koop op V&A (link)

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


  • sloth
  • Registratie: Januari 2010
  • Niet online
Waarom ben je voor de i3 2100T gegaan als ik mag vragen? Duurder en trager dan de i3 2100, en tenzij je vaak onder full load draait niet zuinger.

  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 31-08 10:48
Aangezien ik hem passief heb draaien in mijn setup heb ik voor de 2100T gekozen. Scheelde 10 euro en CPU performance heeft mijn NAS niet nodig. Zelfs bij full load van Netatalk blijft de CPU load onder de 35%.

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...

Pagina: 1 ... 82 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.