• _-= Erikje =-_
  • Registratie: Maart 2000
  • Laatst online: 22-12 10:00
Turk, zit je wel naar de zelfde share te kijken? (niet dat je wat anders exporteerd met de naam data :))

  • Psycho_Bartje
  • Registratie: Januari 2010
  • Laatst online: 22-12 23:16
Psycho_Bartje schreef op zaterdag 24 september 2011 @ 11:32:
Wil ik na lang uitzoeken, wikken & wegen eindelijk de spullen voor mijn nieuwe NAS gaan bestellen, blijkt het Supermicro bord ineens slecht leverbaar. :(

Dan maar "op safe" gegaan en de volgende onderdelen besteld:
#ProductPrijsSubtotaal
1Intel Server Board S1200BTS€ 156,90€ 156,90
1LSI SAS 9211-8i (SAS9211-8I/SGL)€ 210,13€ 210,13
1Intel Xeon E3-1220 Boxed€ 171,72€ 171,72
1Scythe Mugen 2 Rev. B€ 34,-€ 34,-
2Kingston ValueRAM KVR1333D3E9SK2/8GI€ 67,48€ 134,96
Bekijk collectie
Importeer producten
Totaal€ 707,71


Wellicht had het goedkoper gekund door ipv van de LSI bijvoorbeld een rebranded IBM te nemen en andere geheugenmodules (ICIDU), maar hiermee verwacht ik een hopelijk probleemloze installatie.

Nu nog 5 Samsungs 2TB erbij een dan een RAID-Z2 met in totaal 10 schijven onder FreeNAS opzetten als alles komende week (hopelijk) binnen is :) Kijken of mij dat als oefenTweaker lukken gaat....
Helaas laten het moederbord en de LSI SAS nog even op zich wachten.
Wel alvast even met de Voltcraft Energy Logger 4000 (dank voor de adviezen _/-\o_ ) mijn huidige NAS maar eens even qua Idle verbruik gemeten; valt me toch tegen
(voor de tabel even leentjebuur gespeeld in het 10+ TB topic ;) )


System specifications
ComponentValue
Case Zalman MS1000-HS2
CPU AMD Athlon II X2 240E
RAM Kingston ValueRAM KVR800D2N6K2/2G
Motherboard Gigabyte GA-MA74GM-S2H
Operating system Windows Home Server 1
ControllerPromise FastTrak SATA 300 TX4
Hard drive Western Digital Caviar Green WD10EADS, 1TB (1x)
Samsung EcoGreen F4EG HD204UI, 2TB (5x)
Samsung EcoGreen F3EG, 2TB (1x)
RAID array configuration Drive Extender
Netto storage capacity6.5 TB
Network Gigabit
UPSNee
FilesystemWHS
Idle power usage75 Watt (zonder spindown volgens mij)
Extra


Hopelijk binnenkort: wordt vervolgd als de nieuwe spullen (incl de 5 extra 2TB Samsungs) binnen zijn

  • Turk
  • Registratie: Mei 2010
  • Laatst online: 05-12 21:43
_-= Erikje =-_ schreef op donderdag 29 september 2011 @ 14:28:
Turk, zit je wel naar de zelfde share te kijken? (niet dat je wat anders exporteerd met de naam data :))
Nee, ik heb alleen maar 1 data en dat is een gstripe RAID 0


Schijf Bestandssysteem Naam Omschrijving Status
/dev/stripe/datap1 ufs data OK

Ik ben niet helemaal thuis in FreeNAS, maar als dit opgelost kan worden ben ik er zeer tevreden mee

  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
Als je deze drie commando's uitvoert weet je waarschijnlijk wat er aan de hand is ;)
En even leest wat ze doen ..... gebruik daarvoor google of man ;)
df -h
zfs -list
zfs list -t snapshot

  • B3U5
  • Registratie: December 2001
  • Laatst online: 31-10 13:10
jantje112 schreef op dinsdag 27 september 2011 @ 19:01:
Ok, ik ben lui vandaag.

Ik heb al diverse opties bekeken. Momenteel een ch3snas in de meterkast, maar ik wil wat meer power.

Behuizing twijfel ik nog. Minimaal 6 3.5discs (6*3) en een SSD (voor cache) Ik ga unraid gebruiken.
Keus is A. Fractal array B. Lian Li 08 C.?

Moederbord (6 of 7 Sata zou mooi zijn!)
A. Atom B. AMD Fusion C. ? (Sandy of Ivy bridge?) D. Toch dat VIA ding?

Voeding
A. Pico B. Zuinige ATX C. Iets wat nog in de kast ligt..

Ik wil draaien op unraid, systeem zal doordeweeks met name stil staan. Dus zuinigheid is belangrijk.

Budget, in redelijkheid oneindig..


Wie kan mij helpen met de afweging?
Een i3/i5 is imo beter dan de huidige atoms, daar je zaken hebt als rush to idle en ongeduld ;) Persoonlijk ga ik voor een i5 ivm aantal cores/threads/turbo en power ivm draaien van virtual machines. Onderstaand mobo heeft 2x sata 600, 5x sata 300:
#ProductPrijsSubtotaal
1Intel Core i5 2500 Boxed€ 170,57€ 170,57
1Kingston ValueRAM KVR1333D3N9K2/8G€ 40,-€ 40,-
1Intel BOXDH67CLB3€ 86,76€ 86,76
Bekijk collectie
Importeer producten
Totaal€ 297,33

Maar als je de SSD via je chipset als cache wil gebruiken wil je wellicht de Z68 chipset? Een kort door de bocht search op tweakers leverde mij op (4x sata 300 en 6x sata 600 :9~ ):
#ProductPrijsSubtotaal
1Asrock Fatal1ty Z68 Professional Gen3€ 220,30€ 220,30
Bekijk collectie
Importeer producten
Totaal€ 220,30

Maar al die extra chips op zo'n gamers bord vreten wel stroom, vergeet niet dat 5W op jaarbasis neerkomt op 10€ stroomkosten...

Trekt een pico zoveel schijven tijdens boot of weet je een staggered spin up te bewerkstelligen? Anders zou ik voor een efficiënte low power atx gaan.

pricewatch: Asus P8Z68-V PRO is de goedkoopste 1156/z68 die ik tegenkwam met meer dan 6 sata controllers, 4 om 4 om precies te zijn. Binnen een tientje kun je ook voor een Gigabyte, AsRock of MSI variant gaan met 4/4 sata als je voorkeur daar naar uitgaat.

[ Voor 4% gewijzigd door B3U5 op 30-09-2011 15:31 . Reden: toevoeging ]


  • NIK0
  • Registratie: Mei 2002
  • Laatst online: 22-12 13:07
Pfffff...forum broeders kan iemand mij even naar de juiste post verwijzen :F

Opsporing Verzocht:
Ik zat gisteren een post met pics te bewonderen van een tweaker met een kast voorzien van rode en groene ductape (uit mijn hoofd) een Corsair voeding en Chieftec SST-3141SAS modules? Ik heb op alle mogelijke termen gezocht maar ik kan de post NIET meer terug vinden en begint frustrerend te worden.
Weet ook niet meer of ik 'm in deze thread of de Storage showoff topic - 10+ TB storage thread gezien had
( Storage showoff topic - 10+ TB storage systems )

Iemand enig idee over welke build ik het heb..?

muchos gracias _/-\o_

[ Voor 5% gewijzigd door NIK0 op 30-09-2011 17:34 ]

Member of the Ukraine IT Army


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

NIK0 schreef op vrijdag 30 september 2011 @ 17:33:
Pfffff...forum broeders kan iemand mij even naar de juiste post verwijzen :F

Opsporing Verzocht:
Ik zat gisteren een post met pics te bewonderen van een tweaker met een kast voorzien van rode en groene ductape (uit mijn hoofd) een Corsair voeding en Chieftec SST-3141SAS modules? Ik heb op alle mogelijke termen gezocht maar ik kan de post NIET meer terug vinden en begint frustrerend te worden.
Weet ook niet meer of ik 'm in deze thread of de Storage showoff topic - 10+ TB storage thread gezien had
( Storage showoff topic - 10+ TB storage systems )

Iemand enig idee over welke build ik het heb..?

muchos gracias _/-\o_
De build van Thalantis bedoel je.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • NIK0
  • Registratie: Mei 2002
  • Laatst online: 22-12 13:07
Hmm..nee dat was um niet..weet zeker dat ik groene en rode ductape heb gezien |:(

Member of the Ukraine IT Army


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

NIK0 schreef op vrijdag 30 september 2011 @ 18:14:
[...]

Hmm..nee dat was um niet..weet zeker dat ik groene en rode ductape heb gezien |:(
Ik snap welke plaatje je bedoelt, de duct tape was/is gebruikt om de kabel spaghetti te beheersen en de voeding per array deel te markeren.

[ Voor 6% gewijzigd door Pantagruel op 30-09-2011 21:15 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 14:14
Ik zit hier met een servertje met een RocketRaid 2340 kaart erin welke 64bit LBA ondersteund en daardoor ook HDD's welke groter zijn dan 2TB maar ik kan nergens terug vinden of hij lekker werkt met een Western digital WD30EZRX (3TB hdd)
Keuze is namelijk tussen 4x een Samsung F4 2TB of 2x een WD 3TB disk en deze array later uit te breiden wanneer de schijven goedkoper zijn geworden. (prijs 4x F4 en 2x WD = 'gelijk')

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


  • NIK0
  • Registratie: Mei 2002
  • Laatst online: 22-12 13:07
Pantagruel schreef op vrijdag 30 september 2011 @ 21:14:
[...]


Ik snap welke plaatje je bedoelt, de duct tape was/is gebruikt om de kabel spaghetti te beheersen en de voeding per array deel te markeren.
Hmm dan zullen we het toch over dezelfde build hebben raar alleen dat ik dat plaatje nergens meer terug kan vinden maar thanks iig! _/-\o_

Member of the Ukraine IT Army


  • Apache
  • Registratie: Juli 2000
  • Laatst online: 22-12 15:43

Apache

amateur software devver

klaasbram schreef op vrijdag 30 september 2011 @ 22:28:
Ik zit hier met een servertje met een RocketRaid 2340 kaart erin welke 64bit LBA ondersteund en daardoor ook HDD's welke groter zijn dan 2TB maar ik kan nergens terug vinden of hij lekker werkt met een Western digital WD30EZRX (3TB hdd)
Keuze is namelijk tussen 4x een Samsung F4 2TB of 2x een WD 3TB disk en deze array later uit te breiden wanneer de schijven goedkoper zijn geworden. (prijs 4x F4 en 2x WD = 'gelijk')
Sowieso niet de raid van de "controller" gebruiken, als je de hd's partitioneerd voordat je ze aan de controller hangt herkent hij ze als native en kan je aan de slag met welke softraid/zfs oplossing die je zelf wil.

Ik zou zelf voor de 4x2TB oplossing gaan in raid 5, die gaat ook makkelijker uit te breiden zijn in de toekomst.

If it ain't broken it doesn't have enough features


  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 31-08 10:48
Zag zojuist dat FreeNAS 8.0.1 (non-beta) beschikbaar is gekomen. Update vanaf 8.0.1 RC2 werkt zonder probleem. De overstap van 8.0 naar 8.0.1 biedt een lange lijst met verbeteringen. Voornaamste voor mij persoonlijk is de ondersteuning van Time Machine in Lion.

Reclame: heb nog steeds leuk setje (moederbord, CPU en geheugen) te koop staan (link)

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


  • zzattack
  • Registratie: Juli 2008
  • Laatst online: 22-12 09:56
Misschien off-topic, maar wat zou een rocketraid 2340 nog op moeten leveren in de V&A?

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 14:14
^^ ik zou het zelf niet weten want hij komt ook niet veel voorbij. Ik heb zelf 3 jaar terug goedkoop kunnen kopen voor 350 dollar ex verzending maar dat was wel 2e hands..
Apache schreef op zaterdag 01 oktober 2011 @ 21:08:
[...]


Sowieso niet de raid van de "controller" gebruiken, als je de hd's partitioneerd voordat je ze aan de controller hangt herkent hij ze als native en kan je aan de slag met welke softraid/zfs oplossing die je zelf wil.

Ik zou zelf voor de 4x2TB oplossing gaan in raid 5, die gaat ook makkelijker uit te breiden zijn in de toekomst.
Ben ik dus niet met je eens want de ORLM/OCE functie vind ik juist erg fijn. Daarom is de twijfel voor de 2x 3TB juist zo groot want deze zou ik eerst in een stripe gaan draaien en daarna later migreren maar een 4x 3TB in raid 5 dus effectief ga ik bij die 2e keer maar 3TB vooruit. Maar tegen die tijd zijn de 3TB als het goed is weer een stuk goedkoper ;) en kan ik later weer verder uitbreiden met 3TB want ik verwacht dat die nog wel een tijd in de markt blijven...

[ Voor 5% gewijzigd door The-Source op 02-10-2011 13:38 ]

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
Ik ben bezig met mijn fileserver om alles om te zetten naar RAID5.
Nou heb ik de eerste 3 disks in RAID5 gezet en dat werkt prima.
Maar nu heb ik hier een 4e disk aan toevoegt wat ik gedaan heb met:
mdadm --add /dev/md0 /dev/sdh1
mdadm --grow /dev/md0 --raid-devices=4

Alleen nu die helemaal klaar is met resyncen mis ik 2TB aan data.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
bak:/ # mdadm -D /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Fri Sep 30 22:14:36 2011
     Raid Level : raid5
     Array Size : 5860537344 (5589.04 GiB 6001.19 GB)
  Used Dev Size : 1953512448 (1863.01 GiB 2000.40 GB)
   Raid Devices : 4
  Total Devices : 4
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Sun Oct  2 17:51:19 2011
          State : active
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

           Name : bak:0  (local to host bak)
           UUID : c3c98753:98db586f:7c544257:8f1d0b58
         Events : 9128

    Number   Major   Minor   RaidDevice State
       0       8       65        0      active sync   /dev/sde1
       1       8       81        1      active sync   /dev/sdf1
       3       8       97        2      active sync   /dev/sdg1
       4       8      113        3      active sync   /dev/sdh1

bak:/ # df -h
Bestandssysteem       Grtte Gebr Besch Geb% Aangekoppeld op
rootfs                 50G  9,0G   39G  19% /
devtmpfs              1,9G  284K  1,9G   1% /dev
tmpfs                 1,9G   92K  1,9G   1% /dev/shm
/dev/sda2              50G  9,0G   39G  19% /
/dev/sda3             1,8T  1,8T   27G  99% /mnt/hdd1
/dev/sdb1             1,8T  1,8T   22G  99% /mnt/hdd2
/dev/sdc1             1,8T  1,8T   28G  99% /mnt/hdd3
/dev/sdd1             1,8T  1,8T   46G  98% /mnt/hdd4
/dev/md0              3,6T  197M  3,4T   1% /mnt/hdd5


Iemand een idee waar in godsnaam die 2TB gebleven is?

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Je moet je filesystem nog growen.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
Dat doe je hier toch mee: mdadm --grow /dev/md0 --raid-devices=4 ?
Of moet ik dat op een andere manier doen?

  • Loekie
  • Registratie: Juli 2001
  • Laatst online: 22-12 12:28
Dutch3men schreef op zondag 02 oktober 2011 @ 18:53:
[...]

Dat doe je hier toch mee: mdadm --grow /dev/md0 --raid-devices=4 ?
Of moet ik dat op een andere manier doen?
Daarmee grow je alleen de array, het filesystem moet je nog op de hoogte brengen door iets als resize2fs te doen als het om een ext2/3/4 gaat, andere filesystems hebben vergelijkbare commands.
Vaak moet je vooraf nog een filecheck doen als e2fsck.

[ Voor 6% gewijzigd door Loekie op 02-10-2011 18:59 ]

specs


  • Flatlinernl
  • Registratie: Juni 2011
  • Laatst online: 13:44
Zoek nou al een tijdje naar een oplossing voor een diy NAS met dezelfde mogelijkheden als bijvoorbeeld SHR (Synology Hybrid Raid). Je kunt hiermee een raid array aanmaken wat redundant is en waarbij het mogelijk is de schijven te vervangen door grotere schijven.

Via google kom ik alleen maar inplementaties tegen in complete nas oplossingen. En op pagina's over ZFS of Freenas kan ik ook niet echt zo'n functie vinden.

Iemand een idee of zoiets ook mogelijk is met 1 van de software oplossingen?
FlexRAID?

Even niets...


  • Flatlinernl
  • Registratie: Juni 2011
  • Laatst online: 13:44
Heb even zitten lezen en kan nou niet bepalen of het precies kan wat ik wil. Data is wel ook op een losse schijf te benaderen dus in principe kun je een schijf door een grotere vervangen en dan data terug kopiëren van de losse schijf.

Performance is alleen beperkt tot de snelheid van een losse schijf. Nog niet helemaal dus wat ik zoek.

Nog meer mensen een idee?
Dat is bijna altijd zo, omdat je anders met 'stripes' werkt... Een stuk data word in stukjes geknipt en over de hele linie word een pariteit berekent. Elk stukje word op een losse disk geschreven.
Omdat dit parallel kan, heb je snelheidswinst.

Mocht je dus een grotere schijf bijzetten, gaat dit goed, tot je de 'extra' ruimte van de schijf benaderd die niet aanwezig is op de kleinste schijf. Dan kakt je performance in, en loop je het risico dat er niet genoeg schijfruimte op andere schijven aanwezig is om de volledige stripe weg te schrijven.

Drobo is hier een goed voorbeeld van. Met hun BeyondRAID heb je welliswaar wat jij zegt, maar die dingen performen voor geen meter, omdat ze constant bezig zijn met rare stripe sizes en op verschillende disks schrijven.

Even niets...


  • Valkyre
  • Registratie: April 2002
  • Laatst online: 19:20

Valkyre

Kitesurf FTW!

Op dit moment heb ik een windows 2008 server draaien met 3x 2TB en een SSD voor het o.s.
maar geinspireerd door het zuinige server topic, en ik gewoon tweaker ben dat wanneer er niks te prutsen valt je gewoon weer wat nieuws besteld zodat je verder kan prutsen! 8)
Zit ik een beetje met het volgende ik heb Raid 5 draaien, en dezelfde schijven wil ik in mijn nieuwe "zuinige server" gaan gebruiken.
Alleen kan ik niet vinden of ik de schijven kan aansluiten op de nieuwe server en dat windows 2008 dan de raid config weer herkend en zodoende ik niks hoef te backuppen?

Een groot deel kan ik zeer waarschijnlijk wel ergens anders onder brengen maar ik weet niet zeker of ik ruimte voor alles ga hebben.

Het idee is:
SSD overzetten en opnieuw installeren (os schijf)
en dan de 2 TB's overzetten, en hopen dat windows 2008 server de array weer herkend?

Ik kwam namelijk 1 topic tegen waar iemand het zeflde wou met een raid 0 config onder windows 7, daar werd door 1 poster gezegd dat de raid array configuratie op de schijven staat opgeslagen en niet zo zeer in het os. Dit heb ik alleen niet bevestigd kunnen krijgen, en alles topics die ik vind gaat over controllers e.d. zover ik weet maakt het type controller voor software raid geen klap uit?

iRacing Profiel

Dat ligt aan de RAID implementatie. Zit die in je moederbord? (FakeRAID) dan moet je goed kijken of je config wel verhuisbaar is naar een nieuw moederbord.
Als je via Dynamic Disks in Windows zelf een RAID set hebt aangemaakt, dan kan je dat gewoon verhuizen.

Heb je het via een controller (Highpoint, Areca, LSI, Intel, whatever) dan gaat dat ook wel goed.

Even niets...


  • Valkyre
  • Registratie: April 2002
  • Laatst online: 19:20

Valkyre

Kitesurf FTW!

FireDrunk schreef op maandag 03 oktober 2011 @ 13:59:
Dat ligt aan de RAID implementatie. Zit die in je moederbord? (FakeRAID) dan moet je goed kijken of je config wel verhuisbaar is naar een nieuw moederbord.
Als je via Dynamic Disks in Windows zelf een RAID set hebt aangemaakt, dan kan je dat gewoon verhuizen.Heb je het via een controller (Highpoint, Areca, LSI, Intel, whatever) dan gaat dat ook wel goed.
Dat heb ik dus, maar ik kan nergens een link vinden dat dit bevestigd, maar misschien dat ik verkeerd zoek, als het zo werkt zou wel enorm relaxt zijn.

iRacing Profiel

http://www.ehow.com/how_7...raid-5-other-servers.html

Even importeren.

[ Voor 13% gewijzigd door FireDrunk op 03-10-2011 14:13 ]

Even niets...


  • Valkyre
  • Registratie: April 2002
  • Laatst online: 19:20

Valkyre

Kitesurf FTW!

Dat ziet er wel goed uit, qua performance vind ik het voor thuis gebruik prima en dan is dit ook nog wel een fijne bijkomstigheid. alleen jammer van het zo niet transparanten rebuilden van windows....

iRacing Profiel


  • NetXtreme
  • Registratie: Mei 2003
  • Laatst online: 21-12 00:12
Ik heb nu een Intel SASUC8I met daaraan 5x 2 TB WD EARS. Tijdens laden geeft ie aan dat je met CTRL + C configuration utility kan laden. Dan geeft deze aan dat deze de volgende initialisatie weergegeven zal worden, maar dan blijft deze gewoon op een knipperende cursor staan en gebeurt er niets.... Iemand een idee?

  • zzattack
  • Registratie: Juli 2008
  • Laatst online: 22-12 09:56
Klinkt niet goed. Misschien een disk die geen respons op SMART geeft ofzo? Je kunt proberen er maar 1 disk aan te hangen i.p.v. 5.

Verwijderd

Ik heb de boel hier eindelijk werkend. Ubuntu is de deur uit, ik heb nu ESXi draaien met daarop Freenas die via RDM's toegang heeft tot de 3 disks. Ik vind het jammer dat ik nu de array niet zomaar kan growen, maar het werkt met ZFS wel stukken stabieler. :)

  • NetXtreme
  • Registratie: Mei 2003
  • Laatst online: 21-12 00:12
Zal het zo eens proberen... Bonnie++ draait nu op m'n ZFS pool (ZFS On Linux)... Ben benieuwd naar 't resultaat.

  • Loekie
  • Registratie: Juli 2001
  • Laatst online: 22-12 12:28
NetXtreme schreef op woensdag 05 oktober 2011 @ 21:22:
Ik heb nu een Intel SASUC8I met daaraan 5x 2 TB WD EARS. Tijdens laden geeft ie aan dat je met CTRL + C configuration utility kan laden. Dan geeft deze aan dat deze de volgende initialisatie weergegeven zal worden, maar dan blijft deze gewoon op een knipperende cursor staan en gebeurt er niets.... Iemand een idee?
Ik heb dat ook als je in de BIOS van de PC ROM niet uitgezet hebt voor deze kaart, ik heb de rom-bios uitgezet omdat ik deze toch verder niet gebruik en je deze alleen zou gebruiken voor het bouwen van een RAID-array via de SASUC8i.

specs


  • F1xxer
  • Registratie: Februari 2011
  • Laatst online: 11:35
Verwijderd schreef op woensdag 05 oktober 2011 @ 22:28:
Ik heb de boel hier eindelijk werkend. Ubuntu is de deur uit, ik heb nu ESXi draaien met daarop Freenas die via RDM's toegang heeft tot de 3 disks. Ik vind het jammer dat ik nu de array niet zomaar kan growen, maar het werkt met ZFS wel stukken stabieler. :)
Ik ben nogal groen in het hele ZFS gebeuren. Ik heb dus Freenas ook geinstalleerd op een ESXi. Maar ik krijg nogal trage transfers. Bij het starten van transfers haal ik burst 120mbps, maar dat zakt terug naar een zielige 30mbps en soms zelfs 20mbps. Nu weet ik dat er met ESXi en FreeNAS weer een hoop overhead tussen komt, maar dit is wel erg traag. Normaal haal ik tussen pc's en andere vm's toch wel zeker 60-100mbps.

Ik heb de reporting e.d. al nagekeken en hij doet verder niets, ik heb ook al het geheugen naar 4GB gegooid omdat ZFS nogal geheugen hongerig zou zijn.. (?)

Ben al langs talloze fora geweest maar niet echt iets wat me helpt, dus iemand hier ideeen?

Specs:
AMD x4 620
16GB 1333mhz
SASUC8I met daarop 2x 2TB schijven die voor FreeNAS zijn. (zijn ecogreen samsungs)

Verwijderd

Welke netwerkadapter gebruik je voor de Freenas VM?

  • F1xxer
  • Registratie: Februari 2011
  • Laatst online: 11:35
Is een Intel 1000 PT server adapter.

Verwijderd

Die bedoel ik niet :P Je hebt de keuze uit een aantal vmxnet adapters en een geemuleerde E1000. Probeer die laatste eens, die is hier stabieler dan de vmxnet's.

  • F1xxer
  • Registratie: Februari 2011
  • Laatst online: 11:35
Had ik al ingesteld.

Verwijderd

Eigenlijk zou je dit in het ZFS topic moeten posten en niet hier, omdat hier het accept vooral op de hardware-bouw ligt ipv ZFS softwareconfiguratie. Maar om je alvast een tip te geven: doe een lokale benchmark met dd:

# 32GB schrijven
dd if=/dev/zero of=/tank/testfile.dat bs=1m count=32000
# 32GB lezen
dd if=/tank/testfile.dat of=/dev/null bs=1m

verander /tank/ naar de naam van je pool. Om dit uit te kunnen voeren moet je middels SSH ingelogd zijn op je FreeNAS box.

  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 31-08 10:48
/mnt/Storage# dd if=/dev/zero of=/mnt/Storage/testfile.dat bs=1m count=32000
32000+0 records in
32000+0 records out
33554432000 bytes transferred in 69.254497 secs (484509071 bytes/sec) = 462MB

/mnt/Storage# dd if=/mnt/Storage/testfile.dat of=/dev/null bs=1m
32000+0 records in
32000+0 records out
33554432000 bytes transferred in 47.249551 secs (710153456 bytes/sec) = 677MB

Specs (link)

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


  • _-= Erikje =-_
  • Registratie: Maart 2000
  • Laatst online: 22-12 10:00
[root@nas /mnt/vol01/tmp]# dd if=/dev/zero of=./testfile.dat bs=1m count=32000 32000+0 records in
32000+0 records out
33554432000 bytes transferred in 213.729090 secs (156995157 bytes/sec) (150 Mbyte/s)

[root@nas /mnt/vol01/tmp]# dd if=./testfile.dat of=/dev/null bs=1m
32000+0 records in
32000+0 records out
33554432000 bytes transferred in 119.123018 secs (281678828 bytes/sec) (269 Mbyte/s)
Meer dan zat voor mijn doeleinden, 4x WD 2tbyte green via de onboard op m'n asus minitx bordje

  • zzattack
  • Registratie: Juli 2008
  • Laatst online: 22-12 09:56
Klopt het dat fakeraids tussen highpoint controllers onderling meestal wel verplaatst kunnen worden? More specifically tussen een 2680 en een 2340?

  • Apache
  • Registratie: Juli 2000
  • Laatst online: 22-12 15:43

Apache

amateur software devver

klaasbram schreef op zondag 02 oktober 2011 @ 13:37:
^^ ik zou het zelf niet weten want hij komt ook niet veel voorbij. Ik heb zelf 3 jaar terug goedkoop kunnen kopen voor 350 dollar ex verzending maar dat was wel 2e hands..
[...]

Ben ik dus niet met je eens want de ORLM/OCE functie vind ik juist erg fijn. Daarom is de twijfel voor de 2x 3TB juist zo groot want deze zou ik eerst in een stripe gaan draaien en daarna later migreren maar een 4x 3TB in raid 5 dus effectief ga ik bij die 2e keer maar 3TB vooruit. Maar tegen die tijd zijn de 3TB als het goed is weer een stuk goedkoper ;) en kan ik later weer verder uitbreiden met 3TB want ik verwacht dat die nog wel een tijd in de markt blijven...
ORLM/OCE heb je ook met mdadm/LVM alleen is het dan betrouwbaar en niet controller afhankelijk :)

If it ain't broken it doesn't have enough features


  • thalantis
  • Registratie: Augustus 1999
  • Laatst online: 26-01-2023

thalantis

12200 Wp

nee ik was het niet :) heb alleen grijze mac guyver tape gebruikt omdat ik de fans vervangen heb van de addonics

Jsunnyreports


  • BlackShadow
  • Registratie: Februari 2002
  • Laatst online: 21-12 09:31
Ik draai nu stabiel Ubuntu 11.04.



Edit:

Nog eens wat benchmarks met de nieuwe setup:
root@vfileserver:~# dd if=/dev/zero of=/mnt/data/zero.file bs=1M count=50000
50000+0 records in
50000+0 records out
52428800000 bytes (52 GB) copied, 111,505 s, 470 MB/s
root@vfileserver:~# dd if=/mnt/data/zero.file of=/dev/null bs=1M count=50000
50000+0 records in
50000+0 records out
52428800000 bytes (52 GB) copied, 75,2599 s, 697 MB/s





Het enige minpuntje is dat mijn schijven na een tijd niet meer in standby gaan.
Als ik eens reboot is het probleem opgelost, dan werkt het weer een tijd, maar na x aantal uur/dagen gaan ze niet meer in standby, standby staat op 120s.

root@vfileserver:~# hdparm -C /dev/sd[bcdefghi]

/dev/sdb:
 drive state is:  active/idle

/dev/sdc:
 drive state is:  active/idle

/dev/sdd:
 drive state is:  active/idle

/dev/sde:
 drive state is:  active/idle

/dev/sdf:
 drive state is:  active/idle

/dev/sdg:
 drive state is:  active/idle

/dev/sdh:
 drive state is:  active/idle

/dev/sdi:
 drive state is:  active/idle

[ Voor 24% gewijzigd door BlackShadow op 09-10-2011 19:09 ]


  • Turk
  • Registratie: Mei 2010
  • Laatst online: 05-12 21:43
Mafketel schreef op donderdag 29 september 2011 @ 14:24:
windows 7 ... niet xp :)

anyway als je een df -h had gedaan had je zelf het antwoord kunnen vinden.

Bij mij geeft win7 bij total size de gebruikte ruimte door dat filesysteem.
En vrije ruimte is de vrije ruimte in de zpool.

oftewel.
windows home geeft 3,44GB vrij en 28GB total size
df -h geeft size 29G used 25G avail3.5G
zfs -list geeft used 27.1G avail 3.44G refer24.6G
zfs list -t snapshot geeft
snapshot1 used 1.78G - refer 25.9G
snapshot2 used 71.7M - refer 24.2G

met wat afrondingen te begrijpen zo denk ik.
Bij mij staat er:

/dev/ad0s1a size 1gb used 244 (dus die windows ziet)
/dev/stripe/datap1 size 3,5T used 633T

en de datap1 wou ik graag zien in Windows (die zie ik wel als ik die netwerklocatie open, maar de grootte niet)

  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
bij jou staat er dat bij welk commando?

[ Voor 5% gewijzigd door Mafketel op 10-10-2011 09:01 ]


  • _-= Erikje =-_
  • Registratie: Maart 2000
  • Laatst online: 22-12 10:00
bij `df -h` zo te zien

Turk, kijk eens bij CIFS shares naar welk path je deelt, dat path zou met mount overeen moeten komen met /dev/stripe/datap1

Dit is een voorbeeldje van mijn nasje:

code:
1
2
3
4
5
6
7
8
9
10
11
[erik@nas] /mnt/vol01/download/incomplete# df -h
Filesystem             Size    Used   Avail Capacity  Mounted on
/dev/ufs/FreeNASs1a    927M    431M    422M    51%    /
devfs                  1.0K    1.0K      0B   100%    /dev
/dev/md0               4.3M    3.6M    396K    90%    /etc
/dev/md1               732K     28K    648K     4%    /mnt
/dev/md2                75M     19M     49M    28%    /var
/dev/ufs/FreeNASs4      20M    1.3M     17M     7%    /data
vol01                  5.2T    1.4T    3.8T    26%    /mnt/vol01
programs               928M    187M    740M    20%    /mnt/programs
[erik@nas] /mnt/vol01/download/incomplete#



Ik deel dus in mijn CIFS share /mnt/vol01

  • Neopatch
  • Registratie: Januari 2010
  • Laatst online: 22-12 14:07
Beste mede tweakers,

Na een jaar lang dit topic gevolgd te hebben. Heb ik sinds ruim een maand de volgende bak draaien uitsluitend voor data storage;

#ProductPrijsSubtotaal
4Samsung EcoGreen F4EG HD204UI, 2TB€ 59,90€ 239,60
1Fractal Design Define R3 (Zwart)€ 84,50€ 84,50
1AMD Athlon II X2 250 Boxed€ 47,90€ 47,90
1be quiet! Pure Power L7 300W€ 34,85€ 34,85
1MSI 880GM-E41€ 54,95€ 54,95
Bekijk collectie
Importeer producten
Totaal€ 461,80

+ Corsair DDR 3 geheugen 2 GB Dual Channel 1333MHz ( Ik kon geen link daarvan vinden in de pricewatch sorry.

Nu is het zo dat ik ben begonnen met 3x 2TB in RAID 5 (Software RAID mdadm) dus ik hield netjes 4TB over. Echter was deze vol gelopen en heb ik de andere schijf van 2TB er bij gestoken. En heb ik vervolgens;

sudo mdadm --add /dev/md0 /dev/sdx
sudo mdadm --grow /dev/md0 --raid-devices=x

getypt om de schijf bij de array te voegen en te growen.Maar nu sinds die tijd (vrijdag avond) is hij nog steeds bezig met reshapen en is hij nu zover met reshapen:

code:
1
2
3
4
5
6
7
neopatch@iDATASTORE:~$ cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sde[3] sdb[0] sdd[2] sdc[1]
      3907026432 blocks super 1.2 level 5, 256k chunk, algorithm 2 [4/4] [UUUU]
      [==========>..........]  reshape = 53.9% (1054483968/1953513216) finish=9535.9min speed=1571K/sec

unused devices: <none>


Mijn vraag is. Is er een manier of een instelling die ik moet veranderen waardoor dit proces iets sneller gaat of heb ik zelf iets fout gedaan waardoor dit zo traag gaat? Of is het normaal dat dit zolang duurt met software RAID via mdadm ?

Zo ziet mijn mdadm array status er nu uit:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
/dev/md0:
        Version : 1.2
  Creation Time : Sun Aug 28 03:40:07 2011
     Raid Level : raid5
     Array Size : 3907026432 (3726.03 GiB 4000.80 GB)
  Used Dev Size : 1953513216 (1863.02 GiB 2000.40 GB)
   Raid Devices : 4
  Total Devices : 4
    Persistence : Superblock is persistent

    Update Time : Mon Oct 10 10:06:38 2011
          State : clean, recovering
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 256K

 Reshape Status : 53% complete
  Delta Devices : 1, (3->4)

           Name : iDATASTORE:0  (local to host iDATASTORE)
           UUID : fc899537:7c69c62c:dfe6f879:bc04bc05
         Events : 12928

    Number   Major   Minor   RaidDevice State
       0       8       16        0      active sync   /dev/sdb
       1       8       32        1      active sync   /dev/sdc
       2       8       48        2      active sync   /dev/sdd
       3       8       64        3      active sync   /dev/sde


Dit duurt wel erg lang namelijk ik had verwacht dat het hoogstens 2 dagen zou duren. De snelheid is ook gedropt van 11Mb/s naar rondt de 1.5MB/s in het reshape process. Nog ter informatie het OS (ubuntu linux) draait op een IDE schijfje wat ik nog had liggen. Dat ga ik binnenkort wijzigen naar een kleine SSD.

Hulde voor alle mensen voor het delen van alle nuttige informatie in dit topic.
Je kan de array eens unmounten, misschien is er toch nog een applicatie op bezig.

Even niets...


  • Neopatch
  • Registratie: Januari 2010
  • Laatst online: 22-12 14:07
FireDrunk schreef op maandag 10 oktober 2011 @ 11:24:
Je kan de array eens unmounten, misschien is er toch nog een applicatie op bezig.
Ik heb zojuist gedaan wat je hebt gezegd;
code:
1
sudo umount /dev/md0


Nu is de cat /proc/mdstat output als volgt;
code:
1
2
3
4
5
neopatch@iDATASTORE:~$ cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sde[3] sdb[0] sdd[2] sdc[1]
      3907026432 blocks super 1.2 level 5, 256k chunk, algorithm 2 [4/4] [UUUU]
      [==========>..........]  reshape = 54.5% (1065456132/1953513216) finish=6977.3min speed=2121K/sec


Iets opgeschoten maar nog niet helemaal wat ik gehoopt had. Wat is een beetje de normale snelheid die ik zou moeten verwachten met de configuratie die ik heb en de schijven die ik gebruik ?
Nee, dat is te traag... Ik zou iets van 15-20MB/s verwachten.

Even niets...


  • Neopatch
  • Registratie: Januari 2010
  • Laatst online: 22-12 14:07
FireDrunk schreef op maandag 10 oktober 2011 @ 11:50:
Nee, dat is te traag... Ik zou iets van 15-20MB/s verwachten.
Is er nog iets anders wat ik zou kunnen proberen? Of is er bepaalde leesvoer wat ik zou moeten doornemen om tot een oplossing te komen?

Ik ga nog wel even verder google naar een mogelijke oplossing. Wellicht moet ik een instelling aanpassen ofzo iets. Zodra ik een oplossing gevonden heb zal ik dit uiteraard hier delen.
Post eens (een paar resultaten) van:
iostat -x 1

top

vmstat 2

[ Voor 12% gewijzigd door FireDrunk op 10-10-2011 11:58 ]

Even niets...


  • Neopatch
  • Registratie: Januari 2010
  • Laatst online: 22-12 14:07
Dit is de output van iostat -x 1;
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sdb               0.00     0.00    0.00    0.00     0.00     0.00     0.00   110.00    0.00    0.00    0.00   0.00 100.00
sdd               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sdc               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sde               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
md0               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.48    0.00    0.00    0.00    0.00   99.52

Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sda               0.00     3.00    0.00   24.00     0.00   200.50    16.71     0.08    3.50    0.00    3.50   0.33   0.80
sdb               0.00     0.00    0.00    0.00     0.00     0.00     0.00   110.00    0.00    0.00    0.00   0.00 100.00
sdd               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sdc               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sde               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
md0               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           1.52    0.00    0.00    0.00    0.00   98.48

Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sdb               0.00     0.00    0.00    0.00     0.00     0.00     0.00   110.00    0.00    0.00    0.00   0.00 100.00
sdd               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sdc               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sde               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
md0               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.00    0.00    0.50    0.00    0.00   99.50

Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
sda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sdb               0.00     0.00    0.00    0.00     0.00     0.00     0.00   110.00    0.00    0.00    0.00   0.00 100.00
sdd               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sdc               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sde               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
md0               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00


En deze is van top;
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
neopatch@iDATASTORE:~$ top
top - 12:00:10 up 2 days, 18:44,  2 users,  load average: 1.16, 1.24, 1.26
Tasks: 167 total,   1 running, 165 sleeping,   0 stopped,   1 zombie
Cpu(s):  0.7%us,  1.6%sy,  0.0%ni, 97.7%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st
Mem:   1799964k total,  1231684k used,   568280k free,      308k buffers
Swap:  1646624k total,        0k used,  1646624k free,   529996k cached

  PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND
  354 root      20   0     0    0    0 D    2  0.0 211:55.29 md0_raid5
 1827 neopatch  20   0 10800 5088 2676 S    1  0.3  16:31.38 gvfs-gdu-volume
 1829 root      20   0  109m  89m 2792 S    1  5.1  20:21.63 udisks-daemon
 1982 neopatch  20   0 21292 8292 5184 S    0  0.5   9:45.02 gdu-notificatio
 2621 root      20   0     0    0    0 D    0  0.0  91:03.57 md0_reshape
 9986 neopatch  20   0  2632 1156  848 R    0  0.1   0:00.06 top
    1 root      20   0  3044 1792 1216 S    0  0.1   0:00.89 init
    2 root      20   0     0    0    0 S    0  0.0   0:00.03 kthreadd
    3 root      20   0     0    0    0 S    0  0.0   0:01.04 ksoftirqd/0
    6 root      RT   0     0    0    0 S    0  0.0   0:00.00 migration/0
    7 root      RT   0     0    0    0 S    0  0.0   0:00.00 migration/1
    9 root      20   0     0    0    0 S    0  0.0   0:01.83 ksoftirqd/1
   11 root       0 -20     0    0    0 S    0  0.0   0:00.00 cpuset
   12 root       0 -20     0    0    0 S    0  0.0   0:00.00 khelper
   13 root       0 -20     0    0    0 S    0  0.0   0:00.00 netns
   15 root      20   0     0    0    0 S    0  0.0   0:00.83 sync_supers
   16 root      20   0     0    0    0 S    0  0.0   0:00.02 bdi-default
   17 root       0 -20     0    0    0 S    0  0.0   0:00.00 kintegrityd
   18 root       0 -20     0    0    0 S    0  0.0   0:00.00 kblockd
   19 root       0 -20     0    0    0 S    0  0.0   0:00.00 kacpid
   20 root       0 -20     0    0    0 S    0  0.0   0:00.00 kacpi_notify
   21 root       0 -20     0    0    0 S    0  0.0   0:00.00 kacpi_hotplug
   22 root       0 -20     0    0    0 S    0  0.0   0:00.00 ata_sff
   23 root      20   0     0    0    0 S    0  0.0   0:00.01 khubd
   24 root       0 -20     0    0    0 S    0  0.0   0:00.00 md
   26 root      20   0     0    0    0 S    0  0.0   0:00.11 khungtaskd
   27 root      20   0     0    0    0 S    0  0.0   0:00.00 kswapd0
   28 root      25   5     0    0    0 S    0  0.0   0:00.00 ksmd
   29 root      20   0     0    0    0 S    0  0.0   0:00.00 fsnotify_mark
   30 root       0 -20     0    0    0 S    0  0.0   0:00.00 aio
   31 root      20   0     0    0    0 S    0  0.0   0:00.00 ecryptfs-kthrea
   32 root       0 -20     0    0    0 S    0  0.0   0:00.00 crypto
   36 root       0 -20     0    0    0 S    0  0.0   0:00.00 kthrotld
   38 root       0 -20     0    0    0 S    0  0.0   0:00.00 kmpathd
   39 root       0 -20     0    0    0 S    0  0.0   0:00.00 kmpath_handlerd
   40 root       0 -20     0    0    0 S    0  0.0   0:00.00 kondemand
   41 root       0 -20     0    0    0 S    0  0.0   0:00.00 kconservative
  264 root      20   0     0    0    0 S    0  0.0   0:00.00 scsi_eh_0
  266 root      20   0     0    0    0 S    0  0.0   0:00.00 scsi_eh_1
  287 root      20   0     0    0    0 S    0  0.0   0:00.14 kworker/u:3
  291 root      20   0     0    0    0 S    0  0.0   0:00.01 scsi_eh_2
  292 root      20   0     0    0    0 S    0  0.0   0:00.00 scsi_eh_3
  293 root      20   0     0    0    0 S    0  0.0   0:00.00 scsi_eh_4
  294 root      20   0     0    0    0 S    0  0.0   0:00.00 scsi_eh_5
  295 root      20   0     0    0    0 S    0  0.0   0:00.00 scsi_eh_6
  296 root      20   0     0    0    0 S    0  0.0   0:00.00 scsi_eh_7
  298 root      20   0     0    0    0 S    0  0.0   0:00.00 kworker/u:5
  363 root       0 -20     0    0    0 S    0  0.0   0:00.00 xfs_mru_cache
  364 root       0 -20     0    0    0 S    0  0.0   0:00.00 xfslogd
  365 root       0 -20     0    0    0 S    0  0.0   0:00.00 xfsdatad
  366 root       0 -20     0    0    0 S    0  0.0   0:00.00 xfsconvertd
  368 root      20   0     0    0    0 S    0  0.0   0:06.20 xfsbufd/sda1
  369 root      20   0     0    0    0 S    0  0.0   0:01.13 xfssyncd/sda1
  370 root      20   0     0    0    0 S    0  0.0   0:00.00 xfsaild/sda1
  418 root      20   0  2412  612  460 S    0  0.0   0:00.12 upstart-udev-br
  434 root      16  -4  3092 1268  360 S    0  0.1   0:00.06 udevd
  642 root      18  -2  3140 1352  416 S    0  0.1   0:00.04 udevd


En de output van vmstat 2
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
procs -----------memory---------- ---swap-- -----io---- -system-- ----cpu----
 r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa
 0  0      0 568308    308 529996    0    0     1     2   19   23  1  4 95  0
 0  0      0 568364    308 530020    0    0     0    14 5849 11163  1 19 80  0
 0  0      0 568364    308 530020    0    0     0     6  105  117  1  0 99  0
 0  0      0 568364    308 530020    0    0     0     0  106  117  1  0 99  0
 0  0      0 568364    308 530020    0    0     0     0  109  120  1  0 99  0
 0  0      0 568396    308 530020    0    0     0     2 1604 3113  1  2 97  0
 0  0      0 568396    308 530020    0    0     0     0  215  332  1  0 99  0
 0  0      0 568396    308 530020    0    0     0     0  271  442  1  0 99  0
 0  0      0 568396    308 530020    0    0     0     0  219  344  1  0 99  0
 0  0      0 568396    308 530020    0    0     0     0  144  194  1  1 99  0
 0  0      0 568396    308 530020    0    0     0     5  104  117  1  0 99  0
 0  0      0 568396    308 530020    0    0     0     4  104  117  1  0 99  0
 0  0      0 568396    308 530020    0    0     0     0  106  124  1  0 99  0
 1  0      0 568396    308 530020    0    0     0     0  100  114  1  0 99  0
 0  0      0 568396    308 530020    0    0     0     4  104  122  1  0 99  0
 0  0      0 568396    308 530020    0    0     0     0  101  115  1  0 99  0
 0  0      0 568396    308 530020    0    0     0     2  465  827  0  2 98  0
 0  0      0 568364    308 530020    0    0     0     0   88   88  0  0 100  0
 0  0      0 568332    308 530020    0    0     0     0  549  879  0  5 95  0
 0  0      0 568364    308 530020    0    0     0     1 6442 12303  1 20 79  0
 0  0      0 568396    308 530020    0    0     0     6  136  119  1  0 99  0
 0  0      0 568396    308 530020    0    0     0     0  104  119  1  0 99  0
 1  0      0 568396    308 530020    0    0     0     0  104  115  1  0 99  0
 0  0      0 568364    308 530020    0    0     0     0  454  805  0  1 99  0
 0  0      0 568364    308 530020    0    0     0     0  106  125  1  0 99  0

[ Voor 20% gewijzigd door Neopatch op 10-10-2011 12:03 ]

SDB heeft een flinke queue... SMART eens uitlezen van SDB?

Even niets...


  • NIK0
  • Registratie: Mei 2002
  • Laatst online: 22-12 13:07
thalantis schreef op vrijdag 07 oktober 2011 @ 22:51:
[...]


nee ik was het niet :) heb alleen grijze mac guyver tape gebruikt omdat ik de fans vervangen heb van de addonics
Zie je wel...ben ik toch niet helemaal lijp..ben nog steeds op zoek naar die build van de tweaker die groene en rode tape in z'n kast heeft geplakt...die 300+ pagina's beginnen toch te nekken zo langzamerhand. (of was het dan toch het 10TB topic ? )

Daarnaast nog een vraagje. Ik lees nogal wat tegenstrijdige berichten over die 4-in-3 modules van Cooler Master. De schijven zouden nogal "trillerig" worden nadat ze in zo'n case zijn verdwenen. Wat de ervaring bij jullie..? (bron oa: http://forum.highflow.nl/...oolermaster-552/#post5219 )

Member of the Ukraine IT Army


  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 01:24

OMX2000

By any means necessary...

NIK0 schreef op maandag 10 oktober 2011 @ 16:07:
[...]

Zie je wel...ben ik toch niet helemaal lijp..ben nog steeds op zoek naar die build van de tweaker die groene en rode tape in z'n kast heeft geplakt...die 300+ pagina's beginnen toch te nekken zo langzamerhand. (of was het dan toch het 10TB topic ? )

Daarnaast nog een vraagje. Ik lees nogal wat tegenstrijdige berichten over die 4-in-3 modules van Cooler Master. De schijven zouden nogal "trillerig" worden nadat ze in zo'n case zijn verdwenen. Wat de ervaring bij jullie..? (bron oa: http://forum.highflow.nl/...oolermaster-552/#post5219 )
Ik merk weinig van dat trillerige. Ik heb er 4x 2TB samsung in hangen.

Dè developers podcast in je moerstaal : CodeKlets Podcast


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

NIK0 schreef op maandag 10 oktober 2011 @ 16:07:
[...]

Zie je wel...ben ik toch niet helemaal lijp..ben nog steeds op zoek naar die build van de tweaker die groene en rode tape in z'n kast heeft geplakt...die 300+ pagina's beginnen toch te nekken zo langzamerhand. (of was het dan toch het 10TB topic ? )

Daarnaast nog een vraagje. Ik lees nogal wat tegenstrijdige berichten over die 4-in-3 modules van Cooler Master. De schijven zouden nogal "trillerig" worden nadat ze in zo'n case zijn verdwenen. Wat de ervaring bij jullie..? (bron oa: http://forum.highflow.nl/...oolermaster-552/#post5219 )
Ik heb enkel ervaring met het oudere type 4-in-3 device module van CM zonder dat fancy frontje. Ondanks dat ze niet vastgeschroefd zitten in de Stacker ST-101 (maar dmv een glijstrip op de 4-in-3 module en de retentie clips van de kast) heb ik geen last van trillingen, noch van de kast noch van de schijven. ( 3 stuks onder elkaar, 2 modules vol met 2 TiB WD EARS en eentje met 2x een 2TiB EARS en een 36GB WD Raptor ).

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • Neopatch
  • Registratie: Januari 2010
  • Laatst online: 22-12 14:07
FireDrunk schreef op maandag 10 oktober 2011 @ 13:36:
SDB heeft een flinke queue... SMART eens uitlezen van SDB?
Ik heb het volgende commando gedaan op /dev/sdb;
code:
1
sudo smartctl -a /dev/sdb


En dit is de informatie die daar uit rolde;
code:
1
2
3
4
5
6
7
8
9
10
11
=== START OF INFORMATION SECTION ===
Device Model:     SAMSUNG HD204UI
Serial Number:    S2H7J90B621218
Firmware Version: 1AQ10001
User Capacity:    2,000,398,934,016 bytes
Device is:        Not in smartctl database [for details use: -P showall]
ATA Version is:   8
ATA Standard is:  ATA-8-ACS revision 6
Local Time is:    Mon Oct 10 17:27:53 2011 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   100   100   051    Pre-fail  Always       -       2749
  2 Throughput_Performance  0x0026   252   252   000    Old_age   Always       -       0
  3 Spin_Up_Time            0x0023   068   067   025    Pre-fail  Always       -       9980
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       13
  5 Reallocated_Sector_Ct   0x0033   252   252   010    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   252   252   051    Old_age   Always       -       0
  8 Seek_Time_Performance   0x0024   252   252   015    Old_age   Offline      -       0
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       1112
 10 Spin_Retry_Count        0x0032   252   252   051    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   252   252   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       13
181 Program_Fail_Cnt_Total  0x0022   100   100   000    Old_age   Always       -       499210
191 G-Sense_Error_Rate      0x0022   252   252   000    Old_age   Always       -       0
192 Power-Off_Retract_Count 0x0022   252   252   000    Old_age   Always       -       0
194 Temperature_Celsius     0x0002   059   054   000    Old_age   Always       -       41 (Lifetime Min/Max 20/47)
195 Hardware_ECC_Recovered  0x003a   100   100   000    Old_age   Always       -       0
196 Reallocated_Event_Count 0x0032   252   252   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   252   252   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   252   252   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0036   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x002a   001   001   000    Old_age   Always       -       216672
223 Load_Retry_Count        0x0032   252   252   000    Old_age   Always       -       0
225 Load_Cycle_Count        0x0032   100   100   000    Old_age   Always       -       13

SMART Error Log Version: 1
No Errors Logged


Ik weet niet of het normaal is dat er old age staat? Ik ben zelf nog niet zo bekend met smartctl. Voordat ik de extra schijf erbij propte leek de array + disks gewoon in orde te zijn. Er wordt ook aangeven dat ze gewoon allemaal werken en dat er geen één schijf gefaald is in de array status check.

Verwijderd

Old_age of Pre-fail geeft aan wat voor type variabele het om gaat. Old_age is geen directe aanwijzing dat je schijf op sterven ligt maar simpelweg een teken van ouderdom, terwijl Pre-fail een variabele is die aangeeft dat je schijf op sterven ligt. Maar dat is dus het type variabele; pas als de Value onder de Thresh(old) komt dan geeft de variabele een failure aan, en krijg je in "WHEN_FAILED" iets te zien als FAILING NOW.

In jouw geval zie ik alleen Multi_Zone_Error_Rate wat relatief hoog is voor zo'n nieuwe schijf. Dat betekent dus 200 schrijffouten per uur dat de schijf draaiend is. Dat is wel erg hoog.

  • Neopatch
  • Registratie: Januari 2010
  • Laatst online: 22-12 14:07
Verwijderd schreef op maandag 10 oktober 2011 @ 17:47:
Old_age of Pre-fail geeft aan wat voor type variabele het om gaat. Old_age is geen directe aanwijzing dat je schijf op sterven ligt maar simpelweg een teken van ouderdom, terwijl Pre-fail een variabele is die aangeeft dat je schijf op sterven ligt. Maar dat is dus het type variabele; pas als de Value onder de Thresh(old) komt dan geeft de variabele een failure aan, en krijg je in "WHEN_FAILED" iets te zien als FAILING NOW.

In jouw geval zie ik alleen Multi_Zone_Error_Rate wat relatief hoog is voor zo'n nieuwe schijf. Dat betekent dus 200 schrijffouten per uur dat de schijf draaiend is. Dat is wel erg hoog.
Oke bedankt voor de uitleg. Ik ben mijn rot aan het googlen naar een mogelijke oplossing voor het versnellen van die reshape tijd want het gaat nog steeds met 2Mb/s. Maar denken jullie dat dit een configuratie probleem is of dat het echt aan de hardware ligt waardoor het reshapen zo langzaam gaat?

Verwijderd

Zou prima door de Multi_Zone_Error_Rate kunnen komen, als het schrijven van een sector elke keer overnieuw moet gebeuren. Persoonlijk zou ik de schijf RMA'en. Je hebt waarschijnlijk een niet zo lekker exemplaar. Dat gezegd, heb ik nog niet zoveel ervaring met dit type SMART attribuut.

  • Neopatch
  • Registratie: Januari 2010
  • Laatst online: 22-12 14:07
Verwijderd schreef op maandag 10 oktober 2011 @ 18:12:
Zou prima door de Multi_Zone_Error_Rate kunnen komen, als het schrijven van een sector elke keer overnieuw moet gebeuren. Persoonlijk zou ik de schijf RMA'en. Je hebt waarschijnlijk een niet zo lekker exemplaar. Dat gezegd, heb ik nog niet zoveel ervaring met dit type SMART attribuut.
Oke. Dus jij zegt eigenlijk;

- Reshape afmaken
- array decreasen
- disk RMA sturen

Of begrijp ik dat verkeerd ? Want voordat ik de array dus ging vergroten is mij nog nooit wat opgemerkt. Omdat de status van de array gewoon zei dat alle schijven naar behoren werkten. Dus ik kom er pas nu met het bijplaatsen van die schijf achter dat die eerste schijf schijnbaar niet helemaal lekker is.

  • Sando
  • Registratie: Januari 2007
  • Niet online

Sando

Sandoichi

KennieNL schreef op woensdag 02 maart 2011 @ 10:25:
Ik draai nu al een een tijdje 3 x 1TB in RAID5 op Ubuntu via mdamd.

Nu doe ik af een toe een check op mn raidset (echo check /sys/block/md0/md/sync_action), maar als ik dit doe loopt mn log redelijk vol foutmeldingen:

[...]

etc.

Nu weet ik dat er altijd badblocks etc op een disk zitten, maar toch baat ik me zorgen bij als ik dit soort meldingen zie.

Volgens SMART zijn mn disken nog OK, alleen de Hardware_ECC_Recovered zijn op alle 3 disken erg hoog.


Wat zou ik nog meer kunnen controleren om zeker te weten dat mn RAID set nog goed is?
En is het verstandig om af en toe een repair uit te voeren ipv een check.
Het is inmiddels wat maanden later, ben je er nog achter gekomen wat het probleem was?
Het is in ieder geval niet RAID gerelateerd. Ik heb het nu ook met een niet-RAID disk. Het is een bug die al 5 versies van Ubuntu meegaat die zich voordoet bij bepaalde hardwarecombinaties.

Zie ook deze bug en mijn reactie #87.

Ik zit met mijn handen in het haar, naja niet echt natuurlijk want ik ben deze reactie aan het typen, maar na het lezen over deze meldingen icm datacorruptie kan ik nog steeds mijn htpc/NAS niet gebruiken.

🇪🇺 Buy from EU (GoT)


  • zzattack
  • Registratie: Juli 2008
  • Laatst online: 22-12 09:56
gvd.. Eindelijk, bijna 2 weken te laat, m'n ServeRAID M1015 binnengekregen, issie DOA. Brackets ontbraken ook nog. De plaatsing van de SAS poorten is ook fenomenaal waardeloos; i.t.t. tot vrijwel iedere controller die ik gezien heb heeft deze de poorten bijna helemaal aan de achterkant van de kaart zitten. Mega design fout als je het mij vraagt want m'n SFF8087 kabels zijn gewoon te kort, en als ze al zouden passen moeten ze nog wel een vervelende hoek maken van 90°. Geen aanrader, imho.

  • NIK0
  • Registratie: Mei 2002
  • Laatst online: 22-12 13:07
zzattack schreef op maandag 10 oktober 2011 @ 19:24:
gvd.. Eindelijk, bijna 2 weken te laat, m'n ServeRAID M1015 binnengekregen, issie DOA. Brackets ontbraken ook nog. De plaatsing van de SAS poorten is ook fenomenaal waardeloos; i.t.t. tot vrijwel iedere controller die ik gezien heb heeft deze de poorten bijna helemaal aan de achterkant van de kaart zitten. Mega design fout als je het mij vraagt want m'n SFF8087 kabels zijn gewoon te kort, en als ze al zouden passen moeten ze nog wel een vervelende hoek maken van 90°. Geen aanrader, imho.
Damn dat is niet best waar had je 'm besteld..?

Weet je zeker dattie DOA is en niet dat je moederbord 'm misschien niet lust..? (las eerder dat bij het flashen van de kaart ook dit soort zaken naar boven kwamen)

Dat van die plaatsing vd poorten zal afhangen per kast denk ik.

[ Voor 14% gewijzigd door NIK0 op 10-10-2011 20:26 . Reden: vraag toegevoegd ]

Member of the Ukraine IT Army


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Tsja, andere mensen vinden het weer verveld als de poorten aan de andere kant zitten, omdat ze dan in de knoei kunnen komen met HDD's die daar hangen.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • zzattack
  • Registratie: Juli 2008
  • Laatst online: 22-12 09:56
NIK0 schreef op maandag 10 oktober 2011 @ 20:03:
Damn dat is niet best waar had je 'm besteld..?

Weet je zeker dattie DOA is en niet dat je moederbord 'm misschien niet lust..? (las eerder dat bij het flashen van de kaart ook dit soort zaken naar boven kwamen)

Dat van die plaatsing vd poorten zal afhangen per kast denk ik.
Bij Max-ICT. Ik heb de kaart in 2 verschillende pc's geprobeerd. Heb je toevallig een link o.i.d. met info over dat lussen en of daar iets aan is te doen?

  • NIK0
  • Registratie: Mei 2002
  • Laatst online: 22-12 13:07
zzattack schreef op maandag 10 oktober 2011 @ 21:11:
[...]

Bij Max-ICT. Ik heb de kaart in 2 verschillende pc's geprobeerd. Heb je toevallig een link o.i.d. met info over dat lussen en of daar iets aan is te doen?
Hmm, dit ging meer over het flashen maar 1-duidig is het dus niet:
Pantagruel in "Storage showoff topic - 10+ TB storage systems"

Word je hele kaart niet gezien als je door de POST heen gaat?
In wat voor mobo's heb je 'm gestopt, welke sloten?
Bij DOA neem ik aan dat er ook geen lampjes gaan branden op de kaart?

[ Voor 5% gewijzigd door NIK0 op 10-10-2011 22:24 ]

Member of the Ukraine IT Army


  • zzattack
  • Registratie: Juli 2008
  • Laatst online: 22-12 09:56
Nee, geen lampjes, en tijdens het opstarten ook niets dat duidt op enig teken van leven van de kaart :(

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

zzattack schreef op maandag 10 oktober 2011 @ 19:24:
gvd.. Eindelijk, bijna 2 weken te laat, m'n ServeRAID M1015 binnengekregen, issie DOA. Brackets ontbraken ook nog. De plaatsing van de SAS poorten is ook fenomenaal waardeloos; i.t.t. tot vrijwel iedere controller die ik gezien heb heeft deze de poorten bijna helemaal aan de achterkant van de kaart zitten. Mega design fout als je het mij vraagt want m'n SFF8087 kabels zijn gewoon te kort, en als ze al zouden passen moeten ze nog wel een vervelende hoek maken van 90°. Geen aanrader, imho.
Dat de controller DOA is zuigt, mbt de ontbrekende brackets, even je bestelling na kijken en contact opnemen met de shop (als je via Ebay een server pull koopt kan ik nog wel snappen dat een bracket ontbreekt)

Tja, de lay-out van de M1015 verschilt inderdaad nogal van bijv. de SASUC 8i/ IBM BR10i, maar met alle respect, de irritatie rondom lay-out van de kaart en de plaats van de SFF8087 aansluitingen, was eenvoudig te voorkomen door even de kaart te googlen of Ebay af te struinen of zoek naar wat foto's.
Persoonlijk heb ik geen moeite om tot bovenin m'n Stacker ST-101 te komen met een 50cm SFF8087->4x SATA kabel (X9SCM-F mobo, bovenste PCIe 8x slot). OK, het kabel management in de server is niet echt piekfijn, maar dat streef ik ook niet na in de server.
NIK0 schreef op maandag 10 oktober 2011 @ 22:23:
[...]

Hmm, dit ging meer over het flashen maar 1-duidig is het dus niet:
Pantagruel in "Storage showoff topic - 10+ TB storage systems"

Word je hele kaart niet gezien als je door de POST heen gaat?
In wat voor mobo's heb je 'm gestopt, welke sloten?
Bij DOA neem ik aan dat er ook geen lampjes gaan branden op de kaart?
Vers uit de doos deden de 2 server pulls die ik heb gehad het direct in alle 3 de genoemde moederborden en presenteerde zich als RAID controller en waren volledig benaderbaar (ctrl+c drukken om controller BIOS in te komen). Het flashen was uiteindelijk een stoelendans met een goed einde, maar dit staat los van het initiële functioneren.
zzattack schreef op maandag 10 oktober 2011 @ 22:50:
Nee, geen lampjes, en tijdens het opstarten ook niets dat duidt op enig teken van leven van de kaart :(
Dat heeft alle schijn van een dode controller. Max ICT laat op de website eigenlijk niets los over de leveringsomvang van de controller. De foto suggereert dat de controller voorzien zou zijn van een full height bracket.

[ Voor 30% gewijzigd door Pantagruel op 10-10-2011 23:11 . Reden: added info. ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • Neopatch
  • Registratie: Januari 2010
  • Laatst online: 22-12 14:07
Ik heb mijn probleem met het trage reshape kunnen oplossen en krijg nu de volgende snelheden waar ik zeer tevreden mee ben;

code:
1
2
3
4
5
6
7
root@iDATASTORE:/home/neopatch# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sde[3] sdb[0](F) sdd[2] sdc[1]
      3907026432 blocks super 1.2 level 5, 256k chunk, algorithm 2 [4/3] [_UUU]
      [===============>.....]  reshape = 77.8% (1519916288/1953513216) finish=93.1min speed=77576K/sec

unused devices: <none>


77.5Mb/s per seconden is toch wat fijner reshapen dan 2Mb/s

Dat is nogal een vooruit gang. Ik heb volgende commando uitgevoerd om tot dit resultaat te komen;
code:
1
echo 50000 > /proc/sys/dev/raid/speed_limit_min


--UPDATE:
CiPHER had toch gelijk ik kijk nu net mijn raid array na en zie dat er 1 disk gefailed is.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
 Version : 1.2
  Creation Time : Sun Aug 28 03:40:07 2011
     Raid Level : raid5
     Array Size : 3907026432 (3726.03 GiB 4000.80 GB)
  Used Dev Size : 1953513216 (1863.02 GiB 2000.40 GB)
   Raid Devices : 4
  Total Devices : 4
    Persistence : Superblock is persistent

    Update Time : Wed Oct 12 19:21:38 2011
          State : clean, degraded, recovering
 Active Devices : 3
Working Devices : 3
 Failed Devices : 1
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 256K

 Reshape Status : 88% complete
  Delta Devices : 1, (3->4)

           Name : iDATASTORE:0  (local to host iDATASTORE)
           UUID : fc899537:7c69c62c:dfe6f879:bc04bc05
         Events : 24358

    Number   Major   Minor   RaidDevice State
       0       8       16        0      faulty spare rebuilding   /dev/sdb
       1       8       32        1      active sync   /dev/sdc
       2       8       48        2      active sync   /dev/sdd
       3       8       64        3      active sync   /dev/sde

[ Voor 42% gewijzigd door Neopatch op 12-10-2011 19:24 ]


  • KennieNL
  • Registratie: Mei 2007
  • Laatst online: 30-11 11:18
Sando schreef op maandag 10 oktober 2011 @ 18:52:
[...]


Het is inmiddels wat maanden later, ben je er nog achter gekomen wat het probleem was?
Het is in ieder geval niet RAID gerelateerd. Ik heb het nu ook met een niet-RAID disk. Het is een bug die al 5 versies van Ubuntu meegaat die zich voordoet bij bepaalde hardwarecombinaties.

Zie ook deze bug en mijn reactie #87.

Ik zit met mijn handen in het haar, naja niet echt natuurlijk want ik ben deze reactie aan het typen, maar na het lezen over deze meldingen icm datacorruptie kan ik nog steeds mijn htpc/NAS niet gebruiken.
Er zijn er wat bij gekomen, en wat weg. Maar mn realloced sector count blijft 0

Dus hoe erg het is, geen idee...

Maar het ergste is dat ik nog 2x2tb heb liggen welke ik al een paar maanden probeer in te zetten, maar er nog niet over uit ben welk FS :P

Verwijderd

Reallocated Sector Count zijn sectoren die al zijn omgewisseld en dus niet langer problemen kunnen veroorzaken. Misschien in het verleden, maar niet meer.

Het is juist de Current Pending Sector die voor problemen kan zorgen, en UDMA CRC Error Count wat een indicatie is voor kabelproblemen. Zoals zovaak bij (vermoede) problemen van de hardeschijf kan het kijken naar de SMART gegevens veel zeggen in welke hoek je de problemen kan zoeken. dus ik raad aan dat je de output post van het commando smartctl -A /dev/....
(hoofdletter A krijg je alleen de relevante data)

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 20-12 23:24

Quindor

Switching the universe....

NIK0 schreef op maandag 10 oktober 2011 @ 16:07:
[...]

Zie je wel...ben ik toch niet helemaal lijp..ben nog steeds op zoek naar die build van de tweaker die groene en rode tape in z'n kast heeft geplakt...die 300+ pagina's beginnen toch te nekken zo langzamerhand. (of was het dan toch het 10TB topic ? )
Ah, that would be me. Althans, als je QuinFTP Gen 6.5 bedoelt, zoals je hier kunt vinden. De rode en groene tape was om 2 verschillende power paden aan te geven. De hotswap bays (van chieftec) kun je namelijk met 2x molex voeden.

Zo had ik dus een rode voedings draad en een groene en 1 volledige draad kon uitvallen zonder dat dit invloed had op de disks.

Beetje show uiteindelijk, aangezien ik een voeding heb met 1 x 12v voedings rail. Maar toch. Kabel fouten heb je op die manier ondervangen en vond het gewoon cool. ;) Zeker ook omdat ik alles uiteindelijk netjes gelabeld had en het mooi onder de afdek plaat van de case weg viel.

Ik zag dat je me inmiddels ook gemailed hebt, daar zal ik nog eventjes naar kijken!

[ Voor 4% gewijzigd door Quindor op 12-10-2011 22:24 ]

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


  • Sando
  • Registratie: Januari 2007
  • Niet online

Sando

Sandoichi

KennieNL schreef op woensdag 12 oktober 2011 @ 18:43:
[...]

Er zijn er wat bij gekomen, en wat weg. Maar mn realloced sector count blijft 0

Dus hoe erg het is, geen idee...

Maar het ergste is dat ik nog 2x2tb heb liggen welke ik al een paar maanden probeer in te zetten, maar er nog niet over uit ben welk FS :P
Ik heb trouwens mijn goedkope ebay rode satakabel vervangen door een wat duurdere gele met stevige veiligheidsclipjes (ofzo) en nu zijn bij mij die foutmeldingen weg! :X
Tenminste.. vooralsnog.

🇪🇺 Buy from EU (GoT)

Nog mensen die ervaring hebben in het flashen van IT firmware op een Rebranded LSI2008 controller?
Heb hier een Fujitsu Siemend HBA liggen wat eigenlijk een rebranded 9240-8i is, welke een LSI2008 bevat.
Ik heb een manual gevonden waarmee je de controller naar IT mode moet kunnen flashen, maar ik blijf hangen bij het flashen van de nieuwe firmware.

http://forums.servethehom...=1896&viewfull=1#post1896

Bij de stap: sas2flash -o -f 2108it.bin -b mptsas.rom zegt de tool dat hij geen controller kan vinden.
Terwijl megarec -adplist wel de controller list.

Iemand een idee?

Even niets...


  • Sneezydevil
  • Registratie: Januari 2002
  • Laatst online: 29-09 10:22
Het zal wel niet werken, maar misschien kun je met sas2flsh -listall het adapter nummer bekijken en dan bij het flashen met -c het adapter nummer meegeven?

Staan er nog rare dingen bij de -listall, of ziet sas2flsh hem bijvoorbeeld helemaal niet?
sas2flsh ziet hem helemaal niet, megarec en megacli wel.

Even niets...


  • NIK0
  • Registratie: Mei 2002
  • Laatst online: 22-12 13:07
Quindor schreef op woensdag 12 oktober 2011 @ 22:23:
[...]

Ah, that would be me. Althans, als je QuinFTP Gen 6.5 bedoelt, zoals je hier kunt vinden. De rode en groene tape was om 2 verschillende power paden aan te geven. De hotswap bays (van chieftec) kun je namelijk met 2x molex voeden.

Zo had ik dus een rode voedings draad en een groene en 1 volledige draad kon uitvallen zonder dat dit invloed had op de disks.

Beetje show uiteindelijk, aangezien ik een voeding heb met 1 x 12v voedings rail. Maar toch. Kabel fouten heb je op die manier ondervangen en vond het gewoon cool. ;) Zeker ook omdat ik alles uiteindelijk netjes gelabeld had en het mooi onder de afdek plaat van de case weg viel.

Ik zag dat je me inmiddels ook gemailed hebt, daar zal ik nog eventjes naar kijken!
Aah had het idd wel kunnen weten dat jij het moest zijn :) THANKS!
Heb je net nog even gemaild met nog wat aanvullende zaken..

Member of the Ukraine IT Army


  • _-= Erikje =-_
  • Registratie: Maart 2000
  • Laatst online: 22-12 10:00
Hmm, Zo'n RPC-4224 met m'n huidige setup in combinatie met een sasuc8i en een RES2SV240 lijkt me ook wel een leuke build.

Vraag me af wat een handige verdeling in ZFS is dan, 6x 4disk Z bv, maar dan verlies je wel 6 disks redundantie

Verwijderd

RAID-Z is niet zo heel veilig. Je hebt dan wel 6 disks parity maar als twee disks binnen één RAID-Z falen dan ben je alles kwijt. Dus wat dan wel?

Twee RAID-Z2 arrays van elk 10 disks is een goede keuze, met name voor 4K sector disks. Ook heb je dan maar 4 disks redundantie maar wel goede bescherming.

Overigens ben ik niet zo'n voorstander van expanders; dat lijkt me geen goede setup. Veel beter is meerdere HBAs; dat moet toch lukken met 24 disks? Ik weet niet welke hardware je al hebt, maar een SuperMicro bord met 14 SATA heb je met één controller dus al 22 SATA poorten. ZFS is juist de oplossing die het meeste performanceverlies kent bij gebruik van expanders en andere technieken die de dedicated pipe naar elke fysieke disk verstoren.

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op donderdag 13 oktober 2011 @ 08:48:
Nog mensen die ervaring hebben in het flashen van IT firmware op een Rebranded LSI2008 controller?
Heb hier een Fujitsu Siemend HBA liggen wat eigenlijk een rebranded 9240-8i is, welke een LSI2008 bevat.
Ik heb een manual gevonden waarmee je de controller naar IT mode moet kunnen flashen, maar ik blijf hangen bij het flashen van de nieuwe firmware.

http://forums.servethehom...=1896&viewfull=1#post1896

Bij de stap: sas2flash -o -f 2108it.bin -b mptsas.rom zegt de tool dat hij geen controller kan vinden.
Terwijl megarec -adplist wel de controller list.

Iemand een idee?
Ik zal thuis een duik nemen in de andere IT firmware (9210-8i als ik me niet vergis) welke ik succesvol in een M1015 heb kunnen flashen, is wellicht ook iets voor de FujSiem HBA.

Zipped firmware is hier te downen. Google wilde niet zo gauw wat info uitspugen mbt de FujSiem HBA, kom enkel modellen tegen met 2 externe aansluitingen.

[ Voor 11% gewijzigd door Pantagruel op 13-10-2011 20:11 . Reden: firmware ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R

Is ook niet echt een duidelijk verhaal... op serverthehome heeft een van de members het over een groene sticker met het sasaddress erop.

No way dat ik zo'n sticker heb 8-)

Even niets...


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op donderdag 13 oktober 2011 @ 20:23:
Is ook niet echt een duidelijk verhaal... op serverthehome heeft een van de members het over een groene sticker met het sasaddress erop.

No way dat ik zo'n sticker heb 8-)
Heb je dat nummer niet overgeschreven nadat je dit in het BIOS van de controller hebt opgezocht??
Zo nee, da's handig -O- , wellicht kun je mbv megacli het alsnog uitlezen.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R

Ik heb geen nummer opgeschreven omdat die tool dat niet detecteerd...
Maar heb wel in de logs een nummer gevonden wat er op leek (onder windows :))
Ik kom met jouw versie wel iets verder, maar hij zegt:

"Failed to validate MfgPage2!"

Even niets...


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op donderdag 13 oktober 2011 @ 20:48:
Ik heb geen nummer opgeschreven omdat die tool dat niet detecteerd...
Maar heb wel in de logs een nummer gevonden wat er op leek (onder windows :))
Ik kom met jouw versie wel iets verder, maar hij zegt:

"Failed to validate MfgPage2!"
Iemand binnen het ServeTheHome forum heeft iets soortgelijks gehad toen hij een Dell h200 direct van LSI IT firmware wilde voorzien. Dit blijkt niet te willen werken, om het uiteindelijk voor elkaar te krijgen heeft hij er eerst de Dell IT firmware in geflashed en daarna de LSI IT firmware. Wellicht is dit ook de te bewandelen weg voor jouw FujSiem HBA.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R

Heb net de H200i firmware geprobeerd, maar dat lukte ook niet. Heb nu een FujSiem IT image gevonden (lijkt het).
Even proberen :)

Even niets...


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op donderdag 13 oktober 2011 @ 21:13:
Heb net de H200i firmware geprobeerd, maar dat lukte ook niet. Heb nu een FujSiem IT image gevonden (lijkt het).
Even proberen :)
LOL, cross flash van een FujSiem HBA met Dell fw van de H200.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R

Nah, dat lukte ook niet.

Maar wel anders success :) op de FS site de nieuwste rom gevonden en die via megarec wel kunnen flashen.
De controller doet het dus nog...

Nu nog even kijken of ik de H200i image met megarec kan flashen :)

Even niets...


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op donderdag 13 oktober 2011 @ 21:30:
Nah, dat lukte ook niet.

Maar wel anders success :) op de FS site de nieuwste rom gevonden en die via megarec wel kunnen flashen.
De controller doet het dus nog...

Nu nog even kijken of ik de H200i image met megarec kan flashen :)
Als je er inmiddels de FS IT fw in hebt geflashed, kun je een poging wagen om er de LSI IT fw in te branden. Die Dell H200 stond in de forum post waar dezelfde foutmelding de kop op stak en was dus puur illustratief in dit geval.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R

Was helaas geen IT, maar IR firmware, en de controller boot er niet mee (nog geen BIOS volgens mij).
De search continues...

Even niets...


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op donderdag 13 oktober 2011 @ 21:44:
Was helaas geen IT, maar IR firmware, en de controller boot er niet mee (nog geen BIOS volgens mij).
De search continues...
Mmm prut, zuigt.

Misschien kun je van de FS IR fw naar LSI IR fw en dan naar LSI IT fw?

[ Voor 12% gewijzigd door Pantagruel op 13-10-2011 21:47 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R

http://www.xtremesystems....IBM-M5015-Intel-RS2BL080)

Ook erg handig topic.

Krijg ook de imr_fw.rom LSI IR image er op, maar booten doet hij niet.
sas2flsh ziet de adapter wel, maar als ik info opvraag krijg ik gaan sas address terug en geen firmware info...

[ Voor 36% gewijzigd door FireDrunk op 13-10-2011 22:17 ]

Even niets...


  • Psycho_Bartje
  • Registratie: Januari 2010
  • Laatst online: 22-12 23:16
Om mezelf dit soort ellendige gepuzzel (of is dat nou dat nou de charme van tweaken ;) ) te besparen heb ik wat meer euro's uit gegeven en ben voor een LSI 9211-8i gegaan. En dan nog was dat flash gebeuren voor mij een zenuwslopende klus 8)7
Veel sterkte ermee in ieder geval
Och, ik vind het leuk, en kon hem voor een prikkie overnemen :) (<€100 volgens mij)

Even niets...


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op donderdag 13 oktober 2011 @ 22:39:
Och, ik vind het leuk, en kon hem voor een prikkie overnemen :) (<€100 volgens mij)
Handige thread en een nette prijs voor de controller, als flashen dan lukt heb je voor een habbekrats een bruikbare IT controller om te gebruiken in een ZFS bak.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R

Weer een stapje verder, ik weet hoe ik de controller weer aan de praat moet krijgen...
Door een goede SBR te flashen...

Heb een screenshot waarin de controller denkt dat hij een PowerEdge Expandable Raid Controller is... :+

Even niets...


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op donderdag 13 oktober 2011 @ 22:57:
Weer een stapje verder, ik weet hoe ik de controller weer aan de praat moet krijgen...
Door een goede SBR te flashen...

Heb een screenshot waarin de controller denkt dat hij een PowerEdge Expandable Raid Controller is... :+
LOL, een controller met een identiteitscrisis :o

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R

Pagina: 1 ... 84 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.