• FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Ik denk dat MDADM wel zo slim is om te weten welke schijf de pariteit zou moeten gaan lezen, en die alvast het nieuwe blok te laten lezen, ipv de pariteit :) Hij slaat de pariteit toch gewoon over...

Mijn controllers zijn er nog steeds, dus maar even op onderzoek uitgegaan:


Departure from outward office of exchange NETHERLANDS 2011-01-10

Klinkt als luie TNT Post... Iemand ervaring met deze pakketstatus?

Even niets...


  • Demo
  • Registratie: Juni 2000
  • Laatst online: 22-12 08:23

Demo

Probleemschietende Tovenaar

FireDrunk schreef op woensdag 26 januari 2011 @ 16:55:
Ik denk dat MDADM wel zo slim is om te weten welke schijf de pariteit zou moeten gaan lezen, en die alvast het nieuwe blok te laten lezen, ipv de pariteit :) Hij slaat de pariteit toch gewoon over...
Dat ligt heel erg aan de manier waarop mdadm de schijven aanspreekt.. als alledrie de dataschijven bij het uitlezen van een block tegelijk worden aangesproken, dan zal er toch gewacht moeten worden omdat twee van de drie schijven voor het volgende block ook weer data moeten ophoesten. Mijn ervaring met twee hardware-controllers (Areca 1220 en Dell PERC5/i) is overigens ook N-1*leessnelheid van de traagste disk.

Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done


  • Zerobase
  • Registratie: Februari 2007
  • Niet online
De mijne was maandag (vanuit China) verstuurd en vandaag kwam de postbode 'm brengen!

De status die je noemt had mijn zending ook afgelopen maandag.

(Overigens is 'ie weer te koop ivm HW RAID controller: TE KOOP)
FireDrunk schreef op woensdag 26 januari 2011 @ 16:55:
Ik denk dat MDADM wel zo slim is om te weten welke schijf de pariteit zou moeten gaan lezen, en die alvast het nieuwe blok te laten lezen, ipv de pariteit :) Hij slaat de pariteit toch gewoon over...

Mijn controllers zijn er nog steeds, dus maar even op onderzoek uitgegaan:


Departure from outward office of exchange NETHERLANDS 2011-01-10

Klinkt als luie TNT Post... Iemand ervaring met deze pakketstatus?

[ Voor 4% gewijzigd door Zerobase op 26-01-2011 19:27 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Wat voor controller heb je nu dan? (of ga je krijgen :+ )

Even niets...


  • Zerobase
  • Registratie: Februari 2007
  • Niet online
Intel SRCSASBB8I

Voor weinig kunnen overnemen van iemand.

Ga er Samsung 2TB F4EG aan hangen. Voorlopig 4 in RAID5. En als het budget het weer toelaat 4 er bij (en dan RAID6).
FireDrunk schreef op woensdag 26 januari 2011 @ 19:39:
Wat voor controller heb je nu dan? (of ga je krijgen :+ )

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Oe, Samsung's in Hardware RAID5? Pas je wel een beetje op :) Zet NCQ iig uit...
Ik zou de eerste tijd iig extra backups bij de hand houden tot je je array volledig vertrouwd...

Even niets...


  • Zerobase
  • Registratie: Februari 2007
  • Niet online
Ik backup belangrijke data naar een externe harddisk. Dus als de handel in elkaar stort beginnen we gewoon weer overnieuw. Jammer van de data die ik dan kwijt ben, maar die kan ik missen.
FireDrunk schreef op donderdag 27 januari 2011 @ 08:59:
Oe, Samsung's in Hardware RAID5? Pas je wel een beetje op :) Zet NCQ iig uit...
Ik zou de eerste tijd iig extra backups bij de hand houden tot je je array volledig vertrouwd...

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Kijk, dat klinkt verstandig :) Waarom toch voor Hardware RAID? We hebben het zo intensief hier over alle vormen van software raid. Met welke redenen ben je toch voor Hardware RAID gegaan?

Even niets...


Verwijderd

Hoezo NCQ uit? Als hij de firmware fix heeft toegepast op zijn Samsungs zou die corruptie bug gefixed moeten zijn, of doelde je op wat anders?

  • Zerobase
  • Registratie: Februari 2007
  • Niet online
Reden om voor HW RAID te gaan is de prijs. Heb de controller namelijk voor weinig over kunnen nemen (en met weinig bedoel ik voor ongeveer de prijs van de LSI).

HW RAID ontlast toch je systeem weer een beetje. En het staat wel stoer :+
FireDrunk schreef op donderdag 27 januari 2011 @ 11:04:
Kijk, dat klinkt verstandig :) Waarom toch voor Hardware RAID? We hebben het zo intensief hier over alle vormen van software raid. Met welke redenen ben je toch voor Hardware RAID gegaan?

Verwijderd

Probleem is alleen wel dat bij bad sectors je schijven eruit getrapt worden, dus goed je SMART data in de gaten houden en altijd een échte backup gebruiken voor je meest belangrijke bestanden (documenten, persoonlijke foto's, etc).

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Verwijderd schreef op donderdag 27 januari 2011 @ 14:04:
Probleem is alleen wel dat bij bad sectors je schijven eruit getrapt worden, dus goed je SMART data in de gaten houden en altijd een échte backup gebruiken voor je meest belangrijke bestanden (documenten, persoonlijke foto's, etc).
Nee hoor, gewoon TLER/CCTL aanzetten.

Wat voor mij de overwegingen waren, is dat je met hw-raid een single point of failure creëert, namelijk de controller. Met mdadm softraid is alles wat je nodig hebt een willekeurige SATA controller die het doet onder Linux. Je array overzetten naar een andere PC is dan een makkie. Als je raid-controller echter kapot gaat ben je de pineut. Daarbij komt natuurlijk nog de hogere prijs en het gebrek aan snelheidsverbetering. Met 300MiB/s @raid5 ben ik meer dan tevreden en ik betwijfel of hardware raid sneller was geweest. Het systeem wordt wel iets ontlast, maar is tegenwoordig toch ook een non-issue? Behalve misschien als je heel veel random writes doet. Ik heb een AMD Sempron 140 van €35 en die hoeft echt te hard te werken.

Wat ik wel 'mis' is de batterij en write cache protection. Hierdoor wordt zo'n hardware-raid wel minder gevoelig voor stroomstoringen. Maar verder heeft MDADM alles aan boord wat ik nodig hebt: online capacity expansion, online raid-level migration, online stripe/chunk size migration, hot spare support, etc. Zo'n beetje alles waarmee er bij goede hardware raid als de Perc en de Areca 1220 ook wordt geadverteerd.

NCQ moet overigens uit omdat de controller al NCQ doet.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • analog_
  • Registratie: Januari 2004
  • Niet online
FireDrunk schreef op woensdag 26 januari 2011 @ 16:55:
Ik denk dat MDADM wel zo slim is om te weten welke schijf de pariteit zou moeten gaan lezen, en die alvast het nieuwe blok te laten lezen, ipv de pariteit :) Hij slaat de pariteit toch gewoon over...
Dan verschuif je het probleem in tijd en dat helpt niet aangezien hij niet kan gokken wat ik ga lezen op voorhand (ja, voor sequentieel, maar het probleem van de eerste xor bit, blijft : niet op voorhand te schatten). Ook al zou jouw suggestie geïmplementeerd worden krijg je dit: read data blokje B maar tegelijkertijd lees je de pariteit van blokje C. Het werkt enkel als je pariteitsdata negeert, maar dan kan je even JBOD doen. Draai het hoe je het wilt maar transfer*(n-1) is de juiste waarde.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Klinkt zeer aannemelijk, als je het zo zegt kan ik er zeker inkomen. Maar je hebt toch ook zoiets als een queue. Daardoor weet je controller (of in dit geval MDADM) wat het volgende datablok zou moeten worden.

Dus er is een Opdracht A, die heeft 4 datablocks, 1 op elke schijf. Blok 1, 2 en 3 zijn data, en 4 is het pariteitblock.

Er is ook een Opdracht B, die heeft ook 4 datablocks, 1 op elke schijf. Block 1 is pariteit, 2, 3 en 4 zijn data.

Dan zou je controller dus kunnen zeggen:

Lees D1 lees A1, D2 lees A2, D3 Lees A3, D4 lees B2.

Als je Queue Depth maar diep genoeg blijft (en er dus veel sequentiele blocks achter elkaar gelezen worden) kunnen je disks (theoretisch) dus allemaal met vol vermogen lezen...

Maar dat is meer theorie van mij, dan praktijk :P

Even niets...


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Mn controllers en kabels zijn binnen :) vanavond maar eens kijken wat 9 schijven in raid6 doen :)

  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
FireDrunk schreef op woensdag 26 januari 2011 @ 16:55:
Ik denk dat MDADM wel zo slim is om te weten welke schijf de pariteit zou moeten gaan lezen, en die alvast het nieuwe blok te laten lezen, ipv de pariteit :) Hij slaat de pariteit toch gewoon over...

Mijn controllers zijn er nog steeds, dus maar even op onderzoek uitgegaan:


Departure from outward office of exchange NETHERLANDS 2011-01-10

Klinkt als luie TNT Post... Iemand ervaring met deze pakketstatus?
even bellen met het TNT hoofdcentrum zeggen dat je een pakje uit het buitenland verwacht het de trackingcode opgeven van DX. Hun kunnen het dan traceren (als het inderdaad al in .NL is)

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Heb je ook een telefoonnummer? :+ :+

Even niets...


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
LB06 schreef op woensdag 26 januari 2011 @ 16:08:
defaults,user,sunit=1024,swidth=3072,noatime,nodiratime,nodev,nosuid,allocsize=512m,logbufs=8,largeio
Gisteravond bezig geweest met het flashen van de schijven en de controllers en dat werkt ook allemaal, alleen hoe stel ik XFS nou in met de gegevens die LB06 gepost heeft ?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
/etc/fstab editen

Even niets...


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Je hoeft bij het aanmaken van het filesystem dus geen opties in te stellen ?

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Phoenix1337 schreef op vrijdag 28 januari 2011 @ 08:41:
[...]


Gisteravond bezig geweest met het flashen van de schijven en de controllers en dat werkt ook allemaal, alleen hoe stel ik XFS nou in met de gegevens die LB06 gepost heeft ?
Heb hem overigens nog wat verder getweaked (edit: dit gaat inderdaad over de fstab):

defaults,user,nodev,nosuid,sunit=1024,swidth=3072,swalloc,allocsize=1g,largeio,inode64,logbufs=8,logbsize=256k

Je moet overigens niet zomaar mijn sunit en mijn swidth overnemen.

De goede sunit bereken je als volgt: chunksize / 512, dus als je een chunk size hebt van 64KiB, wordt het 65536/512=128. Bij een chunk size van 512KiB krijg je 512KiB/512=1024.

De swidth bereken je zo: sunit * datadisks. Dus als je 4 schijven in raid-5 hebt, krijg je sunit * 3. Heb je 7 schijven in raid-6, heb je 5 dataschijven.

Ik heb een chunk size van 512KiB (dus een sunit van 1024) en 4 HDDs in raid-5, dus een swidth van 1024*3=3072.

Verder moet je ook nog exec toevoegen als je executables wilt kunnen uitvoeren vanaf die array. Of 'users' weghalen.

Bij het aanmaken van het FS heb ik niks instesteld. De meeste zaken kun je at mount time overriden (logisch, anders heb je een probleem als je je array op één of andere manier muteert). Je zou nog kunnen spelen van de block size van je FS, maar ik zou zo niet durven zeggen wat daar de impact van is. Volgens mij istie standaard 4KiB.

[ Voor 19% gewijzigd door HarmoniousVibe op 28-01-2011 10:28 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Ik had inderdaad al gevonden dat de sunit en swidth afhankelijk zijn van de grote van je schijf enzo :)

Nog een laatste vraag. Welke stripe-size hebben jullie gekozen? Ik heb nu 1MiB gekozen. Mn array is alleen heel erg traag met schrijven. ( 150MB/s met 9 schijven in raid6 )

  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
Phoenix1337 schreef op vrijdag 28 januari 2011 @ 08:41:
[...]


Gisteravond bezig geweest met het flashen van de schijven en de controllers en dat werkt ook allemaal, alleen hoe stel ik XFS nou in met de gegevens die LB06 gepost heeft ?
Zo te zien is dat de paramter regel die je gebruikt in de /etc/fstab om het volume mee te mounten. maar 100% zeker weten doe ik het niet.

edit & note2self: eerst op F5 drukken alvorens te reageren xD "There's nothing to see here people....move along..."

[ Voor 11% gewijzigd door DJ-NaRRa op 28-01-2011 10:29 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Phoenix1337 schreef op vrijdag 28 januari 2011 @ 10:24:
Ik had inderdaad al gevonden dat de sunit en swidth afhankelijk zijn van de grote van je schijf enzo :)

Nog een laatste vraag. Welke stripe-size hebben jullie gekozen? Ik heb nu 1MiB gekozen. Mn array is alleen heel erg traag met schrijven. ( 150MB/s met 9 schijven in raid6 )
Dat is ook wel heel erg groot... Dan moet jou controller best een hoop data in 1 keer verwerken... Dan worden de DMA requests ook groter. Ik zou voor grote files 256KiB of misschien 512KiB aanraden. Ik heb het getest met mijn P410 en vanaf 128KiB is het verschil eigenlijk maar minimaal. Daaronder is het wel iets trager voor grote files. 1MiB kan niet op mijn P410, maar dat lijkt me ook niet nodig.

@LB06

Heb je ook wat mooie benchmarks voor ons? :)

[ Voor 3% gewijzigd door FireDrunk op 28-01-2011 11:01 ]

Even niets...


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Dan stel ik de stripe-size toch maar iets lager in

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
FireDrunk schreef op vrijdag 28 januari 2011 @ 11:00:
[...]


Dat is ook wel heel erg groot... Dan moet jou controller best een hoop data in 1 keer verwerken... Dan worden de DMA requests ook groter. Ik zou voor grote files 256KiB of misschien 512KiB aanraden. Ik heb het getest met mijn P410 en vanaf 128KiB is het verschil eigenlijk maar minimaal. Daaronder is het wel iets trager voor grote files. 1MiB kan niet op mijn P410, maar dat lijkt me ook niet nodig.

@LB06

Heb je ook wat mooie benchmarks voor ons? :)
Version      1.96   ------Sequential Output------ --Sequential Input- --Random-
                    -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
sonata           4G  1438  96 279600 34 103558 22  3527  93 379626 46  341.2 16
Latency             10483us     145ms     225ms   36621us     114ms     147ms
                    ------Sequential Create------ --------Random Create--------
                    -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files:max:min        /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
sonata           16   259   2 +++++ +++   361   2   262   2 +++++ +++   408   3
Latency               533ms     238us     374ms     300ms      77us     384ms



Mijn laatste wijziging (inode64, logbsize en swalloc toegevoegd) lijkt echt een enorme impact te hebben gehad. Hiervoor was mijn sequential read & write 300MiB/s resp. 110MiB/s. Nu is het 375MiB/s lezen resp. 275MiB/s schijven!

[ Voor 47% gewijzigd door HarmoniousVibe op 28-01-2011 12:05 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Hmm, vreemd...
279MB/s lezen met 34% CPU usage.
379MB/s schrijven met 46% CPU usage.

Je zou verwachten dat je leessnelheid hoger is dan je schrijfsnelheid, en ik vind dat je wel erg veel CPU usage hebt :)
LB06 schreef op vrijdag 28 januari 2011 @ 11:18:
Mijn laatste wijziging (inode64, logbsize en swalloc toegevoegd) lijkt echt een enorme impact te hebben gehad. Hiervoor was mijn sequential read & write 300MiB/s resp. 110MiB/s. Nu is het 375MiB/s lezen resp. 275MiB/s schijven!
En wat is het nadeel van die opties? Want ik neem aan dat die met een prijs komen? :+

[ Voor 50% gewijzigd door FireDrunk op 28-01-2011 11:26 ]

Even niets...


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
FireDrunk schreef op vrijdag 28 januari 2011 @ 11:23:
Hmm, vreemd...
279MB/s lezen met 34% CPU usage.
379MB/s schrijven met 46% CPU usage.

Je zou verwachten dat je leessnelheid hoger is dan je schrijfsnelheid, en ik vind dat je wel erg veel CPU usage hebt :)
Je leest hem verkeerd. Het is andersom.

Ik heb overiges een trage CPU (AMD Sempron 140 45W TPD) dus dat zou wel kunnen.

Over die opties: inode64 zorgt ervoor dat je ook inodes voorbij de 1TB kunt opslaan, maar dit breekt compatibiliteit met oudere apps (totaal geen last van). Dit zorgt ervoor dat er veel minder random I/O hoeft plaats te vinden omdat je niet steeds terug hoeft naar de eerste TB. Zie ook http://xfs.org/index.php/...ode64_mount_option_for.3F. ("Also, performance sucks" :D).

Wat swalloc precies doet weet ik eigenlijk niet, maar ik zag het veel terugkomen in discussies over XFS.

De grotere logbsize verhoogt de performance, maar bij een crash zullen er meer writes verloren zijn gegaan. Het FS blijft overigens nog wel gewoon consistent. Die verloren writes boeien me compleet niks, omdat er ik het helemaal niet erg vind als ik laten we zeggen enkele tientallen MBs opnieuw moet downloaden :). Mijn NAS bevat bijna uitsluitend A/V. Bestanden van laten we zeggen 4-40GB en het is niet zo dat als ik tijdens het schijven een stukje kwijtraak, ik dat niet gewoon kan aanvullen :)). Mijn data is laten we zeggen, niet echt uniek.

[ Voor 58% gewijzigd door HarmoniousVibe op 28-01-2011 11:41 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Mjah, dan zijn het wel mooie waardes :)

Even niets...


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
aangezien we het nu toch over tunen hebben. Waar controleer ik die stripe size? (is een setting van mdadm raid toch) en is dat nog aan te passen bij een actieve array( en verstandig)?

bedankt voor die sunit / swidth tips. Dat gaan we vanavond maar eens even toepassen :)

edit- is het ook niet verstandig om "errors=remount-ro" te pasten in die string? of gaat dat niet binnen XFS?

[ Voor 17% gewijzigd door DJ-NaRRa op 28-01-2011 11:45 ]


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
DJ-NaRRa schreef op vrijdag 28 januari 2011 @ 11:41:
aangezien we het nu toch over tunen hebben. Waar controleer ik die stripe size? (is een setting van mdadm raid toch) en is dat nog aan te passen bij een actieve array( en verstandig)?

bedankt voor die sunit / swidth tips. Dat gaan we vanavond maar eens even toepassen :)
cat /proc/mdstat. Als je niet weet wat het is is het waarschijnlijk 64k (default in mdadm v2). Je kunt de chunk size alleen naderhand aanpassen met mdadm v3.

Overigens is mkfs.xfs zo aardig geweest om jouw raid-config uit te lezen uit mdadm en meteen de juiste sunit en swidth in te stellen. Echter als je array is gewijzigd zul je dit in je fstab moeten aangeven.

[ Voor 24% gewijzigd door HarmoniousVibe op 28-01-2011 11:49 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
LB06 schreef op vrijdag 28 januari 2011 @ 11:43:
[...]

cat /proc/mdstat. Als je niet weet wat het is istie waarschijnlijk 64k.
stripe size == chunk size?

  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Ja

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Goed nieuws en slecht nieuws:

Goede nieuws: Mijn controllers komen vandaag :+
Slechte nieuws: €25,- douanekosten :'(

Even niets...


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
ok duidelijk. Die staat hier al optimaal ingesteld. In mijn geval 64k m.b.v. de benchmark scripts van Q. thx voor het ophelderen.

nice FD :) had iemand anders hier ook niet die controllers besteld? die heb ik niet gehoord over douanekosten. ach 25,- valt wel mee. Het is nog altijd goedkoper dan hier in .nl

[ Voor 41% gewijzigd door DJ-NaRRa op 28-01-2011 12:02 ]


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
DJ-NaRRa schreef op vrijdag 28 januari 2011 @ 12:01:
ok duidelijk. Die staat hier al optimaal ingesteld. In mijn geval 64k m.b.v. de benchmark scripts van Q. thx voor het ophelderen.

nice FD :) had iemand anders hier ook niet die controllers besteld? die heb ik niet gehoord over douanekosten. ach 25,- valt wel mee. Het is nog altijd goedkoper dan hier in .nl
Geen douanekosten gehad. Niet voor mijn controller en niet voor mijn kabels.

errors=remount-ro is volgens mij wel een goed idee. Die heb ik zelf ook maar even toegevoegd.

[ Voor 8% gewijzigd door HarmoniousVibe op 28-01-2011 12:07 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Waar kan ik dat benchmark script vinden ?

/edit
Net even mn chunk-size veranderd naar 512k. Als ik met dd de schrijfsnelheid test is t 240MB/s. heeft wel iets geholpen maar is nog steeds niet echt hoog voor 9 schijven in raid6 ?

[ Voor 69% gewijzigd door Phoenix1337 op 28-01-2011 12:26 ]


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
Phoenix1337 schreef op vrijdag 28 januari 2011 @ 12:14:
Waar kan ik dat benchmark script vinden ?

/edit
Net even mn chunk-size veranderd naar 512k. Als ik met dd de schrijfsnelheid test is t 240MB/s. heeft wel iets geholpen maar is nog steeds niet echt hoog voor 9 schijven in raid6 ?
240MB/sec is echt niet slecht hoor. ik haal zelf 275 MB/sec met 8 schijven in raid 6. vergeet niet dat als je wegschrijft dat hij ook op alle andere disks aan het schrijven is he ;)

hier is het script: http://louwrentius.com/bl...raid-benchmarking-script/

Wel even aanpassen want het create - dropped je array meerdere malen en format het als XFS. dus niet echt geschikt om te testen met live data.

mijn uitslagen destijds:
DJ-NaRRa schreef op dinsdag 30 november 2010 @ 23:29:
beide raid6 alle schijven op moederbord getest met een schrijf / read van 52gig:
code:
1
2
3
4
5
6
7
EXT3 64kb chunk:
read - 556MB/s
write - 147MB/s

XFS 64kb Chunk:
read - 550 MB/s
write - 277 MS/s
Ik moet zeggen dat ik nu op mijn setup met AHCI aan wat slechtere resultaten boek, maar ik hoop met die tweaks toch weer in de buurt te komen. zou anders niet weten waar het verschil in zou kunnen zitten... haal nu 180MB/s read en 90MB/sec write....

[ Voor 10% gewijzigd door DJ-NaRRa op 28-01-2011 12:36 ]


  • Kriss1981
  • Registratie: Februari 2008
  • Laatst online: 20-12 17:28
Op Q zijn blog kun je zien dat RAID 5 & 6 arrays betere prestaties leveren met een kleinere chuncksize. Misschien kun je zijn benchmark script gebruiken om jou optimale chunkcsize te bepalen.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Ik vraag me wel af of Q's waardes nog wel kloppen als je de tips/tricks van LB06 gebruikt... Die lijken namelijk ervoor te zorgen dat je veel meer parallel gaat doen op je FS.

Even niets...


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
FireDrunk schreef op vrijdag 28 januari 2011 @ 13:14:
Ik vraag me wel af of Q's waardes nog wel kloppen als je de tips/tricks van LB06 gebruikt... Die lijken namelijk ervoor te zorgen dat je veel meer parallel gaat doen op je FS.
Over een paar dagen heb je je antwoord. Was het eigenlijk niet van plan maar ik ben nu aan het reshapen naar een chunk size van 64K. Daarna zal ik mijn sunit/swidth weer aanpassen en weer bonnie++ draaien.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
FireDrunk schreef op vrijdag 28 januari 2011 @ 13:14:
Ik vraag me wel af of Q's waardes nog wel kloppen als je de tips/tricks van LB06 gebruikt... Die lijken namelijk ervoor te zorgen dat je veel meer parallel gaat doen op je FS.
je zou hem natuurlijk kunnen aanpassen dat ie de gemaakte array mount met de waardes van LB06 en vervolgens performance gaat testen. kost alleen wat meer tijd.

ik heb een 64k chunk dus ik zal vanavond even die mount opties aanpassen en dan eens performance draaien met DD en bonnie++ welke instellingen heb jij gebruikt voor bonnie++ ? en heb je nog iets anders gedaan met het FS zelf of gewoon alles gewoon standaard?

[ Voor 22% gewijzigd door DJ-NaRRa op 28-01-2011 13:35 ]


Verwijderd

Als je grote stripesize gebruikt moet je meer data queuen, dat kun je denk ik ergens instellen en is filesystem-specifiek. 1 megabyte stripesize zou het beste zijn voor random I/O IOps, in tegenstelling dat wat vaak gedacht wordt, doet random I/O het het beste met grotere stripes, en sequential I/O het beste met kleinere stripes. Veel mensen denken juist precies andersom.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Verwijderd schreef op vrijdag 28 januari 2011 @ 13:43:
Als je grote stripesize gebruikt moet je meer data queuen, dat kun je denk ik ergens instellen en is filesystem-specifiek. 1 megabyte stripesize zou het beste zijn voor random I/O IOps, in tegenstelling dat wat vaak gedacht wordt, doet random I/O het het beste met grotere stripes, en sequential I/O het beste met kleinere stripes. Veel mensen denken juist precies andersom.
Heb je daar een bronnetje van? :+

Even niets...


Verwijderd

Ik heb niet zo snel een bron voor je, maar sta er wel voor 100% achter. Ik heb namelijk zelf tests gedaan om dit te verifiëren.

Er zit wel een máár aan: als je storage driver (zoals Windows onboard RAID) een low-level optimalizatie heeft, waardoor het altijd de volledige stripe leest in plaats van een deel ervan, dan gaat je random reads wel een knauw krijgen met een hoge stripesize; maar Linux MD-raid zou veel beter moeten zijn dan dat. Mogelijk dat dit dus opgaat voor Silicon Image en Promise en JMicron enzo, beetje de budget driverRAID. Dit wordt mogelijk gedaan omdat anders je in HDTune een te laag resultaat krijgt, omdat HDTune maar een queue depth = 1 gebruikt. Dat is niet genoeg om alle stripe blocks aan te spreken. Gevolg is een 'sawtooth' ofwel zaagtand patroon in HDTune benchmarks. De File benchmark zou wel normale scores moeten geven, omdat je filesystem altijd queue depth toepast wanneer je grote bestanden leest.

De reden waarom een grote stripesize goed is voor random I/O: seeken is langzaam. Het lezen van 4 kilobyte duurt 0.0005 seconden ofzo, maar het seeken duurt 0.02 seconden dus dat is onze bottleneck. Nu we 4 schijven hebben en elke schijf grofweg 100 IOps doet, kunnen we max 400IOps uit deze configuratie halen, maar alleen als elke schijf seeked naar een andere locatie. Dus 1e I/O requests doet schijf 1, 2e I/O request doet schijf2, enzovoorts. Aangenomen dat de requests redelijk verdeeld worden en met een queue depth, kun je de 100% performance scaling halen met random read en random write. Terwijl schijf A de eerste I/O verwerkt gaat Schijf B dus al seeken naar de 2e plek. Elke I/O requests wordt door één schijf afgehandeld. Als je een kleine stripesize kiest dan kan het (steeds vaker) voorkomen dat twee of meer schijven aan één request werken, en daarmee gaan je random IOps omlaag.

De reden waarom een kleine stripesize goed is voor sequential I/O: doordat de stripes kleiner zijn, heb je minder queued I/O nodig om alle schijven van werk te voorzien. Met 32 kilobyte stripesize en 4 schijven in RAID0 heb je aan een 128KiB request met queue depth = 1 al genoeg om alle schijven aan het werk te zetten. Terwijl je met 1 megabyte stripesize en 4 schijven in RAID0 in totaal 4 megabyte read-ahead moet hebben om de schijven aan het werk te houden; windows doet dat niet ik vermoed 128KiB read-ahead of iets in die richting.

Ben benieuwd of je dit kunt verifiëren in je tests. Zou zo simpel kunnen zijn als met dd testen, alhoewel je voor random IOps iets anders nodig hebt.

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Ik heb wel een aantal benchmarks gevonden die dat toch tegenspreken:

http://blog.jamponi.net/2...0.html#raid-5-performance
http://alephnull.com/benchmarks/sata2009/chunksize.html

Je lijkt het te hebben over Windows en/of fakeraid. Blergh. Ik heb veel meer vertrouwen in MDADM en XFS moet ik zeggen.

Sowieso vind ik de benches van Q wel een heel raar patroon hebben. Nog maar 4000 minuten dan kan ik het zelf testen ;). Ik zie het al gebeuren dat ik daarna toch weer terug wil = weer 4000 minuten reshapen. Zucht.. :p

[ Voor 44% gewijzigd door HarmoniousVibe op 28-01-2011 14:44 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Verwijderd schreef op vrijdag 28 januari 2011 @ 14:30:
*knip*
Als je een kleine stripesize kiest dan kan het (steeds vaker) voorkomen dat twee of meer schijven aan één request werken, en daarmee gaan je random IOps omlaag.
*knip*
Ik kan je hele verhaal goed volgen, behalve bovenstaand stukje. Als ik namelijk een hele grote file heb, moeten alle schijven veel meer IOPS doen om hetzelfde aantal chunks op te halen.

Als ik een stripe heb van 64KB op een file van 50G zijn dat dus 819200 chunks. Als elke schijf 1000 IOPS (fictief getal) sequentieel doet met een request size van 16KB (in het geval van 4 disks) zou dat per schijf dus 819 seconden duren.

Als ik een stripe heb van 512KB op een file van 50G zijn dat dus 102400 chunks. Als elke schijf 800 IOPS doet met een request size van 128KB (in het geval van 4 disks) zou dat per schijf dus 128 seconden duren.

Nou klopt mijn berekening niet helemaal omdat in het bovenste voorbeeld de schijf 16MB/s leest en in het onderste voorbeeld 100MB/s.

maar je snapt misschien mijn punt wel...

Even niets...


Verwijderd

FireDrunk schreef op vrijdag 28 januari 2011 @ 17:03:
Ik kan je hele verhaal goed volgen, behalve bovenstaand stukje. Als ik namelijk een hele grote file heb, moeten alle schijven veel meer IOPS doen om hetzelfde aantal chunks op te halen.
Oke nou als je het tot zover volgt dan ben je er al bijna! Zelf testen vervolgens en je snapt hoe I/O performance écht werkt; alles is gekoppeld aan elkaar: latency (ms), IOps en throughput (MB/s). Het valt me wel op dat ik dit zelf moest uitvinden en er relatief maar weinig over I/O performance te lezen is op het web wat echt verhelderd, dus laat ik je proberen te leren wat ik zelf geleerd heb.

De kern van je verhaal is: als je een kleine stripesize kiest en je gaat een groot bestand lezen of schrijven, heb je veel meer IOps nodig om dezelfde throughput te bereiken, dat klopt helemaal!


Command overhead
Echter, meer IOps om dezelfde throughput te bereiken betekent nog niet automatisch langzamer. Er is wel iets meer overhead en als je lager gaat dan 32KiB stripesize dan zul je hier wel last van krijgen. Overigens vooral door je CPU; Windows is bijvoorbeeld single-threaded zoals ik heb gemerkt; als je kleine request sizes heel veel IOps gaat doen zoals met ATTO, dan zul je zien dat je CPU bottlenecked wordt op maar één core. Als je een quadcore met hyperthreading hebt (8 virtuele cores) wordt dat lekker gemaskeerd door slechts 12.5% cpu belasting; niets aan de hand toch, ligt aan de schijf! Maar dat is dus niet zo; de schijf kan echt veel IOps aan voor sequential I/O. Dat kun je testen met dd in Linux. Mijn tests waren trouwens op FreeBSD, wat een best geavanceerd I/O framework heeft dat GEOM heet. Met een simpel 'gstat' commando kun je de I/O volgen die je met 'dd' veroorzaakt. Probeer een kleine blocksize (bs=512) en een grote (bs=128k) en zie hoe de IOps en throughput en latency van elkaar verschillen. Dit heeft mij enorm veel geleerd door echt te zien wat ik doe met benchmarks, in plaats van gewoon een getal krijgen als resultaat en het daarmee maar moeten doen; geen verklaring over het waarom achter dat getal.


Read ahead
Het punt van een kleine stripesize, is dat je ook met weinig I/O al meerdere disks aan het werk zet. Met een stripesize van 32KiB en 4 disks, betekent dat er maar één request van 128KiB nodig is om alle requests aan het werk te houden. Oftewel aan queue depth = 1 heb je genoeg. Met een stripesize van 1 Megabyte moet je in totaal 4 megabyte vooruit lezen om alle schijven 'bezig te houden'; dat zul je sowieso moeten tweaken anders krijg je heel trage throughput omdat er maar een beperkt aantal schijven op enig moment van werk voorzien kan worden. Stel je past 128KiB readahead toe waar 4MiB nodig is, dan krijg je niet veel meer doorvoerperformance (throughput) dan een enkele disk.


Per saldo
Het positieve effect van laatstgenoemde, is veel sterker dan het negatieve effect van eerstgenoemde, waardoor per saldo dus zo is dat kleine stripes goed/beter zijn voor sequential I/O en grote stripesize noodzakelijk is voor maximale random IOps waarbij het 99,999% op de seektime aankomt en je dus nooit wilt dat twee schijven aan één request werken zodat ze beide naar een enkele I/O moeten seeken. Je wilt dat alle schijven in de stripe naar een andere random I/O request seeken zodat ze elk maar één seek per I/O hoeven uit te voeren. In dat geval heb je dus vier hardeschijven die kunnen seeken naar individuele locaties. De enige 'maar' in dat verhaal is dat door de striping het soms zal gebeuren dat de ene disk meer requests krijgt dan de ander, en dus dat het niet perfect verdeeld wordt over alle schijven.


Random & Sequential I/O
Random I/O wil zeggen dat er geen 'contiguous' requests zijn, requests die netjes op elkaar aansluiten. Bij Sequential I/O zal de HDD blokken opgevraagd krijgen die netjes elkaar opvolgen. De HDD herkent dit patroon en past intern read-ahead toe en writes worden altijd al gebuffered. Bij Random I/O kan dat niet, random I/O wil dus zeggen een I/O patroon wat voor de HDD niet te voorspellen valt.

Stripesize
Stripesize wordt vaak verkeerd begrepen. Het is niets anders dan 'interleaving'; het in elkaar vlechten van de schijven in een soort round-robin patroon. Als je dus minder schrijft/leest dan de stripesize, zet je één disk aan het werk, als je méér schrijft dan zet je meerdere schijven aan het werk.

Offset
Maar nu nog wat ingewikkelder, offset/alignment! Dat wordt vaak helemaal niks over gezegd. Je HDD en RAID array bestaat uit sectoren; 512-bytes bijna altijd. Nu gaan veel benchmarks die "Random I/O" doen er van uit dat je altijd een alignment van 4 kilobytes aanhoudt. Dus zij doen Random I/O zoiets als 8 KiB - 12KiB lezen, waarbij 8 dus keurig begint op een 4KiB-alignment boundary. Wat ze niet doen is 7.5 - 11.5KiB; dat is pas ECHT random I/O; met 512-byte alignment. In IOmeter kun je dit instellen en een rits benchmarks onder Linux vast ook; even zoeken in de manpage!

Kan nog veel meer vertellen, maarehh; misschien leuk om een apart topic te maken? Zoals 'de theorie achter RAID' ofzoiets. Wil er best wat meer over vertellen; te meer omdat ik niet zo gauw URLs kan geven waar dit alles wordt uitgelegd.

  • Q
  • Registratie: November 1999
  • Laatst online: 23:00
leuke discussie.

Stel: mail server met maildir format; dus veel kleine files < 16 kb ofzo. Dan wil je je chunk size niet kleiner dan 16-32 hebben want anders gaat inderdaad 1 request 2 disks aan het werk zetten, wat gezien de kleine hoeveelheid data meer overhead door seeken geeft dan het lezen van de data.

Kijk eens naar een grote file van 10 GB. Dan wil je zoveel mogelijk data per seek naarbinnen slurpen. Omdat de data sequentieel is hoeft de hd alleen maar naar de volgende track? te seeken en die tijd is heel kort. Je wilt een HD goed lang per request aan het werk houden en de communicatie overhead van requests tot een minimum beperken.

Bij een mailserver met kleine files zou dit niet gunstig zijn omdat de tijd die wordt besteed aan het lezen van extra data (die niet nodig is) de schijf bezet houdt. Je io stort in. Een mail server wordt gelimiteerd door de random seeks. Je wilt die seeks dus zo veel mogelijk gelijk matig over alle schijven verdelen. Hoe meer schijven hoe meer seeks je parallel / simultaan aan kunt.

Ik voel behoeften om nog eens wat benches te draaien met die exttra file system opties voor sequentieel lezen/schrijven. Maar ook leuk om eens de io performante mee te nemen met fio bijvoorbeeld.

Anyway

Anno 2011 wil je eigenlijk niets meer met disks te maken hebben qua IO. Koop een oceaan aan RAM en cache die zooi. Dat is btw wat de hele grote jongens doen. Die draaien in-memory databases zoals Oracle's TimesTen: Wikipedia: TimesTen.

[ Voor 7% gewijzigd door Q op 28-01-2011 21:04 ]


  • axis
  • Registratie: Juni 2000
  • Laatst online: 26-01-2023
W00t, kom er net achter dat er in CentOS/RHEL 5.3 en hoger al een iscsi-target ingebakken zit (tgtd).. Zo te zien werkt die best aardig! Geen obscure tarballetjes meer downloaden en compilen :)

Heb nog een oud servertje staan (met 6x15k SAS disks, dat dan wel) met CentOS, en ik heb binnen 10 minuten een iscsi target draaien en een aantal ESX servers als initiator ingesteld, en ik haal nu 190MB/s over een 2x1Gbps bond. Handig voor het migreren van VM's van een oude ESX server naar een nieuwe ESX server, met storage vmotion.

Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Ik moet morgen ubuntu maar even opnieuw installeren. Na een dist-upgrade en een release upgrade is de helft kapot :p

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Mijn controllertjes zijn binnen! De eerste heb ik geflasht naar die nieuwste LSI firmware 6.32.0 dacht ik. En de tweede ziet windows nog niet, maar met 3 raid controllers in 1 bord kan ik me daar enigzins iets bij voorstellen... We gaan ze gewoon om en om flashen...

Ik zie alleen nergens het woord IT Firmware ofzo? Ik kon alleen maar gewoon firmware downloaden...
Iemand een idee?

* FireDrunk is nu nog alles aan het backuppen :+

Misschien straks nog ESXi installeren en dan maar eens koekeloeren naar FreeNAS met ZFS voor een eerste testje :P

Even niets...


Verwijderd

Je kunt de utility in met een toetscombinatie (Alt+D ofzo?) daar zie je ergens een nummer met -IT aan het einde, althans bij mij. Kun je proberen.

  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Je moet gewoon de LSI firmware downloaden en die op een bootable usb schijf zetten. Dat start je het bat bestand op wat erbij zit en dan kan je vanzelf een keer IR of IT firmware kiezen. Ik zat eerst ook al te kijken en toen maar gewoon wat geprobeerd en t werkte :)

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
ah, dat klinkt goed, zometeen maar eens proberen... :)
Heb nog een bootable usb stickje liggen van het flashen van mijn samsung drives :D

[ Voor 43% gewijzigd door FireDrunk op 29-01-2011 17:36 ]

Even niets...


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Tijdens het flashen vraagt hij ook nog om welk typenummer je wil flashen. Je moet dat ff op de LSI site kijken welk nummer daar bovenaan staat. Dat nummer moet je ook kiezen in het flash menu.

Daarnaast moet je ook nog kiezen welke revisie je hebt. Dat wordt een stukje daarboven gechecked.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Gelukt, exacte typenummer was 3068ETB2 (T voor IT en B2 voor het model)
Ik moest wel via EFi flashen omdat mijn moederbord blijkbaar issues heeft via DOS.

Ook slikt het bord de controllers maar in 1 slot, en werkt het bios niet in een ander slot en ik kan nog niet vinden hoe dat komt... Maar de kaarten werken in ieder geval.

11:40: Installing ESXi :)
12:00 VT-d werkt!
12:17 Eerste VM is al geinstalleerd! Nu even kijken of ik de LSI naar een Windows VM doorgelust krijg!
12:40 VT-d werkt! LSI geeft keurig disks door aan mijn vm!

Morgen weer een dag :P

[ Voor 26% gewijzigd door FireDrunk op 30-01-2011 00:53 ]

Even niets...


  • johnkeates
  • Registratie: Februari 2008
  • Laatst online: 04-07 16:30
Waarom zou je ESXi gebruiken? De performance van een Xen setup is vele malen beter...

  • prozak
  • Registratie: December 2003
  • Laatst online: 22:34
FireDrunk schreef op zaterdag 29 januari 2011 @ 15:14:
Mijn controllertjes zijn binnen! De eerste heb ik geflasht naar die nieuwste LSI firmware 6.32.0 dacht ik. En de tweede ziet windows nog niet, maar met 3 raid controllers in 1 bord kan ik me daar enigzins iets bij voorstellen... We gaan ze gewoon om en om flashen...

Ik zie alleen nergens het woord IT Firmware ofzo? Ik kon alleen maar gewoon firmware downloaden...
Iemand een idee?
Apart, ik hoefde helemaal geen firmware flash uit te voeren. Schijven werden gewoon als eenvoudige schijven herkend. Heb alleen natuurlijk niet op de versie gelet. Misschien had ik toevallig de IT versie. Controller komt iig van dezelfde plaats...

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
johnkeates schreef op zondag 30 januari 2011 @ 05:11:
Waarom zou je ESXi gebruiken? De performance van een Xen setup is vele malen beter...
Uh, dat is een wel heel bold statement... Simpelweg roepen dat iets beter is, slaat hier op tweakers natuurlijk nergens op...

Ik vind een Ford Fiesta beter dan een Catterpillar dieplader, maar ja, ik ben dan ook geen mijnwerker...

Even de redenen om ESX te gebruiken:

• Laagdrempelig voor mensen zonder diepgaande Linuxkennis
• Simpele VT-d configuratie
• Makkelijk te beheren
• Uitstekende performance
• Memory ballooning
• Ik ga binnenkort mijn VCP halen, dus is een thuissetup met ESX wel fijn.
• Xen heeft geen beheertooling van het niveau van VMware
• VMware kan ik op mijn werk support voor krijgen (zitten 10+ experts)
• ESX heeft VMA.

Nog meer redenen? of is Xen gewoon 'beter' ... 8-)

Even niets...


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
prozak schreef op zondag 30 januari 2011 @ 08:27:
[...]


Apart, ik hoefde helemaal geen firmware flash uit te voeren. Schijven werden gewoon als eenvoudige schijven herkend. Heb alleen natuurlijk niet op de versie gelet. Misschien had ik toevallig de IT versie. Controller komt iig van dezelfde plaats...
Je schijven worden altijd als losse schijven herkend als je geen array hebt geconfigureerd..

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
LB06 schreef op zondag 30 januari 2011 @ 11:05:
[...]

Je schijven worden altijd als losse schijven herkend als je geen array hebt geconfigureerd..
Dat zou prima kunnen, alleen had ik nog geen disk aangeknoopt :+
Ik wilde eerste de firmware updaten en dan pas aan de slag gaan. Ik heb de nieuwste firmware in IT mode geflasht, dat ik dat over IR mode heen deed kan me eigenlijk niet zoveel schelen.

Maar het veschil in firmware was wel redelijk hoog, dus misschien voor anderen een tip om ook te gaan updaten.

Even niets...


  • prozak
  • Registratie: December 2003
  • Laatst online: 22:34
LB06 schreef op zondag 30 januari 2011 @ 11:05:
[...]

Je schijven worden altijd als losse schijven herkend als je geen array hebt geconfigureerd..
Ik dacht dat het punt van de fw update juist was dat de schijven 'los' herkend werden. Wat ik tot tot op heden begreep was dat bij de Intel kaarten met IR fw namelijk niet het geval. Schijven werden niet herkend als er geen array werd aangemaakt. Zie ook niet waar de noodzaak voor de IT fw upgrade anders uit zou bestaan?

Verwijderd

Noodzaak van IT firmware is dat je schijven niet gefailed/disconnect worden door de IR firmware bij een bad sector enzo. Met IT firmware bepaalt het OS wat er gebeurt; niet de IR firmware. Anders kun je nog steeds het geval krijgen dat de IR firmware doodleuk je disks 'detached' waardoor je OS er niets meer mee kan.

Met IR draai je in feite een RAID controller en met IT een SAS/SATA controller (HBA).

Als je de utility ingaat zou je moeten kunnen zien of je IR mode of IT mode draait. Ik zie bij mij in elk geval duidelijk een nummer met daar achter -IT staan; en ik neem aan dat dit de firmware mode is.

[ Voor 7% gewijzigd door Verwijderd op 30-01-2011 11:43 ]


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Ik heb nog twee vraagjes. Als ik mijn machine reboot wordt de array niet goed omgebouwd. Hij komt dan op /dev/md_d0 te staan terwijl dit /dev/md0 moet zijn en ik kan er dan ook niets mee. Ik moet hem eerst stoppen en daarna weer starten waarna hij wel op /dev/md0 terrecht komt. Hoe zorg ik ervoor dat dit ineenkeer goed gebeurd?

Dan als tweede, moet ik een partitie aanmaken of kan ik de array direct formatteren als xfs?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
mdadm.conf wijzigen? daar staat dat toch in?

Even niets...


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
De regel die daar instaat is ook goed:

ARRAY /dev/md0 level=raid6 num-devices=9 UUID=1683c7db:0e0f2cc0:80232d42:16e94938

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Heb je autoconfig aanstaan? Als MDADM je array al vind en je config gaat daar nog eens overheen, dan word md_d0 aangemaakt omdat die andere al gemount is (dacht ik :P)

Even niets...


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Mja, als md_d0 beschikbaar is, is md0 niet beschikbaar. Ik ga even kijken naar autoconfig.

Gister ook even wat testjes uitgevoerd en hier het resultaat:

Afbeeldingslocatie: http://zuipgevaar.nl/raid6%20diagram.jpg

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Phoenix1337 schreef op zondag 30 januari 2011 @ 12:33:
Mja, als md_d0 beschikbaar is, is md0 niet beschikbaar. Ik ga even kijken naar autoconfig.

Gister ook even wat testjes uitgevoerd en hier het resultaat:

[afbeelding]
Dat zijn hele aparte resultaten... Naar wat ik zo zie staan ze een beetje krom op het verhaal van de afgelopen dagen? Of lees ik het verkeerd?

Even wat anders:

Weet iemand een goede efficiente modulaire voeding? Ik word knettergek van alle powerkabels in mijn server, en ik wil eigenlijk gewoon een modulaire voeding met 1 kabel waarop *al* mijn disks aangesloten zitten (12 stuks + 1 SSD).

Alle hedendaagse echt zuinige voedingen zijn allemaal niet modulair :( (Seasonic, BeQueit L7, Antec Green)

[ Voor 27% gewijzigd door FireDrunk op 30-01-2011 12:42 ]

Even niets...


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Ik vind het ook vaag. Ik heb het scriptje gebruikt wat hier eerder gepost werd. Die maakt dus een xfs partitie aan en leest en schrijft met dd naar die partitie.

/edit
Als voeding gebruik een Coolstermaster m520. Ik ga straks wel zelf mn powercable maken omdat er eigenlijk geen kabels zijn waar je zoveel schijven ineenkeer op aan kan sluiten.

[ Voor 36% gewijzigd door Phoenix1337 op 30-01-2011 12:49 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Moet je even in het scriptje kijken of persistant superblock aanstaat, daarmee kan mdadm je config teruglezen na reboot... Standaard staat dat aan dacht ik...

Als je nu al je disks in een ander systeem prikt met mdadm erin, zou je array automagisch gemount moeten worden met dezelfde config...

Even niets...


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Ik neem aan dat dat wel aanstaat want als ik de array stop en daarna weer start dan wordt de array gewoon goed gestart.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
maar dat kan ook omdat je config in mdadm.conf staat :)

Jemig, ik heb om 13:30 een ticket ingelegd bij LSI en nu al reactie! Die mensen zijn echt snel :P

Heb nog steeds problemen met 2 controllers tegelijkertijd in mijn systeem... Het lukt maar niet om er 2 tegelijk aan de praat te krijgen :'(

Het ligt iig niet aan de controllers... In mijn desktop met een Biostar 790GX werken ze wel prima tegelijkertijd :'(

Ik dacht dat het eerst misschien aan de PCIe signalling kon liggen (ik heb 1 x16, en 2 x8 waarvan 1 x16 signalling op mijn bord) maar beide controllers in een x16 slot in mijn desktop werkt prima...

Toch maar terug naar Intel dus :'(

[ Voor 106% gewijzigd door FireDrunk op 30-01-2011 14:50 ]

Even niets...


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
LB06 schreef op vrijdag 28 januari 2011 @ 10:15:
[...]

Heb hem overigens nog wat verder getweaked (edit: dit gaat inderdaad over de fstab):

defaults,user,nodev,nosuid,sunit=1024,swidth=3072,swalloc,allocsize=1g,largeio,inode64,logbufs=8,logbsize=256k

Je moet overigens niet zomaar mijn sunit en mijn swidth overnemen.

De goede sunit bereken je als volgt: chunksize / 512, dus als je een chunk size hebt van 64KiB, wordt het 65536/512=128. Bij een chunk size van 512KiB krijg je 512KiB/512=1024.

De swidth bereken je zo: sunit * datadisks. Dus als je 4 schijven in raid-5 hebt, krijg je sunit * 3. Heb je 7 schijven in raid-6, heb je 5 dataschijven.

Ik heb een chunk size van 512KiB (dus een sunit van 1024) en 4 HDDs in raid-5, dus een swidth van 1024*3=3072.

Verder moet je ook nog exec toevoegen als je executables wilt kunnen uitvoeren vanaf die array. Of 'users' weghalen.

Bij het aanmaken van het FS heb ik niks instesteld. De meeste zaken kun je at mount time overriden (logisch, anders heb je een probleem als je je array op één of andere manier muteert). Je zou nog kunnen spelen van de block size van je FS, maar ik zou zo niet durven zeggen wat daar de impact van is. Volgens mij istie standaard 4KiB.
Wanneer ik de regel in mn fstab zet, dan krijg ik foutmeldingen tijdens het mounten van de partitie. Hij struikelt over de sunit.

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Phoenix1337 schreef op zondag 30 januari 2011 @ 15:25:
[...]


Wanneer ik de regel in mn fstab zet, dan krijg ik foutmeldingen tijdens het mounten van de partitie. Hij struikelt over de sunit.
Wat zegt ie dan? Je moet de sunit/swidth sowieso niet zomaar overnemen he.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • Q
  • Registratie: November 1999
  • Laatst online: 23:00
Mijn storage beest kan niet van USB media booten als mijn storage controller er in zit. Om mijn systeem in te richten moet ik het OS er eerst op zetten zonder controller er in.

Ook intel is niet heilig, maar dit kan net als bij jou puur een probleem zijn van het specifieke model, niet amd of intel.

  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
LB06 schreef op zondag 30 januari 2011 @ 17:27:
[...]

Wat zegt ie dan? Je moet de sunit/swidth sowieso niet zomaar overnemen he.
mount: wrong fs type, bad option, bad superblock on /dev/md0p1,
missing codepage or helper program, or other error
In some cases useful info is found in syslog - try
dmesg | tail or so

T werkt wel als ik sunit en swidth eruit haal.

sunit=1024, swidth=7168 met 9 schijven in raid6

  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
Phoenix1337 schreef op zondag 30 januari 2011 @ 15:25:
[...]


Wanneer ik de regel in mn fstab zet, dan krijg ik foutmeldingen tijdens het mounten van de partitie. Hij struikelt over de sunit.
en je hebt de regel wel aangepast naar je eigen setup?

  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Ja :)

Dit is de regel die ik gebruik:
/dev/md0p1      /media/data     xfs     defaults,user,nodev,nosuid,swalloc,sunit=1024,swidth=7168,allocsize=1g,largeio,inode64,logbufs=8,logbsize=256k   0    0

[ Voor 3% gewijzigd door Phoenix1337 op 30-01-2011 19:43 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Q schreef op zondag 30 januari 2011 @ 18:04:
[...]


Mijn storage beest kan niet van USB media booten als mijn storage controller er in zit. Om mijn systeem in te richten moet ik het OS er eerst op zetten zonder controller er in.

Ook intel is niet heilig, maar dit kan net als bij jou puur een probleem zijn van het specifieke model, niet amd of intel.
I know, maar de tweede controller word gewoon helemaal niet gedetecteerd... Heb alle overbodige onderdelen al verwijderd of uitgezet... De controller werkt vreemd genoeg maar in een PCIe slot... In andere sloten word hij gewoon niet gedetecteerd...

Even niets...


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Ik heb ook sloten waarin hij niet gedetecteerd wordt, toevallig een pcie x4 slot ?

Verwijderd

FireDrunk schreef op zondag 30 januari 2011 @ 12:36:
[...]
Even wat anders:

Weet iemand een goede efficiente modulaire voeding? Ik word knettergek van alle powerkabels in mijn server, en ik wil eigenlijk gewoon een modulaire voeding met 1 kabel waarop *al* mijn disks aangesloten zitten (12 stuks + 1 SSD).

Alle hedendaagse echt zuinige voedingen zijn allemaal niet modulair :( (Seasonic, BeQueit L7, Antec Green)
Ik heb net een Corsair AX850 in mijn fileserver gebouwd, 80 plus gold en modulair. Lekker veel aansluitingen ook :) Deze is gebaseerd op een bepaalde serie van Seasonic (X-nogwat) heb ik gelezen, maar deze had ik de volgende dag al in huis.

  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
Phoenix1337 schreef op zondag 30 januari 2011 @ 19:41:
Ja :)

Dit is de regel die ik gebruik:
/dev/md0p1      /media/data     xfs     defaults,user,nodev,nosuid,swalloc,sunit=1024,swidth=7168,allocsize=1g,largeio,inode64,logbufs=8,logbsize=256k   0    0
ik heb zelf ook de regel in mijn fstab toegevoegd. Ik wacht nog op een paar downloads en dan zal ik hier eens kijken of ik problemen zie als ik mijn raid array mount met die opties.

Ik laat het je asap even weten.

hier dezelfde error als dat jij krijgt met code:
code:
1
/dev/md6  /mnt/oscar  xfs  defaults,user,nodev,nosuid,sunit=128,swidth=768,swalloc,allocsize=1g,largeio,inode64,logbufs=8,logbsize=256k,errors=remount-ro 0  0


8 schijven in raid 6 met een 64k chunk size.

edit 2: ook als ik de sunit/swidth weghaal blijf ik de error houden. Bij mij ligt het dus aan (nog) iets anders.
edit 3: even naar dmesg | tail gekeken. blijkbaar werkt errors=remount-ro niet onder xfs en bij mij was het ook nog zo dat inode64 niet gesupport was op dit systeem... wat doet inode64 precies bij het mounten LB06?

Ik denk dat er toch een foute berekening in je sunit zit phoenix. wat is je chunksize?

meteen maar even testen of dit mijn array sneller maakt :)

edit 4: niet dus..... gemiddelde read speed(dd 10gb 5 tests) gaat 11MB/sec omhoog van 514 naar 525MB/sec
de write speed blijft om te janken. Die is zelfs wat gezakt van gemiddeld 81,5MB/sec naar 77MB/sec. Wederom 5 tests van 10gb file met dd.

Helaas dus weinig improvement voor mij en ga dus lekker terug naar de oude mount opties.

[ Voor 53% gewijzigd door DJ-NaRRa op 30-01-2011 21:53 ]


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Chunksize = 512k

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Dan moet je inderdaad een sunit van 1024 hebben. Vreemd..

Mijn fstab:
UUID=54ca6fa5-ac24-4afc-9afe-a4be1753xxxx /mnt/data     xfs     defaults,user,nodev,nosuid,sunit=1024,swidth=3072,swalloc,allocsize=1g,largeio,inode64,logbufs=8,logbsize=256k,errors=remount-ro 0      2


Heb je een partitie gemaakt op je MDADM array? Heb je dat expres gedaan? Wat als je probeert te mounten met alleen 'defaults'?

[ Voor 3% gewijzigd door HarmoniousVibe op 31-01-2011 00:41 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Mounten zonder sunit en swidth werkt gewoon dus defaults werkt dan ook.

Als ik geen partitie aanmaak dan komt er in mn syslog iets over no partition table found te staan of maakt dat niets uit ?

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Phoenix1337 schreef op zondag 30 januari 2011 @ 21:59:
Mounten zonder sunit en swidth werkt gewoon dus defaults werkt dan ook.

Als ik geen partitie aanmaak dan komt er in mn syslog iets over no partition table found te staan of maakt dat niets uit ?
Dat maakt niet uit. Heb je niet toevallig een MBR-partitietabel? Die kan geen parities aan van > 2.2TB namelijk.

Zelf is bij mij alles partitieloos. Ik zie totaal geen reden om partities aan te maken. Mijn array bestaat direct uit block devices en op mijn MD-device heb ik direct mkfs.xfs gemaakt.

Over inode64: http://xfs.org/index.php/...ode64_mount_option_for.3F

Een bijkomend voordeel is dat je niet krijgt dat de inodes vooraan staan en de data achteraan op de HDD. Minder random reads and writes dus.

[ Voor 16% gewijzigd door HarmoniousVibe op 30-01-2011 22:22 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Nee, is wel een gpt partitietabel, maargoed, dan gooi ik die partitie ook weer weg :)

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Phoenix1337 schreef op zondag 30 januari 2011 @ 20:33:
Ik heb ook sloten waarin hij niet gedetecteerd wordt, toevallig een pcie x4 slot ?
Ik heb van boven naar beneden:

x16 fysiek - x16 lanes
x8 fysiek - x16 lanes
x8 fysiek - x8 lanes

Hij werkt alleen in de onderste...
Maar mijn desktop (2x x16 Fysiek en x16 lanes) pakt de kaarten wel gewoon samen.

Even niets...


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Ahh, t werkt nu. T moet inderdaad zonder partitie.

/edit
Wanneer ik nu test met dd haal ik maar 90MB/s lezen :s vraag me af waar dat aan ligt. Dit terwijl ik de tests ook uitgevoerd heb met dd en hij daar daar wel 500+mb lezen deed.

[ Voor 65% gewijzigd door Phoenix1337 op 30-01-2011 23:25 ]


Verwijderd

Let op dat dd direct op de device (/dev/) vreemde performance effecten kan geven. dd doet in feite queue depth =1, terwijl als je met je filesystem leest dit read-ahead activeert en automatisch voor meer queue depth zorgt; maar als je dd direct op je raw device doet dan sla je dit over en kun je dus sterk wisselende performance krijgen.

Dus wat je moet doen is even mounten met filesystem naar keuze en dan een bestand schrijven wat grote is dan 2x RAM:

dd if=/dev/zero of=/pad/naar/filesystem/zero.file bs=1M count=10000

Daarna weer lezen:
dd if=/pad/naar/filesystem/zero.file of=/dev/null bs=1M

Merk op dat file-cache je read resultaten enorm kan beinvloeden. Kies je voor count=500 zodat je maar 500MB schrijft en leest, dan zal die 500MB in je RAM staan en dus zal je leestest (en mogelijk ook schrijf) enorm hogere resultaten geven zoals 2.5GB/s. In dat geval moet je dus een groter bestand gebruiken zodat je het systeem dwingt meer realistische resultaten te geven.

  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Dat is ook wat heb ik gedaan, en dit is ook hoe de test uitgevoerd is (waarvan ik t grafiekje hierboven gepost heb ). Ik vind t maar vaag.

Verwijderd

Wat heb je nu precies veranderd dan, dat je nu zoveel lagere resultaten krijgt?

En je hebt een partitie op je /dev/md0 device? Je mag wel partities hebben op je disks die onderdeel zijn van /dev/md0, maar /dev/md0 mag zelf geen partitie hebben, of althans dat raad ik af; dan kun je alignment problemen krijgen.

Je kunt gewoon zonder partitie /dev/md0 van een filesystem voorzien, en dan de UUID gebruiken zoals je al doet om te mounten in je fstab.

[ Voor 10% gewijzigd door Verwijderd op 31-01-2011 00:00 ]


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Dat was mijn fstab denk ik :)

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Ik heb niets veranderd. Dat is ook het rare. Zelfs als ik de mount options op defaults zet krijg ik dezelfde lage readwaardes.

Kan het aan de assume-clean liggen als er al wat data op de schijf heeft gestaan?

/edit
Net de array en filesystem even opnieuw aangemaakt en nu doet hij wel netjes 695MB/s :)

[ Voor 18% gewijzigd door Phoenix1337 op 31-01-2011 10:20 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Das nice :P ik hoop dat ik ook zulke snelheden ga halen :P

Even niets...


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Mja, is wel sequentieel he :) kan nu eindelijk beginnen met data overpompen.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Nou, na heel wat gehannis met Intel en LSI krijg ik nu toch wel een mailtje om van te janken...

LSI: Your RMA request is not approved, the card is counterfeit.

Vrij vertaald, de kaarten zijn vervalst

Intel: Is their another card working in a slot of the motherboard?
Ik: Yes, a P410 Raid controller is working fine.
Intel: So what is the problem
Ik: The LSI controller is not working in the first 2 slots.
Intel: Did you upgrade the firmware/BIOS?
Ik: Yes
Intel: Then there is nothing more we can do.
Ik: But it's an officially supported controller...
Intel: We can only offer you a replacement if your board is broken, else we cannot do anything.


Kakzooi, koop je dure spullen om zeker te weten dat je een beetje werkend spul in huis haalt, krijg je dit...
Dan maar 1 controller minder... Wie bied? :+

[ Voor 3% gewijzigd door FireDrunk op 31-01-2011 18:42 ]

Even niets...


Verwijderd

Wat is nu precies vervalst? De controller? Kun je niet teruggaan naar de winkel waar je het gekocht hebt?
Pagina: 1 ... 41 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.