• FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Ja ik ga straks DealExtreme maar even mailen...

Done... Nu maar afwachten wat zij ervan vinden...

[ Voor 38% gewijzigd door FireDrunk op 31-01-2011 22:41 ]

Even niets...


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Heb je nu met Intel over je LSI controller gepraat?

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Ook, Intel zegt simpelweg dat ze niks kunnen doen en dat het probleem bij LSI ligt. LSI zegt (buiten de counterfeit meuk om) dat het waarschijnlijk aan het bord ligt. Iets met de afhandeling van Option ROM's.

Maar ik weet zeker dat dat het niet is, want 1 kaart in Slot 1 werkt ook niet.
Het is volgens mij de handshake op PCIe 2.0 niveau tussen moederbord en kaart die niet goed gaat.
Het werkt namelijk prima in een PCIe 1.0 slot.

En aangezien alles in mijn eigen desktop (2 x PCIe 2.0) wel gewoon werkt. verdenk ik het BIOS in de Intel plank. Maar maak ze dat maar eens wijs...


Was er nou iemand hier die hetzelfde chipset als ik had (3420) alleen dan op een SuperMicro bord?
Want dan kom ik graag een keer langs om te kijken of mijn kaartjes daar wel werken :+

[ Voor 13% gewijzigd door FireDrunk op 31-01-2011 23:09 ]

Even niets...


  • vargo
  • Registratie: Januari 2001
  • Laatst online: 15-12 17:15
Zie op hardforum ook deze thread: http://www.hardforum.com/showthread.php?t=1581324

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Ja die had ik gezien, CiPHER had hem al ge-DM-ed :) (waarvoor dank btw :) )

Blijft toch beetje vreemd... Want de kaarten werken wel gewoon, dus zo 'nep' zijn ze niet...

Even niets...


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 17:00

mphilipp

Romanes eunt domus

FireDrunk schreef op maandag 31 januari 2011 @ 23:29:
Ja die had ik gezien, CiPHER had hem al ge-DM-ed :) (waarvoor dank btw :) )

Blijft toch beetje vreemd... Want de kaarten werken wel gewoon, dus zo 'nep' zijn ze niet...
Dat is wel vaker met die spullen. Er zijn ook valse processoren in omloop die het 'doen'. Ze zijn dan niet zozeer nagemaakt, maar afgekeurde. Er kan dus iets mis mee zijn, maar ze zijn in ieder geval niet door het bedrijf dat op de chip staat in roulatie gebracht. Het kan dus best zijn dat iemand wel echte LSI chips heeft, maar het printje heeft gekloond en niet volgens de juiste specs in elkaar geknutseld heeft. Zo krijg je dus problemen. Wel frappant trouwens dat die counterfeit meuk niet eens zo onopvallend door een niet zo heel obscuur winkeltje op internet wordt verkocht.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
LB06 schreef op vrijdag 28 januari 2011 @ 11:18:
[...]

Version      1.96   ------Sequential Output------ --Sequential Input- --Random-
                    -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
sonata           4G  1438  96 279600 34 103558 22  3527  93 379626 46  341.2 16
Latency             10483us     145ms     225ms   36621us     114ms     147ms
                    ------Sequential Create------ --------Random Create--------
                    -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files:max:min        /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
sonata           16   259   2 +++++ +++   361   2   262   2 +++++ +++   408   3
Latency               533ms     238us     374ms     300ms      77us     384ms



Mijn laatste wijziging (inode64, logbsize en swalloc toegevoegd) lijkt echt een enorme impact te hebben gehad. Hiervoor was mijn sequential read & write 300MiB/s resp. 110MiB/s. Nu is het 375MiB/s lezen resp. 275MiB/s schijven!
Benches op basis van 64k chunk ipv 512k (en bijbehorende sunit/swidth)

Version  1.96       ------Sequential Output------ --Sequential Input- --Random-
Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
sonata           4G  1419  94 282286 36 99672  22  3468  92 400301 52 347.2  16
Latency             12253us     345ms     179ms   37356us     115ms   75750us
Version  1.96       ------Sequential Create------ --------Random Create--------
sonata              -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16    98   0 +++++ +++   100   0    98   0 +++++ +++   124   1
Latency               985ms     237us     856ms     764ms      43us     964ms

Oftewel, 64k is inderdaad iets beter.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
vraag ik me toch af waarom ik zo'n belabberde write output heb op mijn array. Het lezen gaat als een tierelier @ gemiddeld 525MB/sec alleen dat schrijven..... vaak niet hoger dan 80MB/sec.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
iostat draaien? :)

Even niets...


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
en wat schiet ik daarmee op? dan zie ik alleen wat er op dit moment gedaan wordt op mijn schijven.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
En dan dus hoeveel IO er per schijf gegenereerd word? Misschien heb je wel 1 rotte schijf (cache kaduuk ofzo)

Heeft er hier iemand verstand/ervaring met het afplakken van PCIe connectors?
Want ik zit te denken om te proberen om het SMBus gedeelte af te plakken van 1 van de kaarten, in de hoop dat het dan wel werkt...

[ Voor 49% gewijzigd door FireDrunk op 01-02-2011 11:19 ]

Even niets...


  • Loekie
  • Registratie: Juli 2001
  • Laatst online: 15:11
FireDrunk schreef op maandag 31 januari 2011 @ 23:29:
Ja die had ik gezien, CiPHER had hem al ge-DM-ed :) (waarvoor dank btw :) )

Blijft toch beetje vreemd... Want de kaarten werken wel gewoon, dus zo 'nep' zijn ze niet...
Hmmz, net vorige week besteld en krijg nu dit te horen.
Er gaat een cancel naar DX, dan maar iets meer kwijt voor controller die m'n data veilig moet houden.

specs


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Loekie schreef op dinsdag 01 februari 2011 @ 11:26:
[...]

Hmmz, net vorige week besteld en krijg nu dit te horen.
Er gaat een cancel naar DX, dan maar iets meer kwijt voor controller die m'n data veilig moet houden.
Ik heb ook een mailtje gestuurd naar DX dat ik mijn geld terug wil. Ben benieuwd wat ze zeggen..

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
FireDrunk schreef op dinsdag 01 februari 2011 @ 10:37:
En dan dus hoeveel IO er per schijf gegenereerd word? Misschien heb je wel 1 rotte schijf (cache kaduuk ofzo)

Heeft er hier iemand verstand/ervaring met het afplakken van PCIe connectors?
Want ik zit te denken om te proberen om het SMBus gedeelte af te plakken van 1 van de kaarten, in de hoop dat het dan wel werkt...
elke schijf produceert ongeveer evenveel I/O dus de cache is het niet. kan ik iets met bonnie++ testen om achter de oorzaak te komen?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Hoeveel IOps doen de schijven tijdens het schrijven? Kan je in IOSTAT zien hoeveel IOWAIT er voor een bepaalde schijf is? (ik ben niet zo'n held in IOSTAT maar het kan vast)

Want als je ziet dat de IOWAIT van 1 disk extra hoog is, dan weet je dat het die disk is.

Met bonnie++ kan je niets van dat soort gerei omdat het je Filesystem aanspreekt en niet je devices... Bonnie heeft geen flauw benul van je onderliggende array constructie.

Even niets...


  • j4zzper
  • Registratie: Januari 2011
  • Laatst online: 23-09-2022
Ben niet zo'n koning wat tweaken betreft, maar ben op zoek naar een goede uitbreidbare NAS die snel is en energiezuinig. Voor een kant en klare NAS met deze specs betaal je veel meer. Ik heb dit winkelmandje uitgezocht. Heeft iemand hier een mening over? ZIjn er efficiëntere keuzes te maken? Ben wel tevreden over de case (6 disks)..

http://azerty.nl/winkelma...33760]=1&product[351601]=

Ik wil met freenas gaan werken op de usb-stick. Of zou een complete ubuntu op 8 Gb passen?
Dank

  • Sannieboy
  • Registratie: April 2003
  • Laatst online: 21-11 13:36
Heren,

Een aantal maanden geleden aangegeven dat ik een NAS systeempje met dualboot configuratie zou samenstellen: Nu eindelijk het kastje klaar |:( , dualboot laat ik nog achterwege }:O ...ga eerst het simpele werk doen... :+

Fotos volgen nog, dit zijn de specs (ff uit mijn hoofd)...een hele drukke kast iig 8) :
* Lian-li Q08 behuizing
* Yetway 1156 mitx moederbord, met onboard Raid en 5 sata aansluiting plus 1 esata
* i3 540
* 4x 2TB F4 Samsung
* 1x 1.5 TB F2 Samsung
* 1dvd brander
* 2GB kingston reepje

Heb een aantal vragen en ik omdat ik helemaal een NOOB ben op het gebied van Linux:

1) FreeNAS lijkt mij eerste instantie goed genoeg om als besturingsysteem te gebruiken. Ik heb nu een 64 bits Intel systeem samengesteld, maar welke versie moet ik nu downloaden? Ik zag bijvoorbeeld dat er al een versie 0.8 aanwezig is. Het liefst werk ik gewoon via de dvd-rom (heb ik toch al inzitten), dus niet via de usb. De 0.7.2 amd 64 bit...is toch alleen voor AMD systemen? Verder begrijp ik de verschillen tussen live en embedded niet.
2) De vier 2TB wil ik later in software raid 5 zetten. De 1.5 Tb schijf wil opsplitsen in twee partities: 1) Windows 7 2) FreeNAS. De partities aanmaken moet ik dat gewoon in FreeNAS uitvoeren of van te voren met windows? NB: Windows ga ik nog niet installeren O+ .


Oftwel ik heb hulp nodig met het opstarten, alvast bedankt! _/-\o_

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
j4zzper schreef op dinsdag 01 februari 2011 @ 15:57:
Ben niet zo'n koning wat tweaken betreft, maar ben op zoek naar een goede uitbreidbare NAS die snel is en energiezuinig. Voor een kant en klare NAS met deze specs betaal je veel meer. Ik heb dit winkelmandje uitgezocht. Heeft iemand hier een mening over? ZIjn er efficiëntere keuzes te maken? Ben wel tevreden over de case (6 disks)..

http://azerty.nl/winkelma...elmandje/?legen=1&product\[309167]=1&product\[249646]=2&product\[253333]=1&product\[33760]=1&product\[351601]=

Ik wil met freenas gaan werken op de usb-stick. Of zou een complete ubuntu op 8 Gb passen?
Dank
Waarom geef je zo'n godsvermogen uit aan een kast in vergelijking tot je andere hardware? Als het alleen maar een NAS is kijk je er toch niet de hele dag tegenaan? Beetje zonde van je geld... Ik zou dat in meer disks stoppen, of een Athlon II x2/x4 (die is gewoon veel sneller dan zon slome Atom)

Even niets...


Verwijderd

Sannieboy schreef op dinsdag 01 februari 2011 @ 16:40:
Een aantal maanden geleden aangegeven dat ik een NAS systeempje met dualboot configuratie zou samenstellen: Nu eindelijk het kastje klaar |:( , dualboot laat ik nog achterwege }:O ...ga eerst het simpele werk doen... :+
Hoe stel je je dualboot precies voor? Als je in windows boot dan is je NAS down? Heeft windows toegang tot je schijven? Kan zeer gevaarlijk zijn; windows vraagt je bijvoorbeeld om je schijven te 'initializeren' en als je dat doet is je data weg, niet zo cool denk ik.
* Yetway 1156 mitx moederbord, met onboard Raid en 5 sata aansluiting plus 1 esata
Wat voor RAID engine ga je gebruiken? Als je in FreeNAS software RAID gebruikt moet je je controller op AHCI zetten en niet op RAID, dit is erg belangrijk anders vliegen je schijven er continu uit als je bad sectors hebt.
* i3 540
* 4x 2TB F4 Samsung
* 2GB kingston reepje
Als je ZFS gaat gebruiken is 2GB erg weinig en kun je beter voor minimaal 8GiB gaan (2x4), 16GiB (4x4) of 24GiB (6x4). Dat laatste kost slechts 200 euro voor goedkoop DDR3 geheugen.

Als je normaal software RAID met UFS gaat doen heb je aan 2GB genoeg.
Heb een aantal vragen en ik omdat ik helemaal een NOOB ben op het gebied van Linux:
OpenMediaVault is Linux, maar FreeNAS is gebaseerd op FreeBSD en dat is geen linux, wel vergelijkbaar.
FreeNAS lijkt mij eerste instantie goed genoeg om als besturingsysteem te gebruiken. Ik heb nu een 64 bits Intel systeem samengesteld, maar welke versie moet ik nu downloaden? Ik zag bijvoorbeeld dat er al een versie 0.8 aanwezig is. Het liefst werk ik gewoon via de dvd-rom (heb ik toch al inzitten), dus niet via de usb. De 0.7.2 amd 64 bit...is toch alleen voor AMD systemen? Verder begrijp ik de verschillen tussen live en embedded niet.
AMD heeft de 64-bits uitbreiding ontwikkeld voor x86, die Intel vervolgens heeft gekopiëerd. Dus x86 64-bit noemen we amd64 om AMD credit te geven, en x86 komt van intel dus noemen we i386 (i staat voor Intel).

Embedded is als je op een flash disk werkt, je wilt de full versie denk ik.

Versie 0.8 is nog beta, die moet je niet draaien voor echte data alleen om te testen.

2) De vier 2TB wil ik later in software raid 5 zetten. De 1.5 Tb schijf wil opsplitsen in twee partities: 1) Windows 7 2) FreeNAS. De partities aanmaken moet ik dat gewoon in FreeNAS uitvoeren of van te voren met windows? NB: Windows ga ik nog niet installeren O+ .[/quote]
Zou dat maar wel uittesten als dat je doel is; mogelijk dat dit niet goed werkt. Windows ondersteunt GPT partities ook erg slecht, dus moet je het ouderwetse MBR gebruiken. Misschien dat anderen hier nog wat over kunnen zeggen, zo goed ken ik FreeNAS namelijk niet.

  • w.l
  • Registratie: Mei 2007
  • Laatst online: 15-12 08:32

w.l

Mijn freenas server wil niet meer booten. Het boot proces eindigt hier:

code:
1
2
3
4
5
6
7
8
9
10
11
Trying to mount root from ufs:/dev/da0s1a
lockmgr: thread 0x83c90000 unlocking unheld lock
exec /sbin/init: error 20
exec /sbin/oinit: error 20
exec /sbin/init.bak: error 20
init: not found in path /sbin/init:/sbin/oinit:/sbin/init.bak:/rescue/init:/stand/sysinstall
panic: no init
cpuid = 1
Uptime: 5s
Cannot dump. Nu dump device defined.
Automatic reboot in 15 seconds


Iemand een idee wat het probleem zou kunnen zijn? Freenas staat geïnstalleerd op een usb stick.
Op hardware vlak is er de laatste maanden niets veranderd aan de setup.

Ik kan altijd freenas opnieuw installeren maar dat stel ik liever nog even uit.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Is de USB drive niet simpelweg kaduuk?

Even niets...


Verwijderd

Lijkt op een corrupt systeem filesystem. Beste is om een ZFS-only systeem te hebben. ZFS en UFS werken niet lekker samen, ook omdat UFS dan geheugen afsnoept van ZFS.

  • Sannieboy
  • Registratie: April 2003
  • Laatst online: 21-11 13:36
[quote]Verwijderd schreef op dinsdag 01 februari 2011 @ 18:29:
[...]

Hoe stel je je dualboot precies voor? Als je in windows boot dan is je NAS down? Heeft windows toegang tot je schijven? Kan zeer gevaarlijk zijn; windows vraagt je bijvoorbeeld om je schijven te 'initializeren' en als je dat doet is je data weg, niet zo cool denk ik.


[...]

Bedankt voor je uitgebreide reactie _/-\o_

Ik had van tevoren enige research gepleegd en ik had hier een stuk gelezen:

http://www.howtoforge.com...-on-raid10-ubuntu-windows

Dit leek mij wel wat, maar zoals je eerder aangaf zijn Linux en FreeNAS twee verschillende platformen |:( .

Na zoveel maanden het verhaal achterwege te hebben gelaten, was ik ff de draad kwijt :X

Dus ik moet eerst een keuze maken of ik voor FreeNAS ga of Linux(Ubuntu).Mocht een dualboot gewoon niet handig zijn, dan laat ik het achterwege. Het wordt tijd dat ik mijn dure systeempje laat werken. Het liefst in RAID 5 (sofware RAID en geen fake RAID), ZFS lijkt mij mooi, maar ik ga geen geld meer uitgeven voor extra RAM. Ik las dat voor ZFS, 1GB juist voldoende zou moeten zijn? :?

Nog meer vragen:
1)
Is het mogelijk om Ubuntu netals FreeBSD/FreeNAS via de webbrowser te bereiken? Ubuntu heeft als voordeel dat het ook als een soort mediacenter kan dienen, handig als ik de pc 1 keer onder de tv in de keuken zet. Maar ik wil hem sowieso altijd bereiken via mijn pc in mijn studeerkamer.

2)
Daarnaast vraag ik mijzelf nu wel af of die 1.5 TB die ik voor de OS en Windows in de kast heb geplaatst(sja ik had hem spare liggen) nu wel echt handig is, ....vooral omdat ik misschien Windows niet ga installen. Beetje overkill voor FreeNAS of Ubuntu of toch op 1 of ander nuttig? Ik denk wel als temp directory voor nzb,bestanden van SABnzbd.?

  • w.l
  • Registratie: Mei 2007
  • Laatst online: 15-12 08:32

w.l

Verwijderd schreef op dinsdag 01 februari 2011 @ 22:15:
Lijkt op een corrupt systeem filesystem. Beste is om een ZFS-only systeem te hebben. ZFS en UFS werken niet lekker samen, ook omdat UFS dan geheugen afsnoept van ZFS.
Nu is mijn filesytem UFS only. Ik weet niet waar je ziet dat ik ZFS gebruik?

Het lijkt er dan toch op dat ik freenas opnieuw moet installeren. Het is natuurlijk weer typisch dat vandaag mijn synology nas zou komen, dat freenas het dan voor bekeken houdt. :/

  • Sannieboy
  • Registratie: April 2003
  • Laatst online: 21-11 13:36
Heren,

Vraagje, ik zit nu allerlei opties te verzinnen. Ik kan ook gewoon windows 7 installen met fake RAID 10. De prestaties van windows RAID 10 zijn niet slecht meen ik?
De risico dat er iets fout gaat met de MOBO moet ik dan maar nemen.
Echter wat ik wel belangrijk vind, is zo'n windows 7 systeem dan wel te bereiken via de webbrowser...of moet dat dan via remote desktop? OF zijn er andere handige programma's daarvoor?

Ik wil het als back-up en download bak gebruiken (SABnzbd) en server voor mijn PS3 (PS3 mediaserver).

[ Voor 18% gewijzigd door Sannieboy op 02-02-2011 11:42 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Welke functies wil je via je webbrowser?

Even niets...


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Als je alles webbased in wil kunnen stellen kan je naar webmin kijken.

Wat ik ook niet snap is waarom iedereen zn controllers bij DX gaan annuleren. Ik heb 2 van die controllers in 1 systeem en dat werkt gewoon. Tenzijn jullie hetzelfde mobo als FireDrunk hebben.

Verwijderd

Nou anders aardig wat mensen (niet alleen op tweakers.net) die 'counterfeit' als reactie krijgen als ze een RMA willen aanmaken, dus alle reden om te annuleren en elders te bestellen denk ik. Kan prima zijn dat het een foute badge was die allang is verkocht/verwerkt maar ik zou persoonlijk het risico niet willen nemen. Gezeik met je controller wil je toch niet?

  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
DJ-NaRRa schreef op dinsdag 01 februari 2011 @ 13:46:
[...]


elke schijf produceert ongeveer evenveel I/O dus de cache is het niet. kan ik iets met bonnie++ testen om achter de oorzaak te komen?
ik heb gisteren even een paar testjes uitgevoerd. Ik weet niet of ik de goede insteek heb genomen omdat ik niet weet hoe iostat omgaat met gegevens.

testomgeving:

10 ssh terminals open.
1 met iostat -m 1 (alle disks)
8 met iostat -m 1 (per disk)
1 terminal voor dd

als ik met dd gewoon ruw van de schijf /dev/md6 lees en 550MB/sec haal is er op de array een iowait van 5 - 7%
als ik met dd een file wegschrijf op de gemounte array haal ik ca 80MB/sec en is er op de array een iowait van 18-20%

als ik dan naar elke losse disk kijk in iostat zie ik een vergelijkbare iowait scheelt 1/2% vaak.

nu is mijn vraag dus als volgt: Is het zo dat ongeacht of je iostat naar 1 losse disk laat kijken of naar de array dat de iowait over het gehele systeem berekend wordt of per disk?

In beide gevallen is het in mijn ogen een hoge IOwait. Kan het zijn dat mijn moederbord de limiterende factor is (alle disks zitten op het moederbord)?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Nee, dat moederbord zou echt wel snel genoeg moeten zijn. En ik neem aan dat je alles in AHCI modus draait... in Compatibility mode zou ik het misschien nog kunnen verwachten, maar zelfs dan.

Met wat voor DD commando test je die write speed?

Even niets...


  • Sannieboy
  • Registratie: April 2003
  • Laatst online: 21-11 13:36
FireDrunk schreef op woensdag 02 februari 2011 @ 11:40:
Welke functies wil je via je webbrowser?
Sjees eigenlijk best een goeie vraag :o

Bestanden bekijken/kopieren hoeft niet via de webinterface, daar hebben we Samba voor.
SABnzbd kan gewoom via mijn desktop, ik geef gewoon de NAS op als opslagplaats,

Enige wat ik nu kan bedenken aan en afsluiten van de computer, via wake-up lan ofzo?

Oh ja, PS3 mediaserver aan en uitzetten zou handig zijn

Sjonge jonge....twijfel twijfel 8)7

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Putty is je vriend... En als je dat wil automatiseren kan ik je wel een keer uitleggen hoe je met een scriptje een ssh tunnel opbouwt en gelijk een commando uitvoert.. Dan krijg je gewoon op je desktop 2 shortcuts 1 voor aanzetten van je server dmv wake on lan, en 1 om hem via SSH uit te zetten...

Even niets...


  • Sannieboy
  • Registratie: April 2003
  • Laatst online: 21-11 13:36
FireDrunk schreef op woensdag 02 februari 2011 @ 16:09:
Putty is je vriend... En als je dat wil automatiseren kan ik je wel een keer uitleggen hoe je met een scriptje een ssh tunnel opbouwt en gelijk een commando uitvoert.. Dan krijg je gewoon op je desktop 2 shortcuts 1 voor aanzetten van je server dmv wake on lan, en 1 om hem via SSH uit te zetten...
Ok, thanks ik ga ff zoeken over Putty :)

  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
FireDrunk schreef op woensdag 02 februari 2011 @ 15:52:
Nee, dat moederbord zou echt wel snel genoeg moeten zijn. En ik neem aan dat je alles in AHCI modus draait... in Compatibility mode zou ik het misschien nog kunnen verwachten, maar zelfs dan.

Met wat voor DD commando test je die write speed?
ja op beide controllers (mobo is verdeeld over 2 controllers 6 x sata600 en 2x sata300) staat ahci enabled.

voor write:

djn@Oscar:~$ sudo dd if=/dev/zero of=/mnt/oscar/public/download/test.bin bs=1M count=10000

voor read:

djn@Oscar:~$ sudo dd if=/dev/md6 of=/dev/null bs=1M count=10000
of
djn@Oscar:~$ dd if=/mnt/oscar/public/download/test.bin of=/dev/null bs=1M count=10000

enig idee wat ik nog meer zou kunnen testen?

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
bonnie++

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
precies, met /dev/zero testen vind ik altijd maar eng...
Gister trouwens mijn eerste ZFS testje gedaan... Ik heb 4 * 73GB 15K sas aan de LSI controller gehangen, en die aan een windows vm gegeven, daar haalde de schijven in RAID0 > 300MB/s

Daarna de controller aan een FreeNAS 0.7.2 installatie gegeven, en een ZFS raidz2 pool gemaakt, maar daar haal ik maar 16MB/s op... Beetje vaag, vanavond/morgen maar eens verder testen...

Even niets...


  • Kompaan
  • Registratie: Juni 2009
  • Laatst online: 02-12-2022
FireDrunk schreef op donderdag 03 februari 2011 @ 08:14:
precies, met /dev/zero testen vind ik altijd maar eng...
Gister trouwens mijn eerste ZFS testje gedaan... Ik heb 4 * 73GB 15K sas aan de LSI controller gehangen, en die aan een windows vm gegeven, daar haalde de schijven in RAID0 > 300MB/s

Daarna de controller aan een FreeNAS 0.7.2 installatie gegeven, en een ZFS raidz2 pool gemaakt, maar daar haal ik maar 16MB/s op... Beetje vaag, vanavond/morgen maar eens verder testen...
Niet helemaal eerlijke test lijkt mij, double parity tegenover RAID0, maar zo'n groot verschil zou het niet moeten zijn.

Je zou kunnen testen als je niet ZFS gebruikt of de snelheden dan ook zo beroerd zijn. Of ZFS op bare metal draaien (indien mogenlijk).

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Ohja, dat vergat ik te melden, ik heb ook een UFS Software RAID0 aangemaakt op dezelfde disks, daarmee haalde ik ook 16MB/s :)

Ik draai ZFS semi-bare-metal... Ik geef de controller direct aan de VM, dus het enige wat niet bare-metal is, is het geheugen...

Even niets...


Verwijderd

En als je nou direct dd op je schijf doet, krijg je dan wel de snelheid die je behoort te halen? Een misaligned partitie zou voor zulke lage snelheid kunnen zorgen, maar die 15k RPM schijven zijn vast gewoon 512-byte sector disks, dus dat zou dan het probleem niet mogen zijn.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Zal het vanavond eens testen.

[ Voor 40% gewijzigd door FireDrunk op 03-02-2011 12:54 ]

Even niets...


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
FireDrunk schreef op donderdag 03 februari 2011 @ 08:14:
precies, met /dev/zero testen vind ik altijd maar eng...
Gister trouwens mijn eerste ZFS testje gedaan... Ik heb 4 * 73GB 15K sas aan de LSI controller gehangen, en die aan een windows vm gegeven, daar haalde de schijven in RAID0 > 300MB/s

Daarna de controller aan een FreeNAS 0.7.2 installatie gegeven, en een ZFS raidz2 pool gemaakt, maar daar haal ik maar 16MB/s op... Beetje vaag, vanavond/morgen maar eens verder testen...
je weet dat je jezelf nu erg tegenspreekt he? in een eerdere post zeg je namelijk nog dat het testen met bonnie++ om te achterhalen waar de bottleneck zit geen zin heeft omdat het je FS benaderd en niet je onderliggende raid structuur.

zolang je /dev/zero netjes naar een bestand schrijft op een gemounte array is er niets aan de hand.Wat raad je dan aan als write test met DD?

Ik heb nu dus maar bonnie++ geinstalleerd maar welke tests zou ik kunnen uitvoeren om te achterhalen waarom write zo enorm buggered is?

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
bonnie++ -d /mnt/to/array/

Tegelijkertijd een beetje kijken naar iostat -k 1, iotop en top.

[ Voor 56% gewijzigd door HarmoniousVibe op 03-02-2011 16:29 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Ik zit met een probleem. Wanneer ik schijven aan mn array toe probeer te voegen kunnen 3 van de 6 WD schijven niet toegevoegd worden omdat deze net iets te klein zijn. Is er een manier om de used dev size van de array aan te passen?

/edit
Ik zat even door de manual van mdadm te bladeren en ik zie dat je bij grow het aantal bytes aan kan geven (--size= optie). Wat als ik nou met 1 schijf grow en dan de size van exact 2TB meegeef. Zou dat werken ?

/edit
Ben nu mn array aan t growen met 1 schijf. Ga daarna de size veranderen en daarna de rest uitbreiden.

[ Voor 43% gewijzigd door Phoenix1337 op 03-02-2011 19:21 ]


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
njah daarstraks maar even Bonnie++ gedraaid met de opties die LB06 aangaf. in top / iotop / iostat zie ik geen aparte dingen...cpu komt niet boven de 26% usage uit mem wordt ook amper gebruikt en de iowait is hetzelfde als bij de dd write varierend tussen 5 en 25%. geen losse disk die er echt uitspringt.... alle disks hebben dezelfde iowait ongeveer. de write speed in iostat lag gemiddeld tussen de 30 en 50MB/sec......


hier de output van Bonnie++ met activiteit op de server (DC++ 3 downloads en 2 uploads + wat samba verkeer)
code:
1
2
3
4
5
6
7
8
9
Version 1.03d       ------Sequential Output------ --Sequential Input- --Random-
                    -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
Oscar         6576M 37858  72 33796   3 23409   3 38990  84 207987  16 223.0   0
                    ------Sequential Create------ --------Random Create--------
                    -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16   349   1 +++++ +++   376   0   392   1 +++++ +++   222   0
Oscar,6576M,37858,72,33796,3,23409,3,38990,84,207987,16,223.0,0,16,349,1,+++++,+++,376,0,392,1,+++++,+++,222,0


en hier de log van bonnie zonder activiteit op de server:
code:
1
2
3
4
5
6
7
8
9
Version 1.03d       ------Sequential Output------ --Sequential Input- --Random-
                    -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
Oscar         6576M 52003  96 80298   9 53126   8 44099  95 568287  44 312.5   1
                    ------Sequential Create------ --------Random Create--------
                    -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16   487   1 +++++ +++   443   0   462   1 +++++ +++   256   0
Oscar,6576M,52003,96,80298,9,53126,8,44099,95,568287,44,312.5,1,16,487,1,+++++,+++,443,0,462,1,+++++,+++,256,0


voor mij is het abracadabra.

even nog wat sys specs:
AMD Athlon(tm) II X4 620
4 gb OCZ geheugen cas 7 7 7 (volgens mij)
8 x WD20EARS 2TB op moederbord geprikt in Raid 6 via mdadm 64kb chunk internal bitmap.

cat /proc/mdstat:
code:
1
2
3
4
5
6
Personalities : [raid6] [raid5] [raid4] 
md6 : active raid6 sda1[0] sdi1[7] sdh1[6] sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1]
      11721071616 blocks level 6, 64k chunk, algorithm 2 [8/8] [UUUUUUUU]
      bitmap: 5/233 pages [20KB], 4096KB chunk

unused devices: <none>


mdadm --detail /dev/md6:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
Oscar:/home/djn# mdadm --detail /dev/md6
/dev/md6:
        Version : 00.90
  Creation Time : Wed Dec 29 01:42:47 2010
     Raid Level : raid6
     Array Size : 11721071616 (11178.09 GiB 12002.38 GB)
  Used Dev Size : 1953511936 (1863.01 GiB 2000.40 GB)
   Raid Devices : 8
  Total Devices : 8
Preferred Minor : 6
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Thu Feb  3 22:02:53 2011
          State : active
 Active Devices : 8
Working Devices : 8
 Failed Devices : 0
  Spare Devices : 0

     Chunk Size : 64K

           UUID : 80e1bfa1:5375e68d:144cf207:3dd19c6c
         Events : 0.30

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1
       2       8       33        2      active sync   /dev/sdc1
       3       8       49        3      active sync   /dev/sdd1
       4       8       65        4      active sync   /dev/sde1
       5       8       81        5      active sync   /dev/sdf1
       6       8      113        6      active sync   /dev/sdh1
       7       8      129        7      active sync   /dev/sdi1

[ Voor 18% gewijzigd door DJ-NaRRa op 03-02-2011 23:44 ]


  • Q
  • Registratie: November 1999
  • Laatst online: 24-12 23:00
Bonnie op RAID is bullshit.

Voor de meeste mensen is alleen de sequentiële snelheid boeiend, die meet je gewoon met dd (naar een file...).

Als je toch benieuwd bent naar random io, test dan eens met FIO.

http://www.linux.com/archive/feature/131063

http://freshmeat.net/projects/fio/

Uit mijn hoofd doet mijn array maar iets van 1500+ random IOPS. Dat is dus ongeveer 83 random IO's per disk. Het zijn 20 disks, maar vanwege RAID 6 effectief 18 disks. Dus dan deel ik die 1500 door 18 disks. Ik weet niet of dit geldig is, anders kom je op iets van 75 random IO's per disk.

Volgens mij is dat niet bijster goed.

[ Voor 42% gewijzigd door Q op 03-02-2011 23:47 ]


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Hm, interessante uitspraak :). Waarom is dat?

P.S. Zorg er met dd in ieder geval voor dat je je cache dropt :)

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
Q schreef op donderdag 03 februari 2011 @ 23:44:
Bonnie op RAID is bullshit.

Voor de meeste mensen is alleen de sequentiële snelheid boeiend, die meet je gewoon met dd (naar een file...).

Als je toch benieuwd bent naar random io, test dan eens met FIO.

http://www.linux.com/archive/feature/131063

http://freshmeat.net/projects/fio/

Uit mijn hoofd doet mijn array maar iets van 1500+ random IOPS. Dat is dus ongeveer 83 random IO's per disk. Het zijn 20 disks, maar vanwege RAID 6 effectief 18 disks. Dus dan deel ik die 1500 door 18 disks. Ik weet niet of dit geldig is, anders kom je op iets van 75 random IO's per disk.

Volgens mij is dat niet bijster goed.
dd had ik al eerder getest voordat Bonnie werd aangeraden(omdat ik de oorzaak van de slechte write performance probeer te achterhalen, maar niet goed weet waar ik het moet zoeken). maar ook binnen dd een waardeloze write speed te betreuren.

ik zal fio wel eens installeren maar ik betwijfel of ik daarmee richting de oorzaak kom van de slechte performance.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Die chunk size vind ik erg klein... 64k betekend met 8 disks, dat je per IO maximaal 8k ophaalt... Dat zijn hele kleine writes :P

Als je dus 10MB wil wegschrijven heb je daar 1280 IO/s voor nodig... Als je schijven 300IOps sequentieel halen, is dat dus 0.5 seconde per schijf... Dus dan haal je 20MB/s...

En dan reken ik de overhead van RAID6 nog niet eens mee...

[ Voor 9% gewijzigd door FireDrunk op 04-02-2011 09:52 ]

Even niets...


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Volgens mij betekent dat dat je per disk 64KiB (=384KiB in raid-6) kunt ophalen/wegschrijven. Ook heb je echt wel meer dan 300 IOps met 8 schijven, omdat deze schijven de IOps voor een groot gedeelte gewoon parallel kunnen verwerken.

[ Voor 253% gewijzigd door HarmoniousVibe op 04-02-2011 10:15 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • vargo
  • Registratie: Januari 2001
  • Laatst online: 15-12 17:15
FireDrunk schreef op donderdag 03 februari 2011 @ 09:01:
Ohja, dat vergat ik te melden, ik heb ook een UFS Software RAID0 aangemaakt op dezelfde disks, daarmee haalde ik ook 16MB/s :)

Ik draai ZFS semi-bare-metal... Ik geef de controller direct aan de VM, dus het enige wat niet bare-metal is, is het geheugen...
Waarom FreeNAS? Dat lijkt me van alle ZFS distros de minste.
Als je een ZFS 'appliance' achtige distro wilt gebruiken zou ik voor NexentaStor gaan. Wil je bij FreeBSD blijven kan je ook naar ZFSguru kijken (is nog wel erg beta). Ik heb het onder virtualbox getest en dat zag er goed uit. Ik ben ook op mijn testmachine bezig maar daar krijg ik het nog niet up-and-running. De maker ervan laat op hardforum echter een goede indruk achter (sub-mesa heet hij geloof ik).

Voor wat betreft disk behaviour: iozone is ook een goede benchmark. Ik kan me bovendien herinneren dat ik iozone ook gebruik om mijn disks to monitoren tijdens gebruik. Commando weet ik niet meer uit mijn hoofd, dus dat zou ik thuis moeten opzoeken.

(edit: vraag me net af of het toch geen iostat commando was)

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
vargo schreef op vrijdag 04 februari 2011 @ 11:53:
[...]

Waarom FreeNAS? Dat lijkt me van alle ZFS distros de minste.
Als je een ZFS 'appliance' achtige distro wilt gebruiken zou ik voor NexentaStor gaan. Wil je bij FreeBSD blijven kan je ook naar ZFSguru kijken (is nog wel erg beta). Ik heb het onder virtualbox getest en dat zag er goed uit. Ik ben ook op mijn testmachine bezig maar daar krijg ik het nog niet up-and-running. De maker ervan laat op hardforum echter een goede indruk achter (sub-mesa heet hij geloof ik).

Voor wat betreft disk behaviour: iozone is ook een goede benchmark. Ik kan me bovendien herinneren dat ik iozone ook gebruik om mijn disks to monitoren tijdens gebruik. Commando weet ik niet meer uit mijn hoofd, dus dat zou ik thuis moeten opzoeken.

(edit: vraag me net af of het toch geen iostat commando was)
FreeNAS was toch nog toe het makkelijkst om 'even snel' te testen met ZFS, voor de serieuzere tests ga ik denk ik wel iets anders gebruiken.

Ben nu met Ubuntu en MDADM 4 15k SAS disks in RAID6 aan het zetten (in een VM) ze zijn nu aan het resyncen met 75MB/s per schijf :P

RAID6: 180MB/s read 160MB/s write. 10% CPU usage (4 cores toegewezen aan de VM)
RAID0: 440MB/s read 353MB/s write. 2-4% CPU usage

Dus de disks en de controller in combinatie met het gebruik van VT-d werkt prima ;)
Dat is iig goed nieuws :D

[ Voor 9% gewijzigd door FireDrunk op 04-02-2011 13:40 ]

Even niets...


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
FireDrunk schreef op vrijdag 04 februari 2011 @ 09:11:
Die chunk size vind ik erg klein... 64k betekend met 8 disks, dat je per IO maximaal 8k ophaalt... Dat zijn hele kleine writes :P

Als je dus 10MB wil wegschrijven heb je daar 1280 IO/s voor nodig... Als je schijven 300IOps sequentieel halen, is dat dus 0.5 seconde per schijf... Dus dan haal je 20MB/s...

En dan reken ik de overhead van RAID6 nog niet eens mee...
dan wil ik je toch even wijzen op de benchmark-resultaten van Q:

http://louwrentius.com/bl...hunk-size-the-benchmarks/

Daaruit blijkt dat een 64K chunk voor RAID 6 met 4 / 6 disks het optimum is. en dat blijkt ook uit mijn resultaten van 30 november:

DJ-NaRRa in "Het grote DIY RAID NAS topic deel 3"

Daar haalde ik nog een 277MB/sec write met diezelfde 64KB chunk. Het moet dus iets anders zijn. iets in de configuratie of een hardware fout ergens?

-edit: veranderingen in hardware sinds dat ik aan het debuggen was:

andere CPU origineel een AMD Atlohn X260 3.0 dual core -> nu een AMD x4 620 (quad 2.6ghz)
ander geheugen origineel GEIL 4gb cas 9-9-9-0 nu OCZ 4gb 7-7-7-0 beide dezelfde DDR-standaard.

hardware zou het dus niet mogen zijn gezien het betere producten zijn. zou het evt. kunnen liggen aan de internal bitmap die ik heb geset?

[ Voor 16% gewijzigd door DJ-NaRRa op 04-02-2011 19:25 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Ik dacht dat Q dat ook al getest had, en dat die bitmap niet zoveel uitmaakte...

Even niets...


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Die bitmap kun je zelf toch ook gewoon verwijderen? Draai jij ook in een VM? Probeer het gewoon eens zonder..?

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
nee ik draai geen VM. ik draai gewoon op de hardware zelf.
ik heb wel een vm(een squeeze test setup en voor experimentele software / updates) waarbij de virtuele harddisks op de raid6 staan (wegens ruimte gebrek op die bak).

ik vind het vreemd dat ik in november nog wel goede resultaten kreeg en nu niet meer (verder naast de genoemde veranderingen is er niks anders als aan de setup @ 30 november).

Het ding werkt nu in principe goed hoor dus dat is ook niet het probleem, maar ik zou gewoon graag weten waar dat verschil ineens vandaan komt.

  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Ben nu eindelijk aan t growen naar 16 schijven en ik moet zeggen dat t growen met 1 of met 6 schijven niets uitmaakt. Duurt allebij even lang ;)

  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
ok deel van het probleem ligt dus aan de bitmap die ik internal had gezet.

ik heb nu een sudo mdadm --grow /dev/md6 --bitmap none gedaan en nu is mijn write performance als volgt:
code:
1
2
3
4
djn@Oscar:~$ dd if=/dev/zero of=/mnt/oscar/public/download/test.bin bs=1M count=10000
10000+0 records in
10000+0 records out
10485760000 bytes (10 GB) copied, 81.2995 s, 129 MB/s

Dat scheelt al weer 40MB/sec. een behoorlijke verbetering.

ik ga dus even wat vogelen met die bitmaps. Standaard staat deze bij mdadm toch op left-asymetric of niet?

Dan dus de vraag nog wil ik een betere write performance of een snellere resync bij eventuele crash van een disk.....

[ Voor 9% gewijzigd door DJ-NaRRa op 05-02-2011 10:24 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Dat is de layout, niet de bitmap... Dat is toch niet hetzelfde?....

Even niets...


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
FireDrunk schreef op zaterdag 05 februari 2011 @ 12:23:
Dat is de layout, niet de bitmap... Dat is toch niet hetzelfde?....
ah mijn excuses....daar zat ik dan fout.

wel frapant dat er geen layout is te zien in mijn mdadm --detail /dev/md6
en wat betekent de "algorithm 2" in /proc/mdstat? is dat de manier waarop hij de pariteit bitjes stored over de disks?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Jup, en op welke manier hij de chunks aan disks vraagt...

Left-assymetric is even en oneven (dus chunk 1 -> disk 1, chunk 2 -> disk 2 enz)
Right-assymetric was andersom (chunk 8 disk 1, chunk 7 disk 2, etc)

Maar dat heb ik ergens ver weg gelezen, en waar weet ik niet meer :P

Even niets...


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Als t goed is heeft raid6 geen layout zoals raid5. T staat ook wel in de man van mdadm.

  • AlterMann
  • Registratie: December 2000
  • Laatst online: 19-12 23:39
Hoe hebben jullie de LSI controller geflasht? Ik krijg het maar niet voor elkaar. FreeDOS op een stickie boot wel, maar dan zie ik m'n flash-applicatie weer niet. Tips? :)

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Ik heb PCDOS gebruikt.
Google op "HP usb dos boot utility". Daarmee kan je USB sticks formatteren met DOS.
Werkt prima, gewoon SASFLASH.exe op stick zetten en mptbios.bin en fw1068b* afhankelijk van je versie erbij zetten...

Dan flashen met sasflash.exe -o fw1068b*.bin -b mptbios.bin (ik dacht dat het -b was voor bios)

Even niets...


  • Phoenix1337
  • Registratie: April 2009
  • Laatst online: 23-12 20:05
Ik heb gewoon alles wat er uit de zip van de LSI site komt op de usb stick gezet en het bat bestand aangeroepen.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Dat werkt ook :)

Edit: Na een poosje testen met NexentaStor blijkt het toch een beetje een lastige appliance om in vSphere te gebruiken op de manier dat ik wil. Nexenta blijkt namelijk geen ondersteuning voor VMXNET3 te hebben :'(
Dus ik ben toegewezen aan een e1000 netwerkkaart en daarmee haal ik welgeteld 16MB/s over NFS naar 8 disks in een RAIDZ2 pool... Niet echt een success dus...

Maar de test gaat verder, misschien dat er nog ergens anders een bottleneck zit...

[ Voor 93% gewijzigd door FireDrunk op 06-02-2011 20:14 ]

Even niets...


  • Splendid
  • Registratie: April 2005
  • Laatst online: 15-12 11:57
Zijn er mensen hier die ervaring hebben met NexentaStor Community versie en die AFP aan de praat hebben gekregen? Ik heb een uitleg hiervoor gevonden maar die schijnt niet te werken met de Community versie...

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
AFP?

Even niets...


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Splendid schreef op zondag 06 februari 2011 @ 20:37:
Zijn er mensen hier die ervaring hebben met NexentaStor Community versie en die AFP aan de praat hebben gekregen? Ik heb een uitleg hiervoor gevonden maar die schijnt niet te werken met de Community versie...
@FD: GIYF

Is er een reden dat je specifiek AFP wilt gebruiken? SMB doet het prima op OS X.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • Splendid
  • Registratie: April 2005
  • Laatst online: 15-12 11:57
LB06 schreef op zondag 06 februari 2011 @ 21:05:
[...]

@FD: GIYF

Is er een reden dat je specifiek AFP wilt gebruiken? SMB doet het prima op OS X.
Zo komt de NAS en zijn shares automatisch in de finder onder SHARED, geen idee of dit ook automatisch gaat met SMB, geen ervaring mee.... Oh en natuurlijk Time Machine ondersteuning....

[ Voor 6% gewijzigd door Splendid op 06-02-2011 21:12 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Pfff, net even Bonnie++ geinstalleerd op mijn NexentaStor VM, en dat ding haalt welgeteld 36MB/s schrijven en 103MB/s lezen.. Dat vind ik toch wel _heel_ erg traag :S

Even niets...


  • AlterMann
  • Registratie: December 2000
  • Laatst online: 19-12 23:39
Goed.. Ik heb mn LSI eindelijk geflashed. Next problem. Hij ziet geen schijven. Ik heb 2 SFF-8087 kabels aangesloten met aan elke kabel 3 schijven. Al bij het booten krijg ik geen melding van gevonden schijven en ook de config tool (met control-C) lijkt niet te werken. Wat zou het probleem kunnen zijn? Toch nog verkeerde kabels? Of vergeet ik iets heel logisch? :P

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
AlterMann schreef op zondag 06 februari 2011 @ 22:21:
Goed.. Ik heb mn LSI eindelijk geflashed. Next problem. Hij ziet geen schijven. Ik heb 2 SFF-8087 kabels aangesloten met aan elke kabel 3 schijven. Al bij het booten krijg ik geen melding van gevonden schijven en ook de config tool (met control-C) lijkt niet te werken. Wat zou het probleem kunnen zijn? Toch nog verkeerde kabels? Of vergeet ik iets heel logisch? :P
Welk OS? Indien Linux, vindt hij je kaart dan wel met het commando lspci? Onder Windows, is hij te vinden in de device manager?

Wat zegt ./sasflash -o -testlsall?

[ Voor 3% gewijzigd door HarmoniousVibe op 06-02-2011 22:52 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • AlterMann
  • Registratie: December 2000
  • Laatst online: 19-12 23:39
Ach, stom. OS is Linux (Debian Lenny, 2.6.32-bpo.5-amd64).
Wel zichtbaar met lspci: SCSI storage controller: LSI Logic / Symbios Logic SAS1068E PCI-Express Fusion-MPT SAS (rev 08)

MPT-status ziet 'em niet..

root:~# mpt-status
root:~# mpt-status -p
Checking for SCSI ID:0
Nothing found, contact the author
root:~#
Wat zegt ./sasflash -o -testlsall?
Adapter selected is a LSI SAS 1068E(B3)
Phy 0: Link down
(..)
Phy 7: Link down

Ik heb deze kabels.

[ Voor 30% gewijzigd door AlterMann op 06-02-2011 22:46 ]


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Je hebt wel goed goede kabels. En je hebt een nieuwere hw-revisie dan ik :( ;)

mpt-status vindt bij mij ook niks. sasflash daarentegen wel:

./sasflash -o -s -listall -list -testlsall

 ****************************************************************************
    LSI Corporation SAS FLASH Utility.

    SASFlash Version 1.26.00.00 (2010.05.18) 

    Copyright (c) 2006-2007 LSI Corporation. All rights reserved.
 ****************************************************************************

	Advanced Mode Set

	Adapter Selected is a LSI SAS 1068E(B1):

	Executing Operation: Test Link State ALL

	Phy 0: 3.0 Gbps
	Phy 1: 3.0 Gbps
	Phy 2: 3.0 Gbps
	Phy 3: 3.0 Gbps
	Phy 4: Link Down
	Phy 5: Link Down
	Phy 6: Link Down
	Phy 7: Link Down

	Test Link State All PASSED!

 Num   Ctlr      FW Ver     NVDATA   x86-BIOS     EFI-BSD    PCI Addr
-----------------------------------------------------------------------

1   1068E(B1)  01.30.00.00  2d.03  06.30.00.00    No Image   00:01:00:00

Controller Number:     		1
Controller:            		1068E(B1)
PCI Address:           		00:01:00:00
SAS Address:           		500605b-0-00b0-e450
NVDATA Version (Default):   	0x2d03
NVDATA Version (Persistent):	0x2d03
Product ID:            		0x2204
Firmware Version:      		01.30.00.00
NVDATA Vendor:         		LSILogic
NVDATA Product ID:     		SAS3081E
BIOS Version:          		06.30.00.00
BIOS Alternate Version:         N/A
EFI BSD Version:       		N/A
FCODE Version:         		N/A

Finished Processing Commands Successfully.
	Exiting SASFlash.


Hebben je schijven wel genoeg power om te upspinnen? Probeer het eens met 1 schijf?

Wat je ook nog kunt proberen is zoveel mogelijk controllers op je mobo (LAN, audio, SATA, IDE, serial, USB, etc) uit te schakelen en dan eens in het menu te kijken met ctrl+c. Ik kom zelf ook niet in het menu als alles is geactiveerd in mijn mobo-bios.

[ Voor 6% gewijzigd door HarmoniousVibe op 06-02-2011 23:01 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • zzattack
  • Registratie: Juli 2008
  • Laatst online: 11:11
Ik ben momenteel bezig met een hele mooie build. Het uiteindelijke plan is 40TB in een Norco RPC-4220 op een G34 platform. Dat plan is vrijwel geheel gerealiseerd op een aantal hdd's na. De Opteron 6128 zit in een ASUS KGPE-D16 naast 16GB RAM. Zodra de bays volgepropt zitten gaat er een zwaardere PSU in (ik neig naar de 1100W van onze landgenoten bij Nexus), komt er een processortje naast en tank ik de memory banks vol naar 64GB.
Aan de zachtere kant hebben we een FreeBSD 8.1 installatie die boot vanaf een Vertex 2 van 60GB, met nogmaals eenzelfde SSD als L2ARC. De grote zpool zal bestaan uit 2 vdevs van, uiteindelijk, 2x 10 Hitachi deskstars van 2TB per stuk. Aangezien de tweede vdev nog gemaakt moet worden ga ik op zoek naar de recentelijk uitgebrachte deskstars die read- en writesnelheden van de WD Black serie evenaren. De eerste vdev maak ik af met de oudere deskstars.
Met 2 onboard LAN poorten en een dual gbit NIC in een pci-e slot gaan er 4 draadjes terug naar het switch waardoor de rest van het netwerk er snel genoeg bij moet gaan kunnen.
Foto's gaan uiteraard volgen.

  • AlterMann
  • Registratie: December 2000
  • Laatst online: 19-12 23:39
LB06 schreef op zondag 06 februari 2011 @ 22:59:
Hebben je schijven wel genoeg power om te upspinnen? Probeer het eens met 1 schijf?

Wat je ook nog kunt proberen is zoveel mogelijk controllers op je mobo (LAN, audio, SATA, IDE, serial, USB, etc) uit te schakelen en dan eens in het menu te kijken met ctrl+c. Ik kom zelf ook niet in het menu als alles is geactiveerd in mijn mobo-bios.
Het enige wat erbij gekomen is is de controller. Geen extra hd's. Ter test heb ik de controller maar in m'n werkstation gepropt, met daaraan 2 schijven. Same problem. Geen link. Ook niet met het uitschakelen van controllers op m'n moederbord :(

Just my luck, 3 maanden wachten en dan een DOA hebben? :(


Enige wat ik me nu wel bedenk.. alle schijven die ik heb geprobeerd zijn Samsungs.. moet niet uitmaken.. toch?

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
AlterMann schreef op zondag 06 februari 2011 @ 23:19:
[...]

Het enige wat erbij gekomen is is de controller. Geen extra hd's. Ter test heb ik de controller maar in m'n werkstation gepropt, met daaraan 2 schijven. Same problem. Geen link. Ook niet met het uitschakelen van controllers op m'n moederbord :(

Just my luck, 3 maanden wachten en dan een DOA hebben? :(


Enige wat ik me nu wel bedenk.. alle schijven die ik heb geprobeerd zijn Samsungs.. moet niet uitmaken.. toch?
Geen idee. Probeer het eens met de schijf uit je workstation zou ik zeggen. Bij DX gekocht toevallig?

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • AlterMann
  • Registratie: December 2000
  • Laatst online: 19-12 23:39
DX it is.
Ik zal m'n (Intel :P) SSD'tje er zo eens aan hangen. Je weet maar nooit..


Nope, ook met de SSD ziet ie niks.

[ Voor 19% gewijzigd door AlterMann op 06-02-2011 23:32 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Heb je er ook de goede firmware op geflasht? Heb je niet een B2 firmware op een B1 bord geflasht?

Even niets...


  • AlterMann
  • Registratie: December 2000
  • Laatst online: 19-12 23:39
Nope, IT firmware geflashed over de IR die er al op stond. Netjes de B3-versie gebruikt, type 3081..

Ah, een linux-versie van sasflash :)

./sasflash -o -s -listall -list -testlsall

 ****************************************************************************
    LSI Corporation SAS FLASH Utility.

    SASFlash Version 1.26.00.00 (2010.05.18) 

    Copyright (c) 2006-2007 LSI Corporation. All rights reserved.
 ****************************************************************************

        Advanced Mode Set

        Adapter Selected is a LSI SAS 1068E(B3):

        Executing Operation: Test Link State ALL

        Phy 0: Link Down
        Phy 1: Link Down
        Phy 2: Link Down
        Phy 3: Link Down
        Phy 4: Link Down
        Phy 5: Link Down
        Phy 6: Link Down
        Phy 7: Link Down

        Test Link State All PASSED!

 Num   Ctlr      FW Ver     NVDATA   x86-BIOS     EFI-BSD    PCI Addr
-----------------------------------------------------------------------

1   1068E(B3)  01.31.02.00  2d.03  06.32.00.00    No Image   00:04:00:00

Controller Number:              1
Controller:                     1068E(B3)
PCI Address:                    00:04:00:00
SAS Address:                    500605b-0-0064-6f80
NVDATA Version (Default):       0x2d03
NVDATA Version (Persistent):    0x2d03
Product ID:                     0x2204
Firmware Version:               01.31.02.00
NVDATA Vendor:                  LSILogic
NVDATA Product ID:              SAS3081E
BIOS Version:                   06.32.00.00
BIOS Alternate Version:         N/A
EFI BSD Version:                N/A
FCODE Version:                  N/A

Finished Processing Commands Successfully.
        Exiting SASFlash.

[ Voor 89% gewijzigd door AlterMann op 07-02-2011 00:05 ]


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Waar heb je de firmware vandaan? Op de site staat alleen maar FW:1.30.00.00 / BIOS 6.30.00.00 voor zover ik kan zien.

Je zou eens kunnen proberen de flash te wipen en hem opnieuw te flashen. Heb je overigens de 3G6G firmware gepakt of de 1.5G3G-versie?

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • AlterMann
  • Registratie: December 2000
  • Laatst online: 19-12 23:39
http://www.lsi.com/storag...nal/sas3081e-r/index.html

SAS3081ER_P19_Supports_SAS_1-5G_3G_6G_&_SATA_1-5G_3G_HDD
FW:1.31.00.00, BIOS 6.32.00.00

Ik heb de 1.5G3G geflashed.

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Lol, ze hebben twee product pagina's voor deze kaart: http://www.lsi.com/storag...rs/sas_hbas/lsisas3081er/. Ik zal die van mij ook eens flashen met P19

Je weet zeker dat je Samsungs niet SATA III zijn?

[ Voor 10% gewijzigd door HarmoniousVibe op 07-02-2011 00:42 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Hmm, succesvol geflasht naar P19.

./sasflash -b 3081ER_P19_Supports_SAS_1-5G_3G_6G_\&_SATA_3G_6G_HDD/mptsas.rom -f 3081ER_P19_Supports_SAS_1-5G_3G_6G_\&_SATA_3G_6G_HDD/3081ETB1.fw 

 ****************************************************************************
    LSI Corporation SAS FLASH Utility.

    SASFlash Version 1.26.00.00 (2010.05.18) 

    Copyright (c) 2006-2007 LSI Corporation. All rights reserved.
 ****************************************************************************

	Adapter Selected is a LSI SAS 1068E(B1):

	Executing Operation: Flash Firmware Image

		Checksum Passed: 00000000

		Verifying NVDATA Compatibility. . .
		NVDATA Versions Compatible

		Product ID and Vendor ID match verified.

		Valid BootLoader Image verified.

		Beginning Firmware Download
		Firmware Download: SUCCESSFUL!

		Verifying the image flashed correctly. . . 

		Firmware Flash: SUCCESSFUL!

		Resetting Adapter:
		Adapter Successfully reset.

	Executing Operation: Flash BIOS Image

		Validating BIOS Image. . .

		BIOS Header Signature Valid.

		Checksum Passed: 00000000

		BIOS Image compatible with the SAS Controller.

		Attempting to Flash BIOS Image. . .

		BIOS Flash: SUCCESSFUL!


Finished Processing Commands Successfully.
	Exiting SASFlash.


Daar ligt het dus ook niet aan. Ik ben bang dat ik je niet verder kan helpen. Het enige wat ik nog zou kunnen bedenken is dat de kabels toch niet helemaal goed zijn (alhoewel ze op papier gewoon moeten werken). Ik heb nog wel een kabel over, dus als je toevallig in NB woont mag je hem wel even lenen.

Overigens heb je gelezen dat waarschijnlijk alle LSI's van DX 'counterfeit' zijn? Kan er ook mee te maken hebben.

[ Voor 68% gewijzigd door HarmoniousVibe op 07-02-2011 01:24 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Nou, ik roep ook heel hard dat al mijn kaarten gewoon werken, dus dat is het denk ik niet.
Ik zou het eerder op de kabels gooien... Mocht je in Gelderland wonen, heb ik hier ook nog wel een kabeltje voor je ;)

Even niets...


  • AlterMann
  • Registratie: December 2000
  • Laatst online: 19-12 23:39
Geen NB, geen Gelderland. Utrecht :) Maar ik heb wel een brievenbus >:)

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
FireDrunk schreef op maandag 07 februari 2011 @ 07:46:
Nou, ik roep ook heel hard dat al mijn kaarten gewoon werken, dus dat is het denk ik niet.
Ik zou het eerder op de kabels gooien... Mocht je in Gelderland wonen, heb ik hier ook nog wel een kabeltje voor je ;)
Hij zou natuurlijk gewoon pech kunnen hebben. Het verhaal gaat dat die dingen wel 'echt' zijn, maar dat ze door productiemedewerkers zijn gestolen uit een manufacturing plant en dat ze zonder QA worden verkocht door DX.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
LB06 schreef op maandag 07 februari 2011 @ 10:04:
[...]

Hij zou natuurlijk gewoon pech kunnen hebben. Het verhaal gaat dat die dingen wel 'echt' zijn, maar dat ze door productiemedewerkers zijn gestolen uit een manufacturing plant en dat ze zonder QA worden verkocht door DX.
Heb je daar een bronnetje van? :) Vind het wel intteresant :D

Ben nu aan het testen met XFS en NFS in een VM, maar dat is toch wel een stukkie sneller dan ZFS :)
Ik haal tussen VM's 260MB/s schrijven en 380MB/s lezen over NFS.
Lokaal haal ik met DD 291MB/s schrijven en 504MB/s lezen.

ZFS ziet er steeds minder aanlokkelijk uit...

[ Voor 25% gewijzigd door FireDrunk op 07-02-2011 14:20 ]

Even niets...


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
FireDrunk schreef op maandag 07 februari 2011 @ 11:19:
[...]

Heb je daar een bronnetje van? :) Vind het wel intteresant :D

Ben nu aan het testen met XFS en NFS in een VM, maar dat is toch wel een stukkie sneller dan ZFS :)
Ik haal tussen VM's 260MB/s schrijven en 380MB/s lezen over NFS.
Lokaal haal ik met DD 291MB/s schrijven en 504MB/s lezen.

ZFS ziet er steeds minder aanlokkelijk uit...
http://hardforum.com/showthread.php?t=1581324

Hier hebben ze het ook over counterfeit LSI-kaartjes. Je kunt overigens ook LSI mailen met het S/N wat op de doos staat dan kunnen zij jou vertellen of dat hij counterfeit is. Waarschijnlijk heb je binnen max 30 minuten een reactie. Die mensen hebben echt een snelle service :).

[ Voor 11% gewijzigd door HarmoniousVibe op 07-02-2011 19:19 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • iBurger
  • Registratie: Juli 2008
  • Laatst online: 04-08 23:05
Afbeeldingslocatie: http://www.yycase.com/pro-images/yy-0221_3.jpg
YY-0221 aka ''Cube Server Case''

Case met 15 Drivebays. Had de em nog niet eerder gespot, dus vandaar.

Up to 15 drive bays :
6 - 5.25" exposed
2 - 3.5" exposed
7 - 3.5" hidden


link

  • Q
  • Registratie: November 1999
  • Laatst online: 24-12 23:00
zzattack schreef op zondag 06 februari 2011 @ 23:02:
Ik ben momenteel bezig met een hele mooie build. Het uiteindelijke plan is 40TB in een Norco RPC-4220 op een G34 platform. Dat plan is vrijwel geheel gerealiseerd op een aantal hdd's na. De Opteron 6128 zit in een ASUS KGPE-D16 naast 16GB RAM. Zodra de bays volgepropt zitten gaat er een zwaardere PSU in (ik neig naar de 1100W van onze landgenoten bij Nexus), komt er een processortje naast en tank ik de memory banks vol naar 64GB.
Aan de zachtere kant hebben we een FreeBSD 8.1 installatie die boot vanaf een Vertex 2 van 60GB, met nogmaals eenzelfde SSD als L2ARC. De grote zpool zal bestaan uit 2 vdevs van, uiteindelijk, 2x 10 Hitachi deskstars van 2TB per stuk. Aangezien de tweede vdev nog gemaakt moet worden ga ik op zoek naar de recentelijk uitgebrachte deskstars die read- en writesnelheden van de WD Black serie evenaren. De eerste vdev maak ik af met de oudere deskstars.
Met 2 onboard LAN poorten en een dual gbit NIC in een pci-e slot gaan er 4 draadjes terug naar het switch waardoor de rest van het netwerk er snel genoeg bij moet gaan kunnen.
Foto's gaan uiteraard volgen.
Heel erg tof 40 TB. _/-\o_

Waarom 2x 10 en niet 1 pool van 20 ?

  • vargo
  • Registratie: Januari 2001
  • Laatst online: 15-12 17:15
AlterMann schreef op maandag 07 februari 2011 @ 08:09:
Geen NB, geen Gelderland. Utrecht :) Maar ik heb wel een brievenbus >:)
Ook ik heb nog kabels liggen en woon in Utrecht. Stuur me een PM indien je een kabeltje wil lenen.
Q schreef op dinsdag 08 februari 2011 @ 01:03:
[...]


Heel erg tof 40 TB. _/-\o_

Waarom 2x 10 en niet 1 pool van 20 ?
Idd een heel mooie build. Wat gaat het doen? VMs draaien?

[ Voor 30% gewijzigd door vargo op 08-02-2011 10:00 ]


  • zzattack
  • Registratie: Juli 2008
  • Laatst online: 11:11
De best practices documenten van ZFS geven eigenlijk steevast dat meer dan 8-9 drives niet aan te raden is. Misschien dat ik zelfs naar een 6/7/7 config moet gaan kijken. Het gaat vanalles doen, o.a. VMs maar ook voornamelijk fileserver zijn.
Edit: in fact, ik overweeg zelfs 4xraidz1 van 5 disks each. Zal sneller zijn en iets meer redundancy, en toch 32TB bruikbaar.

[ Voor 20% gewijzigd door zzattack op 08-02-2011 11:10 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Hoezo iets sneller? Die pools worden daarna toch niet nog weer als RAID0 aangesproken?
ZFS maakt van meerdere pools toch gewoon JBOD?

Even niets...


  • zzattack
  • Registratie: Juli 2008
  • Laatst online: 11:11
Hmm nee zo simpel werkt het zeker niet. Iedere vdev in de pool levert ongeveer de I/O van 1 disk extra. Een pool van veel kleine vdevs is dus zeer veel sneller.

Verwijderd

De vdevs worden inderdaad als RAID0 aangesproken. Dus stel je begint met een RAID-Z van 5 disks dan wordt dat door ZFS gezien als een RAID0 array met één disk member (de RAID-Z). Voeg je nu een tweede RAID-Z toe dan is het een 2-disk RAID0 met twee disk members (elk de RAID-Z). Dat werkt ook met mirroring zo.

Een 20-disk RAID-Z heeft de I/O prestaties van één disk.
Een vijftal 4-disk RAID-Zs in een enkele pool zou dan tot 5x de IOps performance van een enkele disk hebben. Voor de performance is méér vdevs dus beter met name random I/O performance.

Maar je kunt dat ook oplossen met een SSD als L2ARC (cache) of ZIL log disk. Dat laatste zal writes doen versnellen en de cache zal random reads versnellen. Je hebt een SSD met supercapacitor nodig voor de ZIL functie, of je moet er rekening houden dat je hele pool corrupt kan raken na een stroomstoring/crash. Dat geldt met name als je ZFS pool versie lager is dan versie 19.

  • zzattack
  • Registratie: Juli 2008
  • Laatst online: 11:11
Ik zit aan ZFS versie 14 vast wegens FreeBSD. Upgraden naar 8.2 voor v15 vind ik niet nodig, eigenlijk. Voldoet een ocz vertex 2 om als ZIL te fungeren? Of zou je daarvoor een andere SSD aanraden? En zou het evt mogelijk zijn de ssd 50/50 te splitten in L2ARC en ZIL?

Verwijderd

Ik kan het niet duidelijker maken dan dit:
Je hebt een SSD met supercapacitor nodig voor de ZIL functie, of je moet er rekening houden dat je hele pool corrupt kan raken na een stroomstoring/crash.
Dus nee, een Vertex 2 is niet goed. Geen enkele 2e generatie SSD. Je kunt oudere SSDs die corruptie vertonen (alle SSDs die tot nu toe uit zijn; met enkele uitzonderingen) wel gebruiken voor L2ARC dus als cache device, dat is wel veilig.

Een alternatief is de ZIL helemaal uitschakelen en het hele volume als onveilig te beschouwen. Maar dat haalt het kernargument van ZFS: veiligheid voor je bestanden, natuurlijk wel onderuit.

Voor de ZIL functie hebt je dus een nieuwe 3e generatie SSD met supercapacitor nodig; Intel G3, Sandforce SF2000 familie en Marvell C400 zouden die krijgen, maar zijn nog niet beschikbaar en het is even afwachten wat er gaat gebeuren in SSD-land. Rond deze tijd zou de Intel G3 uitkomen, maar daar is Intel op teruggekomen. Huidige SSDs met supercapacitor zijn duur en traag, vandaar dus dat je beter op de 3e generatie kunt wachten, en tegen die tijd is ZFS v28 misschien ook wel stabiel op FreeBSD.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Kan je dat niet gewoon zelf bouwen zo'n supercapacitor? Gewoon een batterij tussen je sata connector en je SSD? Ding verbruikt toch geen drol... Of gewoon een P410 ertussen en alleen je SSD erop aansluiten :)
Heb je ook een 'supercapacitor' :)

Even niets...

Pagina: 1 ... 42 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.