• FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Ik heb net twee setjes G620 met H61 moederbord besteld. Komt van de week als het goed is binnen. Dan hoor je het :)

Even niets...


  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12 11:37

DJ-Visto

Aye aye, sir!

Blegh.. Ik moet nog wat fans erbij kopen.. Weet het nog niet welke iemand een idee?

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 23:30
Jormungandr schreef op zondag 10 juli 2011 @ 13:47:
[...]


Ik kwam net een review van de Pentiums tegen op Xbit en die zijn inderdaad verrassend zuinig. De zuinigere T variant wordt daar niet getest tho. In combi met een H61 bordje (hoe minder fancy opties hoe beter) zou dat nog wel eens de beste optie kunnen zijn. MB+ Pentium kost ook maar een 20tal euro meer dan een Brazos.

http://www.xbitlabs.com/a...ntium-g850-g840-g620.html
Ik draai hier een 620T icm met een PicoPSU van 90W. Voorheen een Atom D510 gehad en kan zeggen dat het qua verbruik weinig scheelt maar je er qua performance natuurlijk een hoop voor terug krijgt. Ik draai nu idle 38W.

inventaris: NAS

Sinds de 2 dagen regel reageer ik hier niet meer


  • parcifal
  • Registratie: September 2007
  • Laatst online: 14-02-2021
Tis nogal schokkend na t zien van dat plaatje van die SATA kabel en connector hoe crap dat aan elkaar zit
zou erg goed zijn dat dat allemaal nader onderzocht word welke kabels nu wel te vertrouwen zijn
merk/type ... de moeilijkheid is dat ze allemaal tzelfde lijken behalve wat kleur verschil en de connectors losmaken is iets wat je ook niet echt ga doen.
Ik kan me voorstelen dat een zo losse draad of "af en toe" los een hoop narigheid kan brengen
reden om altijd maar uiterst voorzichtig te zijn met de kabels en t buigen zoveel mogelijk te vermijden.
Ben helaas nog geen revieuws tegen gekomen voor SATA kabels en t blijft een mestery/gok welke je nu moet nemen, de prijzen zijn vaak zo laag dat t volgens mij ook niet anders kan dat er crappy kabels bestaan door de hoge massaproductie.
Als er echt een serieuse fabrikant is die gaat voor zijn product en wat goeds levert denk ik dat mensen best bereid zijn om daar een euro extra aan uit te geven om iets betrouwbaars te hehben voor de grote hoeveelheid data wat er aan toevertrouwd word.

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Dat ziet er een leuk bordje uit CurlyMo. 6 SATA's op zon klein bordje.
38W idle is best lekker.

[ Voor 5% gewijzigd door _Dune_ op 26-03-2013 21:12 ]


  • parcifal
  • Registratie: September 2007
  • Laatst online: 14-02-2021
DJ-Visto schreef op zondag 10 juli 2011 @ 14:07:
Blegh.. Ik moet nog wat fans erbij kopen.. Weet het nog niet welke iemand een idee?
voor fans ligt t er maar aan waarvoor je ze gaat gebruiken , of stilte belangrijk is of alleen hoge flow ...
ook de prijzen verschillen enorm
Kijk op highflow.nl , in de forums is genoeg te vinden daarover om je keuze te maken.

Verwijderd

Staatslot schreef op zaterdag 09 juli 2011 @ 20:45:
Heb een dump hier geplaatst, ben benieuwd of jij er wijs uit wordt?
Je enige probleem zijn de 5 pending sectors; die zijn onleesbare sectoren die voor probleen zorgen. Je kunt deze laten omwisselen door de hardeschijf door een zero-write uit te voeren; dan zullen alle Current Pending Sectors weg zijn (en eventueel de Reallocated Sector Count verhogen; dit zjin omgewisselde onzichtbare bad sectors).

Dus een lange format onder Windows 7 of een zero-write zou de schijf weer bruikbaar moeten maken. Dit vernietigt natuurlijk wel alle data op de schijf. Als je die data wilt behouden kun je Spinrite overwegen die kan soms recoveren zonder de data weg te gooien.

Nadat je Current Pending Sector weer 0 is kun je de schijf weer gaan gebruiken. Als dit nu vaker gebeurt zou ik de schijf omruilen voor garantie; maar in principe hoeft de schijf niet slecht te zijn hij zou nog 10 jaar mee kunnen in theorie.
FireDrunk schreef op zaterdag 09 juli 2011 @ 20:40:
Ik dacht dat Brazos juist niet zo heel erg zuinig was als beloofd? Idle scheelde het amper, maar performance per watt van een G620 en een i3-2100 was toch hoger?
Juist idle scheelt het wel! Bij AMD is de chipset vrijwel geheel in de CPU geïntegreerd. Intel kun je ook erg zuinig mee komen; maar Brazos is getest tot 7 watt idle wat natuurlijk erg low-power is.
whocarez schreef op zaterdag 09 juli 2011 @ 23:30:
Misschien een gekke vraag maar kan er niet echt een vinger achter krijgen. kan je de bbwc van de raid controller gebruiken bij een software maitge raid zoals een mdadm array met zfs of ext4
Dat kan maar is niet aan te bevelen. Je controller MOET je in write-through mode gebruiken om je kunt alsnog een corrupte pool krijgen ondanks alle beveiligingen van ZFS; omdat de controller de flush commando's dan simpelweg zal negeren en dus liegt tegen ZFS. Ook heb je TLER/CCTL/ERC schijven nodig anders kan bij een bad sector of andere timeout de controller keihard de disks eraf pleuren; dan moet je weer powerdown-powerup cycle doen om ze weer te laten zien. Dit geeft ZFS geen gelegenheid de bad sectors te repareren.

Kortom voor ZFS wil je een normale HBA controller geen RAID controller; maar het kan in principe wel. Je verliest wel vrijwel elk voordeel van de controller en je hebt bijvoorbeeld geen TRIM, geen echte SMART en vaak ook geen toegang tot APM/AAM (soms wel via een omweg).

  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06 15:03
Neem aan dat dit voor xfs ook geld met een software matige raid. Boot nu me esx/nas server eerst naar een custom debian setup met smartmontools. Daar run ik een script om tler aan te zetten op alle schijven en dan reboten naar esxi toe. Erg omslachtig allemaal maar nog nooit een rotte array gehad door bad sectors

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Ik ben al een tijdje bezig met het ontwerpen van een case voor een storage server.
Op dit moment heb ik een 5u rackmount backblaze storage pod achtig ontwerp gemaakt, het frame is erg diep maar zal makkelijk in mijn 19" rack passen.
Ik ben wel benieuwd naar jullie mening, voornamelijk over de koeling van de disken heb ik zelf nog wat twijfels.
Momenteel overweeg ik nog om een custom cube te bouwen welke ik gewoon onderin een 19" rack kan zetten, dat geeft namelijk wel iets meer mogelijkheden qua koeling en plaatsing van de hardware.

Hier onder even wat plaatjes van het ontwerp in sketchup:

Afbeeldingslocatie: http://img171.imageshack.us/img171/8220/case4.png
Afbeeldingslocatie: http://img705.imageshack.us/img705/9688/case2.png
Afbeeldingslocatie: http://img600.imageshack.us/img600/1425/case1m.png

  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06 15:03
als je met die 2 turbines de boel niet cool weet te houden dan weet ik het ook niet. Hoe ga je de disken aansluiten? en zo verankeren dat de niet gaan trillen enzo?

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Ja het zijn wel 2 grote fans maar airflow is een raar iets, maar het scheelt dat ik 5400rpm schijven wil gebruiken, die hebben niet zoveel koeling nodig.
Onderin zitten norco saw400 backplanes daar zet ik de disks op, het daadwerkelijk vastzetten van de disks moet ik nog even uitwerken. De backblaze oplossing is niet ideaal want dan ben je erg afhankelijk van de afemetingen van de schijf, maar als mijn andere idee niet lukt dan ga ik het niet zo doen als in de backblaze storagepod.
Het ideale aan de huidige oplossing is dat wanneer de schijven op de backplanes staan ze al redelijk vastzitten, ze moeten alleen bovenaan even tegengehouden worden en dan zitten ze al vast genoeg.

Ook ben ik nog even aan het kijken naar een mooie oplossing om 2 voedingen te gebruiken, ik ben niet echt een fan van de 2e voeding boven de cpu, op de cpu wil ik namelijk een grote tower koeler plaatsen zodat de koeler goed in de airflow zit maarjah keuzes :P.

[ Voor 11% gewijzigd door dutch_warrior op 10-07-2011 20:26 ]


  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Met open gaas kan je een frame maken waarin de disks staan.

Met die koeling ga je de disken normaal wel koel kunnen houden. De middelste disken gaan wat warmer lopen dan de buitenste, maar opfikken zullen ze niet doen.

Verwijderd

je krijgt volgens mij ook airflow problemen door de minisas kabels.
is het niet mogelijk de strips op afstandbusjes te plaatsen zodat de kabels eronder door kunnen ?

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Goed idee Borroz, is ook al geïmplementeerd :P. In het model slecht te zien maar tussen de print en de bodem van de case is 15 mm ruimte, ik heb al mini-sas kabels met rechte hoek in alle mogelijke richtingen gevonden.
Onder het middenschot in het chassis zit ook 2 cm ruimte voor kabels.
Ik ga de backplanes vastzetten in 2 lexaan houders, een beetje zoals een dimm op zijn plek wordt gehouden.
De stroomkabels ga ik zelf maken met van die molex stekkers welke haaks op de kabel staan, deze passen dan ook perfect onder de backplanes.

[ Voor 4% gewijzigd door dutch_warrior op 10-07-2011 20:46 ]


  • prozak
  • Registratie: December 2003
  • Laatst online: 22:34
dutch_warrior schreef op zondag 10 juli 2011 @ 20:45:
Goed idee Borroz, is ook al geïmplementeerd :P. In het model slecht te zien maar tussen de print en de bodem van de case is 15 mm ruimte, ik heb al mini-sas kabels met rechte hoek in alle mogelijke richtingen gevonden.
Onder het middenschot in het chassis zit ook 2 cm ruimte voor kabels.
Ik ga de backplanes vastzetten in 2 lexaan houders, een beetje zoals een dimm op zijn plek wordt gehouden.
De stroomkabels ga ik zelf maken met van die molex stekkers welke haaks op de kabel staan, deze passen dan ook perfect onder de backplanes.
bouw je er voor ons allemaal meteen ook eentje?

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 23:05
Een heel raar probleem opnieuw hier :(

De 4 disks uit mn oude server, die daar in een Addonics 4-in-3 module hebben gezeten, weigeren op te spinnen in mijn IcyDock :(
Geen idee wat het probleem is, ik heb een Seagate 80GB schijfje wat ik nog had liggen ingeplugd en die spint prima op en wordt ook meteen herkend in mijn Ubuntu Server. De kabel lijkt me dus in orde, evenals de 'port' van
de IcyDock.

Bedenk me net dat die disks in de Addonics aangesloten waren op een RocketRaid 2320 (JBOD), kan dat er op een of andere manier nog iets mee te maken hebben?

Iemand een idee waar ik moet zoeken?

[ Voor 15% gewijzigd door Sleepie op 10-07-2011 21:42 ]


  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06 15:03
Sleepie schreef op zondag 10 juli 2011 @ 21:36:
Een heel raar probleem opnieuw hier :(

De 4 disks uit mn oude server, die daar in een Addonics 4-in-3 module hebben gezeten, weigeren op te spinnen in mijn IcyDock :(
Geen idee wat het probleem is, ik heb een Seagate 80GB schijfje wat ik nog had liggen ingeplugd en die spint prima op en wordt ook meteen herkend in mijn Ubuntu Server. De kabel lijkt me dus in orde, evenals de 'port' van
de IcyDock.

Bedenk me net dat die disks in de Addonics aangesloten waren op een RocketRaid 2320 (JBOD), kan dat er op een of andere manier nog iets mee te maken hebben?

Iemand een idee waar ik moet zoeken?
Misschien even direct aan je mobo hangen en met smartmontools kijken of er niet iets raars te vinden is?

  • Nextron
  • Registratie: Maart 2005
  • Laatst online: 02:06

Nextron

Ik weet dat ik niets weet

Waren ze voorheen geconfigureerd voor staggered spin-up?

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 23:05
Nextron schreef op zondag 10 juli 2011 @ 22:39:
Waren ze voorheen geconfigureerd voor staggered spin-up?
Ik geloof dat staggered spin-up inderdaad aanstond op de RocketRaid kaart ja.
Heeft dat effect op de disk zelf?

[ Voor 6% gewijzigd door Sleepie op 10-07-2011 22:41 ]


  • Nextron
  • Registratie: Maart 2005
  • Laatst online: 02:06

Nextron

Ik weet dat ik niets weet

Wanneer het op de HD aan staat, gaat de HD direct is standby wanneer er spanning op komt. Hij gaat pas aan op commando. Als de controller dat niet doet, vindt er dus geen spinup plaats.
Ik lees hier net dat sommige HD's een jumper hebben om die functie te activeren, andere (Seagate bv) activeren dit wanneer power pin 11 niet gegrond is. Icy docks gebruiken die pin waarschijnlijk weer voor LED waardoor de pin niet gegrond is.

Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 23:05
Ik heb ze net even terug aan de RocketRaid gehangen en staggerd spin-up disabled.
En waarempel ze doen het nu ook in de IcyDock :)
Thanks!!!

  • The-Priest-NL
  • Registratie: Maart 2006
  • Laatst online: 23-12 22:11
Even een kort vraagje.

Ik ben bezig met het samenstellen van een HTPC/NAS en nu zit ik als raidcontroller te denken aan de RocketRAID 2680 echter is dit nou een echte hardwarematige raidkaart of belast deze ook nog de CPU?

Ik kom er op de site van highpoint niet echt uit, ik kan wel terugvinden dat de kaart zelf de xor berekeningen doet en in de review op http://www.overclockersonline.net/reviews/50002671/ kan ik niks vinden over de systeembelasting.

Reden dat ik dit vraag is omdat de kaart op een Asus E35M1-M (brazos platform) komt te zitten en de cpu power daar misschien niet toereikend is i.c.m. 1080P playback (alhoewel dit via hardware accelleration middels de HD6310 geen probleem zou mogen zijn)

Ik had in dit topic ookal gezocht op de RocketRAID 2680 maar niet echt een antwoord gevonden.

Er komt trouwens 8x een Samsung EcoGreen F4EG HD204UI, 2TB aan te hangen in raid5.

•Geocaching•Security, Media & OSINT Junkie•Opinions are my own and not those of my employer.


  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12 11:37

DJ-Visto

Aye aye, sir!

3x1TB RAID5 MDADM:
1GB:
code:
1
2
3
4
vincent@Shiffle:~$ sudo dd if=/dev/zero of=/opslag/raid0/test.bin bs=1M count=1000
1000+0 records in
1000+0 records out
1048576000 bytes (1.0 GB) copied, 7.04511 s, 149 MB/s


code:
1
2
3
4
vincent@Shiffle:~$ sudo dd if=/opslag/raid0/test.bin of=/dev/null bs=1M
1000+0 records in
1000+0 records out
1048576000 bytes (1.0 GB) copied, 0.477018 s, 2.2 GB/s


10GB
code:
1
2
3
4
vincent@Shiffle:~$ sudo dd if=/dev/zero of=/opslag/raid0/test.bin bs=1M count=10000
10000+0 records in
10000+0 records out
10485760000 bytes (10 GB) copied, 124.504 s, 84.2 MB/s


code:
1
2
3
vincent@Shiffle:~$ sudo dd if=/opslag/raid0/test.bin of=/dev/null bs=1M         10000+0 records in
10000+0 records out
10485760000 bytes (10 GB) copied, 144.28 s, 72.7 MB/s


Apart, misschien nog maar eens een andere blocksize kiezen ofz.. Er draaien vms op :P
MDADM Detail:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
/dev/md0:
        Version : 00.90
  Creation Time : Sun Jul 10 00:35:16 2011
     Raid Level : raid5
     Array Size : 1953524992 (1863.03 GiB 2000.41 GB)
  Used Dev Size : 976762496 (931.51 GiB 1000.20 GB)
   Raid Devices : 3
  Total Devices : 3
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Mon Jul 11 01:10:10 2011
          State : active
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           UUID : e8ca7701:719f90ee:5ef43fce:a572e828 (local to host Shiffle)
         Events : 0.19

    Number   Major   Minor   RaidDevice State
       0       8        0        0      active sync   /dev/sda
       1       8       32        1      active sync   /dev/sdc
       2       8       48        2      active sync   /dev/sdd


Van mijn 8*2TB nog geen scores, is nog steeds aan het expanden.. Ik heb er vandaag ook heel wat I/O opgedaan dus dat bevorderd het niet echt, maar ik heb alle downloads en ftp connecties weer even gepauzeerd zodat die zijn gang even kan gaan ;)

Verwijderd

whocarez schreef op zondag 10 juli 2011 @ 19:49:
Neem aan dat dit voor xfs ook geld met een software matige raid. Boot nu me esx/nas server eerst naar een custom debian setup met smartmontools. Daar run ik een script om tler aan te zetten op alle schijven en dan reboten naar esxi toe. Erg omslachtig allemaal maar nog nooit een rotte array gehad door bad sectors
Dit geldt evengoed voor XFS met software-RAID. Maar als daarbij de metadata beschadigd is dan kun je nog met disk check de schade repareren; je verliest dan wel wat files en/of hele directories maar niet alles. Bij ZFS geldt dat als je metadata corrupt raakt je de hele pool kwijt bent, en geen recovery tools tot je beschikking hebt.

De integriteit van de disks uit handen nemen van ZFS is dus heel erg gevaarlijk en moet je gewoon niet doen. ZFS is ontworpen om zelf direct controle over de disks te hebben; als je dan toch een controller gebruikt die liegt tegen ZFS dan moet kun je tig parity en ditto copies hebben maar keihard een corrupte pool hebben en alles op je pool permanent kwijt raken.

You have been warned. :)
The-Priest-NL schreef op zondag 10 juli 2011 @ 23:50:
Ik ben bezig met het samenstellen van een HTPC/NAS en nu zit ik als raidcontroller te denken aan de RocketRAID 2680 echter is dit nou een echte hardwarematige raidkaart of belast deze ook nog de CPU?
De 2600 series hebben een Marvell 88SE6485 dus dit valt onder 'FakeRAID'; softwarematig driverRAID met een hardwarecomponent om bootstrapping mogelijk te maken (mits je BIOS interrupt 19 capture ondersteunt).

  • The-Priest-NL
  • Registratie: Maart 2006
  • Laatst online: 23-12 22:11
Verwijderd schreef op maandag 11 juli 2011 @ 01:43:
De 2600 series hebben een Marvell 88SE6485 dus dit valt onder 'FakeRAID'; softwarematig driverRAID met een hardwarecomponent om bootstrapping mogelijk te maken (mits je BIOS interrupt 19 capture ondersteunt).
Damn was er al "bang" voor, probleem is dat het ook nog eens in een x16@x4 PCI-e slot moet kunnen, andere kaarten die ik zo gauw kan vinden zijn allemaal x8.

Welke kaart zouden jullie eventueel aanraden?

Eisen zijn:

8 Sata disks aan kunnen sluiten.
PCI-e x4
Echte raidkaart en geen "Fakeraid" zoals de eerder door mij gekozen RR2680.

•Geocaching•Security, Media & OSINT Junkie•Opinions are my own and not those of my employer.


Verwijderd

Niet echt waar je om vroeg maar: is het niet een idee een aparte NAS te maken op basis van een non-Windows OS met software RAID, en een aparte HTPC op basis van Brazos platform met PicoPSU? 100% stille HTPC en de NAS kun je dan ergens anders via gigabit verbinden en veel veiligere opslag geven. Uiteindelijk ben je waarschijnlijk ook goedkoper uit of niet veel duurder.

Als je toch RAID5 onder Windows wilt met een BBWC controller moet je diep in de buidel tasten:
- dure XOR controller
- Battery Backup Unit (BBU)
- TLER/CCTL/ERC enabled schijven

x8 kaarten kun je ook in je x4 slot gebruiken; mits het fysiek past. Je kunt hiervoor een riser gebruiken als je moederbord geen ruimte over heeft voor de extra pinnetjes.

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
De Areca 1220ML wordt veel gebruikt in Windows. Overigens kun je CCTL/ERC vaak ook aanzetten, zolang je maar geen WD (non-RE) koopt. TLER kon je vroeger ook in- en uitschakelen, maar dat heeft WD nu geblokkeerd. Areca + Hitachi schijnt een goede combi te zijn.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • Staatslot
  • Registratie: December 2007
  • Laatst online: 08-12 12:27
Nou nog even een status update van deze kant..
Alle disks zijn getest met de ESTool van Samsung, 24 uur testen maar..........
geen fouten gevonden.. heel bijzonder?!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Disken tegelijkertijd of afzonderlijk getest? Zelfde kabels? Andere stroomconnectoren?

Even niets...


  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
dutch_warrior schreef op zondag 10 juli 2011 @ 20:05:
Ik ben al een tijdje bezig met het ontwerpen van een case voor een storage server.
Op dit moment heb ik een 5u rackmount backblaze storage pod achtig ontwerp gemaakt, het frame is erg diep maar zal makkelijk in mijn 19" rack passen.
Ik ben wel benieuwd naar jullie mening, voornamelijk over de koeling van de disken heb ik zelf nog wat twijfels.
Mijn mening ... je bent niet de enige die hier mee rondspookt 8) Al ben ik zelf meer in de richting van zo compact mogelijk zonder 19".
2 dingetjes , als je een schijf wil vervangen terwijl je server aanstaat vergeet dan niet een kabel arm mee te ontwerpen in de diepte de je beschikbaar hebt in je rack. Deze kun je bijvoorbeeld mooi verdiept kwijt boven de pci-e kaarten al belemmer je dan wel enigszins onderstaand voorgestelde luchtstroom.
Over de koeling, je schijven hebben wel een luchtstroom maar deze kan daarna nergens heen behalve door de voeding.
Je moet eigenlijk net zo'n groot gat als je fan's hebt aan de achterkan maken .... wat dus niet kan ... maar je kunt wel de gehele achterkant van roosters/gaatjes voorzien inclusief de niet gebruikte slotplaten van de pci-e kaarten.

Voor je cpu zou ik niet direct een toren nemen, maar in een optimale wereld een koeler met heatpipes waarbij de eigenlijke radiator geplaatst wordt op het stuk boven de atx afdekplaat. Nu is dit een utopie waarschijnlijk, dus next best thing is een tower met aan de achterkant een luchtgeleider naar de achterkant van de behuizing. Eventueel kun je dan nog een cpu fan plaatsen maar als je het goed ontwerpt is dat niet nodig.
Momenteel overweeg ik nog om een custom cube te bouwen welke ik gewoon onderin een 19" rack kan zetten, dat geeft namelijk wel iets meer mogelijkheden qua koeling en plaatsing van de hardware.
Bij dit idee moet je rekening houden dat je de warmteverdeling in het rack niet verstoort, koude lucht aanzuigen aan de voorkant warme lucht dumpen aan de achterkant.

p.s. vergeet niet te spieken bij die ene sun server ....thumper heet dat ding geloof ik. linkje

[ Voor 3% gewijzigd door Mafketel op 11-07-2011 09:34 . Reden: thumper spiek briefje toegevoegt ]


  • Staatslot
  • Registratie: December 2007
  • Laatst online: 08-12 12:27
FireDrunk schreef op maandag 11 juli 2011 @ 09:29:
Disken tegelijkertijd of afzonderlijk getest? Zelfde kabels? Andere stroomconnectoren?
één voor één getest (kan ook niet anders), met exact dezelfde kabels als hoe het zat toen de problemen werden veroorzaakt. Zelfde moederbord, zelfde stroom, zelfde satakabel... :S
Ik zal nog even kijken wat die optie -F samsung of -F samsung2 aangeeft bij smart daar heb ik nog niet naar gekeken. Ik blijf het zo vreemd vinden, eerst krijg ik massa's I/O errors, de array gaat kapot na het gebruik van de diagnostische tools van Samsung en nu ga ik de disks één voor één scannen en wordt er geen enkele fout gevonden. Beetje eng om nu gewoon lachend weer opnieuw op te bouwen en na 2 maanden weer 5 tb kwijt te zijn :/

Dit is helemaal vreemd, uit de man van smartctl:

code:
1
2
samsung2
In more recent Samsung disks (firmware revisions ending in "-23") the number of ATA errors reported is byte swapped.  Enabling this option tells smartctl  to  evaluate this  quantity in byte-reversed order. An indication that your Samsung disk needs this option is that the self-test log is printed correctly, but there are a very large number of errors in the SMART error log.  This is because the error count is byte swapped.  Thus a disk with five errors (0x0005) will appear to have 20480 errors (0x5000).


Je zou dus samsung2 moeten gebruiken als schakeloptie als je grote hoeveelheden fouten ziet zonder het gebruik van de schakeloptie. Nou, dat heb ik geweten.. Na de schakeloptie samsung of samsung 2 heb ik 4000+ ata errors te zien gekregen! Iemand die me kan vertellen of dat nou echt normaal is, of dat ik hiermee recht heb op 4 nieuwe disks?

[ Voor 36% gewijzigd door Staatslot op 11-07-2011 09:42 ]


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Je hebt alleen 'recht' op nieuwe schijven als de tool van Samsung dat aangeeft, smartctl is nooit een optie voor samsung volgens mij...

Even niets...


  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 23:30
FireDrunk schreef op maandag 11 juli 2011 @ 10:15:
Je hebt alleen 'recht' op nieuwe schijven als de tool van Samsung dat aangeeft, smartctl is nooit een optie voor samsung volgens mij...
Bij Western Digital hebben ze dat in mijn geval wel geaccepteerd dus allicht het proberen waard. Ondanks de goede service van WD toch overgegaan op Samsungs omdat ik uiteindelijk 6 kapotte schijven had.

Sinds de 2 dagen regel reageer ik hier niet meer


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
6 kapotte schijven? Ik heb in mijn leven nog nooit zoveel kapotte schijven gehad... Slechte voeding?

Even niets...


  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 23:30
FireDrunk schreef op maandag 11 juli 2011 @ 10:35:
6 kapotte schijven? Ik heb in mijn leven nog nooit zoveel kapotte schijven gehad... Slechte voeding?
Niet 6 schijven tegelijk, maar de vervangende schijven hielden er ook telkens mee op tot in totaal 6. Ze werkten simpelweg niet naar behoren in Linux/Solaris (veel bad blocks).

Sinds de 2 dagen regel reageer ik hier niet meer


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
CurlyMo schreef op maandag 11 juli 2011 @ 10:41:
[...]


Niet 6 schijven tegelijk, maar de vervangende schijven hielden er ook telkens mee op tot in totaal 6. Ze werkten simpelweg niet naar behoren in Linux/Solaris (veel bad blocks).
Bad blocks trekken zich niks aan van het OS. Als dat wel zo is dan speelt er een ander probleem.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • lennartb
  • Registratie: December 2003
  • Laatst online: 17:16
Ik heb hier wel vaker voorbij zien komen dat er RAID problemen zijn met de WD green schijven. Ik heb nog 2 oudere 640gb greenpowers in gebruik maar moet geregeld de array opnieuw opbouwen.

Zijn er meer mensen met ditzelfde probleem? Wat is de oplossing? Die enterprise schijf van WD kopen? Wellicht ander merk?

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Ik heb 8 x WD20EARS en daarvan was er eentje DOA. Verder nooit problemen mee gehad. Echter doe ik Linux softraid, dus dan heb ik geen TLER nodig.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • lennartb
  • Registratie: December 2003
  • Laatst online: 17:16
Ik kom op verschillende sites tegen dat je voor de oudere WD's nog met een tooltje (wdtler) TLER aan kan zetten. ik ga het eens proberen. Voor wat ik lees moeten dan alle problemen opgelost zijn (onder windows).

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Dat is ook allemaal theorie, alle problemen is een groot begrip, want rotte kabels, een rotte voeding, rotte controller kan allemaal meespelen.

Even niets...


  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 23:30
FireDrunk schreef op maandag 11 juli 2011 @ 13:35:
Dat is ook allemaal theorie, alle problemen is een groot begrip, want rotte kabels, een rotte voeding, rotte controller kan allemaal meespelen.
In precies hetzelfde systeem heb ik een hele hoop geouwehoer gehad met WD20EARS maar met de Samsungs HD204UI waren de problemen voorbij. Waar het precies aan ligt zou ik niet weten, het resultaat is immers wat telt.

Sinds de 2 dagen regel reageer ik hier niet meer


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
lennartb schreef op maandag 11 juli 2011 @ 13:07:
Ik kom op verschillende sites tegen dat je voor de oudere WD's nog met een tooltje (wdtler) TLER aan kan zetten. ik ga het eens proberen. Voor wat ik lees moeten dan alle problemen opgelost zijn (onder windows).
Die oude zou je inderdaad nog moeten kunnen fixen. Vanaf de EARS of misschien de EADS niet meer.

[ Voor 5% gewijzigd door HarmoniousVibe op 11-07-2011 16:24 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


Verwijderd

EARS kan geen TLER meer. EADS kan dat tot aan November 2010; daarna niet meer. Politieke/business beslissing van WD om mensen voor hun duurdere RAID edition firmware te laten betalen. Er moeten centen in het laatje komen en met die RAID edition schijven wordt er tenminste nog wat verdiend.

  • parcifal
  • Registratie: September 2007
  • Laatst online: 14-02-2021
Verwijderd schreef op maandag 11 juli 2011 @ 16:32:
EARS kan geen TLER meer. EADS kan dat tot aan November 2010; daarna niet meer. Politieke/business beslissing van WD om mensen voor hun duurdere RAID edition firmware te laten betalen. Er moeten centen in het laatje komen en met die RAID edition schijven wordt er tenminste nog wat verdiend.
Ja dat gevoel krijg ik ook maar of ze daarmee hunzelf niet in de vingers snijden ?...
mischien voor bedrijven geen probleem maar voor de partikulier wel , zo RE schijf is obnormaal veel duurder
ik denk niet dat er velen onder ons zijn die dat er voor over hebvben ?
t is verre van redelijk.
Ik ga binnekort over op de Samsungs F4 en zien wat die ervan bakken

  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06 15:03
Staatslot schreef op maandag 11 juli 2011 @ 09:27:
Nou nog even een status update van deze kant..
Alle disks zijn getest met de ESTool van Samsung, 24 uur testen maar..........
geen fouten gevonden.. heel bijzonder?!
er staat me iets bij dat quindor op storage review ook in zijn zo'n zelfde situatie heeft gezeten met samsung disken. Zou even googlen op storage review en dan cctl/tler. Hier staat een hoop info.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
parcifal schreef op maandag 11 juli 2011 @ 19:14:
[...]

Ja dat gevoel krijg ik ook maar of ze daarmee hunzelf niet in de vingers snijden ?...
mischien voor bedrijven geen probleem maar voor de partikulier wel , zo RE schijf is obnormaal veel duurder
ik denk niet dat er velen onder ons zijn die dat er voor over hebvben ?
t is verre van redelijk.
Ik ga binnekort over op de Samsungs F4 en zien wat die ervan bakken
En waar denk je dat ze meer aan verdienen? Grote bedrijven of particulieren?
De WD RE edities worden heel erg veel gebruikt in Promise arrays... Ook willen ze nog wel eens de wat sata SAN/NAS storage systemen verschijnen... Daar brengen ze veel meer op, en word er grof geld voor betaald.

Even niets...


  • Staatslot
  • Registratie: December 2007
  • Laatst online: 08-12 12:27
De wanhoop komt nu toch wel om de hoek kijken hoor...
Samsungtool: geen problemen
In Ubuntu opnieuw de array opgebouwd: geen problemen

Filesystem aangemaakt op array, check for badblocks maar aangezet en ja hoor daar gaan we weer:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
Jul 11 20:04:55 storage kernel: [37919.565651] __ratelimit: 366191 callbacks suppressed
Jul 11 20:04:55 storage kernel: [37919.565654] Buffer I/O error on device md0, logical block 138987007
Jul 11 20:04:55 storage kernel: [37919.570117] Buffer I/O error on device md0, logical block 138987009
Jul 11 20:04:55 storage kernel: [37919.574527] Buffer I/O error on device md0, logical block 138987010
Jul 11 20:04:55 storage kernel: [37919.579749] Buffer I/O error on device md0, logical block 138987011
Jul 11 20:04:55 storage kernel: [37919.584879] Buffer I/O error on device md0, logical block 138987012
Jul 11 20:04:55 storage kernel: [37919.590236] Buffer I/O error on device md0, logical block 138987013
Jul 11 20:04:55 storage kernel: [37919.595454] Buffer I/O error on device md0, logical block 138987014
Jul 11 20:04:55 storage kernel: [37919.600738] Buffer I/O error on device md0, logical block 138987015
Jul 11 20:04:55 storage kernel: [37919.605135] Buffer I/O error on device md0, logical block 138987017
Jul 11 20:04:55 storage kernel: [37919.610374] Buffer I/O error on device md0, logical block 138987018
Jul 11 20:05:00 storage kernel: [37924.564500] __ratelimit: 337559 callbacks suppressed
Jul 11 20:05:00 storage kernel: [37924.564503] Buffer I/O error on device md0, logical block 139372801
Jul 11 20:05:00 storage kernel: [37924.568923] Buffer I/O error on device md0, logical block 139372802
Jul 11 20:05:00 storage kernel: [37924.573271] Buffer I/O error on device md0, logical block 139372803
Jul 11 20:05:00 storage kernel: [37924.578397] Buffer I/O error on device md0, logical block 139372804
Jul 11 20:05:00 storage kernel: [37924.583155] Buffer I/O error on device md0, logical block 139372805
Jul 11 20:05:00 storage kernel: [37924.588133] Buffer I/O error on device md0, logical block 139372806
Jul 11 20:05:00 storage kernel: [37924.592513] Buffer I/O error on device md0, logical block 139372807
Jul 11 20:05:00 storage kernel: [37924.597402] Buffer I/O error on device md0, logical block 139372809
Jul 11 20:05:00 storage kernel: [37924.601748] Buffer I/O error on device md0, logical block 139372810
Jul 11 20:05:00 storage kernel: [37924.607034] Buffer I/O error on device md0, logical block 139372811
Jul 11 20:05:05 storage kernel: [37929.563347] __ratelimit: 333288 callbacks suppressed
Jul 11 20:05:05 storage kernel: [37929.563351] Buffer I/O error on device md0, logical block 139753706


Zo gaat het nog een regel of 80 door.. :|
Morgen maar eens bellen met Azerty, maar als ze de Samsung ESTool hanteren kan ik natuurlijk fluiten naar mijn garantie.. Doe ik iets fout, of heeft iemand nog een doorslaggevende heldere ingeving?

Word er echt sacherijnig van, ik zie zoveel problemen en zoveel onduidelijkheden en vooral inconsistentie dat ik het even niet meer weet. Die SMART waarden worden door iedereen anders geïnterpreteerd en met het veranderen van schakelopties wordt het aantal fouten echt ongeloofwaardig hoog.. HELP!

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Kun je wel bad blocks hebben op een virtual/logisch device als md0? :? Het lijkt me heel erg sterk dat je minimaal 666666 bad sectors hebt.

Volgens mij is alles weer koek en ei als je gewoon een badblocks test doet op /dev/sdX (fysieke devices).

[ Voor 22% gewijzigd door HarmoniousVibe op 11-07-2011 20:31 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • Staatslot
  • Registratie: December 2007
  • Laatst online: 08-12 12:27
HarmoniousVibe schreef op maandag 11 juli 2011 @ 20:30:
Kun je wel bad blocks hebben op een virtual/logisch device als md0? :? Het lijkt me heel erg sterk dat je minimaal 666666 bad sectors hebt.

Volgens mij is alles weer koek en ei als je gewoon een badblocks test doet op /dev/sdX (fysieke devices).
Zo koek en ei is het helaas niet, webmin meldt:
RAID errors 4 disks have failed
RAID status clean, degraded
Partitions in RAID
SATA device B (Down)
SATA device C (Down)
SATA device D (Down)
SATA device E (Down)

Kortom, er zit echt iets niet goed maar wat het is.......?

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 23:45
Je hebt toch wel die firmware patch uitgevoerd voor je F4 EcoGreen schijven? Aangezien je juist fouten lijkt te krijgen als je de status van de schijven checked met smartctl.

  • Staatslot
  • Registratie: December 2007
  • Laatst online: 08-12 12:27
Nielson schreef op maandag 11 juli 2011 @ 20:41:
Je hebt toch wel die firmware patch uitgevoerd voor je F4 EcoGreen schijven? Aangezien je juist fouten lijkt te krijgen als je de status van de schijven checked met smartctl.
Jup, ook gedaan. Zowel de F4EG patch die het firmware nummer niet veranderde als de /JP patch die het firmwarenummer van de disks wel met 2 ophoogde..

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 23:45
Je hebt de /JP firmware op de normale geflashed? Is dat wel zo handig?

  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 24-12 01:41

OMX2000

By any means necessary...

Morgen komt eindelijk de boel binnen. Ben alleen bang dat ik weinig tijd zal hebben om de boel op te tuigen. Dus ik heb jullie hulp een beetje nodig. ;) Ik heb me behoorlijk ingelezen afgelopen weken, maar ik zit

Het gaat om het onderstaande systeem:

#ProductPrijsSubtotaal
1ICIDU Mini Drive 4GB€ 9,99€ 9,99
1Intel Gigabit CT Desktop Adapter€ 23,15€ 23,15
1TP-Link TL-SG1005D€ 15,-€ 15,-
4Samsung EcoGreen F4EG HD204UI, 2TB€ 59,99€ 239,96
1Sharkoon Rebel9 Aluminium€ 47,70€ 47,70
1Fractal Design Silent Series , 120mm€ 9,40€ 9,40
1Intel Core i3 540€ 82,80€ 82,80
1Cooler Master 4-in-3 Device Module€ 16,-€ 16,-
1Kingston SSDNow V+100 SVP100S2/96G (stand-alone drive) 96GB€ 114,99€ 114,99
4Kingston ValueRAM KVR1333D3N9K2/4G€ 22,99€ 91,96
1MSI H55M-ED55€ 71,90€ 71,90
Bekijk collectie
Importeer producten
Totaal€ 722,85


Ik wil dus ESXi booten vanaf de USB stick. En dan Ubuntu Server als een VM draaien vanaf de Kingston. Ik wil een Raid 5 set met mdadm gaan draaien en daarop een XFS filesystem. Dit heeft prio 1, zodat ik hierop mijn films, series en foto's kwijt kan. Ik ga ook Sickbeard/Couchpotato/Sab draaien hierop.

Later komen er meer VM's, waaronder 1 Windows 2008 R2, en Windows 7.

Mijn eerste vraag is : "Wat is een handige plan van aanpak?"
Tweede vraag is of ik wat moet doen aan de Samsungs, moet ik daar meteen een andere firmware opzetten?

Verder vroeg ik me af wat handige instellingen zijn voor de raidset, en XFS filesysteem.

Ik weet dat het lijkt alsof ik niks heb uitgezocht, maar het is nu zo dat ik niet veel tijd heb om te experimenteren. Dus directe instructies zijn nu ff welkom.

Dè developers podcast in je moerstaal : CodeKlets Podcast


  • Staatslot
  • Registratie: December 2007
  • Laatst online: 08-12 12:27
Nielson schreef op maandag 11 juli 2011 @ 20:46:
Je hebt de /JP firmware op de normale geflashed? Is dat wel zo handig?
Stond netjes bij dat het geen kwaad kon, de firmware herkent zelf de disks de gepatcht kunnen worden.
Bovendien verhoogde de eerste patch het firmwarenummer niet en kon deze een oneindig aantal keren worden uitgevoerd, terwijl de /JP versie na één keer draaien netjes meldde dat de disks waren geflasht en bovendien de firmwareversies zijn verhoogd. Een tweede keer draaien gaf ook netjes aan dat er niets te patchen was, dus ik heb er wel vertrouwen in dat dat goed is gegaan eigenlijk..

  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06 15:03
OMX2000 schreef op maandag 11 juli 2011 @ 20:47:
Morgen komt eindelijk de boel binnen. Ben alleen bang dat ik weinig tijd zal hebben om de boel op te tuigen. Dus ik heb jullie hulp een beetje nodig. ;) Ik heb me behoorlijk ingelezen afgelopen weken, maar ik zit

Het gaat om het onderstaande systeem:

#ProductPrijsSubtotaal
1ICIDU Mini Drive 4GB€ 9,99€ 9,99
1Intel Gigabit CT Desktop Adapter€ 23,15€ 23,15
1TP-Link TL-SG1005D€ 15,-€ 15,-
4Samsung EcoGreen F4EG HD204UI, 2TB€ 59,99€ 239,96
1Sharkoon Rebel9 Aluminium€ 47,70€ 47,70
1Fractal Design Silent Series , 120mm€ 9,40€ 9,40
1Intel Core i3 540€ 82,80€ 82,80
1Cooler Master 4-in-3 Device Module€ 16,-€ 16,-
1Kingston SSDNow V+100 SVP100S2/96G (stand-alone drive) 96GB€ 114,99€ 114,99
4Kingston ValueRAM KVR1333D3N9K2/4G€ 22,99€ 91,96
1MSI H55M-ED55€ 71,90€ 71,90
Bekijk collectie
Importeer producten
Totaal€ 722,85


Ik wil dus ESXi booten vanaf de USB stick. En dan Ubuntu Server als een VM draaien vanaf de Kingston. Ik wil een Raid 5 set met mdadm gaan draaien en daarop een XFS filesystem. Dit heeft prio 1, zodat ik hierop mijn films, series en foto's kwijt kan. Ik ga ook Sickbeard/Couchpotato/Sab draaien hierop.

Later komen er meer VM's, waaronder 1 Windows 2008 R2, en Windows 7.

Mijn eerste vraag is : "Wat is een handige plan van aanpak?"
Tweede vraag is of ik wat moet doen aan de Samsungs, moet ik daar meteen een andere firmware opzetten?

Verder vroeg ik me af wat handige instellingen zijn voor de raidset, en XFS filesysteem.

Ik weet dat het lijkt alsof ik niks heb uitgezocht, maar het is nu zo dat ik niet veel tijd heb om te experimenteren. Dus directe instructies zijn nu ff welkom.
Eigenlijk simple toch eerst esxi installeren en patchen naar laatste niveau. Vmfs volume aanmaken op de kingston en daar een ubuntu server aan hangen (neem aan dat je niet middels nfs wil werken? anders word het eerst een machine opzetten met nfs voor de datastore. beide hebben hun voordelen en nadelen. afhankelijk van het gebruik.

en dan je ubuntu machientje opbouwen

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Ik zou geen VMFS gebruiken, maar de disk direct aan de Ubuntu VM geven en daarin formatteren... Mocht je dan ooit besluiten om even geen ESX te willen gebruiken, boot je gewoon van die installatie, dat werkt prima.
Bovendien heb je dan (volgens mij) TRIM (mits je dit in je VM aan zet) wat de levensduur van je SSD bevorderd. Of het ook echt werkt weet ik niet precies, want ik weet niet of ESX(i) met RDM het TRIM commando doorlaat. Maar ik denk het wel :)

Over die samsungs, altijd patchen, je weet nooit zeker of ze goed zijn... Gewoon doen, dan weet je op voorhand al dat het daar niet aan kan liggen :)

[Tenzij je die test VM's perse ook op die SSD wil hebben, dan zul je wel naar VMFS moeten inderdaad :) ]

[ Voor 8% gewijzigd door FireDrunk op 11-07-2011 21:57 ]

Even niets...


  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 24-12 01:41

OMX2000

By any means necessary...

Thanx FireDrunk & whocarez
FireDrunk schreef op maandag 11 juli 2011 @ 21:56:
Ik zou geen VMFS gebruiken, maar de disk direct aan de Ubuntu VM geven en daarin formatteren... Mocht je dan ooit besluiten om even geen ESX te willen gebruiken, boot je gewoon van die installatie, dat werkt prima.
Bovendien heb je dan (volgens mij) TRIM (mits je dit in je VM aan zet) wat de levensduur van je SSD bevorderd. Of het ook echt werkt weet ik niet precies, want ik weet niet of ESX(i) met RDM het TRIM commando doorlaat. Maar ik denk het wel :)

Over die samsungs, altijd patchen, je weet nooit zeker of ze goed zijn... Gewoon doen, dan weet je op voorhand al dat het daar niet aan kan liggen :)

[Tenzij je die test VM's perse ook op die SSD wil hebben, dan zul je wel naar VMFS moeten inderdaad :) ]
Ik neem aan dat ik een partitie op de SSD maak voor Ubuntu, en later ook voor Windows 2008?

Dè developers podcast in je moerstaal : CodeKlets Podcast


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Nee als je ze beide op die SSD wil hebben, moet je VMFS gebruiken :)

Even niets...


  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06 15:03
FireDrunk schreef op maandag 11 juli 2011 @ 22:08:
Nee als je ze beide op die SSD wil hebben, moet je VMFS gebruiken :)
Of middels nfs aanbieden vanuit een vm (thin provisioning by default erg handig voor die kleine ssd). Trim werkt niet vanuit esxi maar mogelijk wel vanuit de vm. je moet de disk dan wel middels vt-d of amd-vi aan de machine publiceren. De kingston heeft als het goed is een goede garbage collection. Waarschijnlijk lood om oud ijzer dus.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Thin provisionen kan ook op VMFS hoor ;)

Even niets...


  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06 15:03
FireDrunk schreef op maandag 11 juli 2011 @ 22:37:
Thin provisionen kan ook op VMFS hoor ;)
maar staat niet default aan. Het is dus iets waar je zelf voor moet kiezen.
http://vmetc.com/2009/05/...e-virtual-infrastructure/ enkele voordelen

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
* FireDrunk heeft ESXi 4.1, en daar kan je het gewoon kiezen bij het aanmaken van een VM (net zoals bij NFS)

Dat linkje gaat over ESX 3.5...

Even niets...


  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06 15:03
FireDrunk schreef op maandag 11 juli 2011 @ 22:45:
* FireDrunk heeft ESXi 4.1, en daar kan je het gewoon kiezen bij het aanmaken van een VM (net zoals bij NFS)

Dat linkje gaat over ESX 3.5...
Klopt je kan kiezen of je het wil bij bepaalde nfs setups kan het zo zijn dan het default is zoals bij netapp.

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 24-12 03:24

Quindor

Switching the universe....

Staatslot schreef op maandag 11 juli 2011 @ 20:11:
De wanhoop komt nu toch wel om de hoek kijken hoor...
Samsungtool: geen problemen
In Ubuntu opnieuw de array opgebouwd: geen problemen

Filesystem aangemaakt op array, check for badblocks maar aangezet en ja hoor daar gaan we weer:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
Jul 11 20:04:55 storage kernel: [37919.565651] __ratelimit: 366191 callbacks suppressed
Jul 11 20:04:55 storage kernel: [37919.565654] Buffer I/O error on device md0, logical block 138987007
Jul 11 20:04:55 storage kernel: [37919.570117] Buffer I/O error on device md0, logical block 138987009
Jul 11 20:04:55 storage kernel: [37919.574527] Buffer I/O error on device md0, logical block 138987010
Jul 11 20:04:55 storage kernel: [37919.579749] Buffer I/O error on device md0, logical block 138987011
Jul 11 20:04:55 storage kernel: [37919.584879] Buffer I/O error on device md0, logical block 138987012
Jul 11 20:04:55 storage kernel: [37919.590236] Buffer I/O error on device md0, logical block 138987013
Jul 11 20:04:55 storage kernel: [37919.595454] Buffer I/O error on device md0, logical block 138987014
Jul 11 20:04:55 storage kernel: [37919.600738] Buffer I/O error on device md0, logical block 138987015
Jul 11 20:04:55 storage kernel: [37919.605135] Buffer I/O error on device md0, logical block 138987017
Jul 11 20:04:55 storage kernel: [37919.610374] Buffer I/O error on device md0, logical block 138987018
Jul 11 20:05:00 storage kernel: [37924.564500] __ratelimit: 337559 callbacks suppressed
Jul 11 20:05:00 storage kernel: [37924.564503] Buffer I/O error on device md0, logical block 139372801
Jul 11 20:05:00 storage kernel: [37924.568923] Buffer I/O error on device md0, logical block 139372802
Jul 11 20:05:00 storage kernel: [37924.573271] Buffer I/O error on device md0, logical block 139372803
Jul 11 20:05:00 storage kernel: [37924.578397] Buffer I/O error on device md0, logical block 139372804
Jul 11 20:05:00 storage kernel: [37924.583155] Buffer I/O error on device md0, logical block 139372805
Jul 11 20:05:00 storage kernel: [37924.588133] Buffer I/O error on device md0, logical block 139372806
Jul 11 20:05:00 storage kernel: [37924.592513] Buffer I/O error on device md0, logical block 139372807
Jul 11 20:05:00 storage kernel: [37924.597402] Buffer I/O error on device md0, logical block 139372809
Jul 11 20:05:00 storage kernel: [37924.601748] Buffer I/O error on device md0, logical block 139372810
Jul 11 20:05:00 storage kernel: [37924.607034] Buffer I/O error on device md0, logical block 139372811
Jul 11 20:05:05 storage kernel: [37929.563347] __ratelimit: 333288 callbacks suppressed
Jul 11 20:05:05 storage kernel: [37929.563351] Buffer I/O error on device md0, logical block 139753706


Zo gaat het nog een regel of 80 door.. :|
Morgen maar eens bellen met Azerty, maar als ze de Samsung ESTool hanteren kan ik natuurlijk fluiten naar mijn garantie.. Doe ik iets fout, of heeft iemand nog een doorslaggevende heldere ingeving?

Word er echt sacherijnig van, ik zie zoveel problemen en zoveel onduidelijkheden en vooral inconsistentie dat ik het even niet meer weet. Die SMART waarden worden door iedereen anders geïnterpreteerd en met het veranderen van schakelopties wordt het aantal fouten echt ongeloofwaardig hoog.. HELP!
Heb je een quick check of een full check gedaan. Toen ik 8x F3EG kocht bleken er uiteindelijk 3! niet in orde te zijn. Quick vond alles prima, maar na een full check kwamen deze aan het licht. Ook mijn toenmalige RAID controller (Adaptec 5805) kon errors vinden met een full surface scan.

Kost je eventjes wat tijd (~8 uur per disk) maar dan weet je vervolgens wel zeker dat het in orde is!

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


  • Staatslot
  • Registratie: December 2007
  • Laatst online: 08-12 12:27
Quindor schreef op dinsdag 12 juli 2011 @ 07:13:
[...]

Heb je een quick check of een full check gedaan. Toen ik 8x F3EG kocht bleken er uiteindelijk 3! niet in orde te zijn. Quick vond alles prima, maar na een full check kwamen deze aan het licht. Ook mijn toenmalige RAID controller (Adaptec 5805) kon errors vinden met een full surface scan.

Kost je eventjes wat tijd (~8 uur per disk) maar dan weet je vervolgens wel zeker dat het in orde is!
Fullscan gedaan ongeveer 6 uur per disk, maar de tool meldt helaas geen fouten..
Rma mail naar Azerty verstuurd, heel uitgebreid met alle foutmeldingen screenshots etc.

Vertrouw die ESTool ook niet echt eerlijk gezegd.
Het is toch een beetje een slager die zijn eigen vlees keurt (wij van wc-eend adviseren.....)
Bovendien vind ik nergens in die tool een onderbouwing van wat er is onderzocht..

  • lennartb
  • Registratie: December 2003
  • Laatst online: 17:16
HarmoniousVibe schreef op maandag 11 juli 2011 @ 16:24:
[...]

Die oude zou je inderdaad nog moeten kunnen fixen. Vanaf de EARS of misschien de EADS niet meer.
Yup, gisteravond even met de WDtler tool de disks aangepast. Beide standaard op 7sec. Nu weer afwachten.

  • Staatslot
  • Registratie: December 2007
  • Laatst online: 08-12 12:27
Inmiddels bericht gehad van Azerty dat ik de disks kan terugsturen en ruilen voor 4 andere disks naar keuze.
Complimenten voor de service van Azerty!
Is de WD Caviar Green WD20EARS (2TB) dan een goed alternatief, want ik vertrouw Samsung na zoveel blunders (firmware fout, onduidelijke firmware update, geen versienummer aanpassen na firmware update, slechte diagnostische tool) niet meer.

[ Voor 5% gewijzigd door Staatslot op 12-07-2011 10:37 ]


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Staatslot schreef op dinsdag 12 juli 2011 @ 10:31:
Inmiddels bericht gehad van Azerty dat ik de disks kan terugsturen en ruilen voor 4 andere disks naar keuze.
Complimenten voor de service van Azerty!
Is de WD Caviar Green WD20EARS (2TB) dan een goed alternatief, want ik vertrouw Samsung na zoveel blunders (firmware fout, onduidelijke firmware update, geen versienummer aanpassen na firmware update, slechte diagnostische tool) niet meer.
Tsja, YMMV. Je hebt er weinig aan als een paar mensen nu gaan roepen dat merk X wel of geen betrouwbare schijven zijn. Er zijn hordes mensen die enorm blij zijn met hun F4, maar jij hebt blijkbaar een slechte batch te pakken gehad. Zelf heb ik 10 WD20EARS disks besteld (in batches van 4, 3 en 3) en daarvan was er ééntje DOA, maar zoals ik al zei zegt dit vrij weinig.

Het enige objectieve wat er over de WD's te zeggen is, is dat ze absoluut niet geschikt zijn voor hardware RAID. Je kunt ze eigenlijk alleen gebruiken icm een echte HBA (mobo SATA-controller of een LSI-achtige in IT-modus bijvoorbeeld).

En dat er niet echt firmware-issues zijn geweest, voor zover ik weet. Dat geldt overigens ook voor de andere merken (muv van Samsung dus).

[ Voor 5% gewijzigd door HarmoniousVibe op 12-07-2011 11:12 . Reden: typo ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Hij zegt heel netjes "Ik vertrouw", en niet "Samsung is"...
Die WD's zijn ook prima schijven :)
Echt slechte schijven bestaan tegenwoordig haast niet meer...

Even niets...


Verwijderd

Staatslot schreef op dinsdag 12 juli 2011 @ 10:31:
Inmiddels bericht gehad van Azerty dat ik de disks kan terugsturen en ruilen voor 4 andere disks naar keuze.
Complimenten voor de service van Azerty!
AZERTY is top .. mee eens _/-\o_
Toch zou ik samsung (her)overwegen .. topschijven 8)

  • KorneelB
  • Registratie: Mei 2008
  • Laatst online: 13-10 14:52
HarmoniousVibe schreef op dinsdag 12 juli 2011 @ 11:07:
[...]

Tsja, YMMV. Je hebt er weinig aan als een paar mensen nu gaan roepen dat merk X wel of geen betrouwbare schijven zijn. Er zijn hordes mensen die enorm blij zijn met hun F4, maar jij hebt blijkbaar een slechte batch te pakken gehad. Zelf heb ik 10 WD20EARS disks besteld (in batches van 4, 3 en 3) en daarvan was er ééntje DOA, maar zoals ik al zei zegt dit vrij weinig.

Het enige objectieve wat er over de WD's te zeggen is, is dat ze absoluut niet geschikt zijn voor hardware RAID. Je kunt ze eigenlijk alleen gebruiken icm een echte HBA (mobo SATA-controller of een LSI-achtige in IT-modus bijvoorbeeld).

En dat er niet echt firmware-issues zijn geweest, voor zover ik weet. Dat geldt overigens ook voor de andere merken (muv van Samsung dus).
als kleine nuancering;
de EARS e.d. zijn idd niet geschikt voor hardware RAID.. de RE versies van WD zijn juist bijzonder goed geschikt.. draai er nu 24 stuks van in een raid 6, en draai verder al jarenlang op RE schijven (vanaf RE2, iedere 2 jaar nieuwe schijven) en nooit issues gehad..

60 TB can not be enough


  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Misschien eens naar Hitachi of Seagate kijken? De Seagate Greens zijn en par met de Samsungs (zelfs ietsie pietsie sneller) en zijn SATA600. Het enige verschil is dat de Seagates nogal hongerig naar stroom zijn bij het opstarten.

Editje: Mijn IBM M1015 is intussen toegekomen. K heb er wel nog geen SAS->SATA forward breakout kabel voor dus een schijf eraan hangen kan nog niet. Ik ga ze vandaag wel al flashen naar LSI IT mode.

[ Voor 30% gewijzigd door Jormungandr op 12-07-2011 11:51 ]


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Hmm Ik had moeten zeggen "die WD's", als in: die WD20EARS. Dat was in ieder geval wat ik bedoelde :)

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 19-12 16:48

iMars

Full time prutser

Hmm, ik heb nu een ruime week 4x Samsung F4EG en heb nergens last van (de firmare). Heb alles in raid5 draaien onder Ubuntu softraid (mdadm). Is het nog verstandig om naar de firmware te kijken? Er staat inmiddels al behoorlijk wat data op.

Koop hier mijn P1 reader :)


  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 31-08 10:48
Mijn DIY NAS is eindelijk af *.

NAS HARDWARE:
#Product
1Areca ARC-1280ML (24x SATA300 RAID, XOR, 256MB, PCI-e x8)
1Intel Gigabit CT Desktop Adapter
16Western Digital Caviar Green WD10EADS, 1TB
1Sony NEC Optiarc AD-7673S Zwart
1Chenbro RM31616M-G
1Kingston ValueRAM KVR800D2E6/2G
1Asus M4A78-E
1AMD Athlon II X2 240E Boxed
1Scythe Twin Mounter 2.5"
1Areca ARC-6120
1Seasonic SS-460H
1Intel Postville X25-V SSDSA2MP040G2R5 40GB
4CBL-SFF8087SB-05M

DE SOFTWARE:
FreeNAS 8.0 met 16 disken in ZFS RAIDZ2 en AFP shares. Een prima oplossing die mijn FreeBSD 8.2 installatie heeft vervangen.

HET DIY 19" RACK:
Twee weken bezig geweest met zelf een portable 19" rack te bouwen. Naast de 3U hoge NAS is er plaats voor 1U hoge rackmount LCD en 2U hoge APC Smart UPS 3000. Zowel de rackmount LCD (~60 Euro) als de UPS (50 Euro) heb ik via eBay / Marktplaats gekocht. Heb nog 3U vrij in het rack, maar wil de ruimte boven en onder de NAS niet vullen ivm de warmte. Verwacht nog een Gbit switch in het rack erbij te plaatsen, maar moet eerst de kabels in mijn huis opnieuw gaan leggen.

Afbeeldingslocatie: https://files.me.com/maartendevries/iemvm9

Afbeeldingslocatie: https://files.me.com/maartendevries/1ky5yd

*Een DIY project is natuurlijk nooit helemaal af, want er zijn altijd wel een paar additionele tweaks uit te voeren.

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


  • BrammT
  • Registratie: Mei 2009
  • Laatst online: 24-12 07:47

BrammT

The one and only!

Erg leuk kastje geworden zo. :)
Waar(voor) wordt 'ie gebruikt?

Helaas niet meer zo'n bevlogen Tweaker als voorheen...


  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 23:45
Twee weken bezig geweest met zelf een portable 19" rack te bouwen.
't Is een prachtig ding, maar je verplaatst 'm ook echt regelmatig? Past denk wel goed bij je nickname :)

Verwijderd

Nielson schreef op dinsdag 12 juli 2011 @ 13:50:
[...]
't Is een prachtig ding, maar je verplaatst 'm ook echt regelmatig? Past denk wel goed bij je nickname :)
heel deftige case geworden.. kan je evt. nog een fotootje plaatsen met de monitor uit.. zit er dan een toetsenbordje bij ?

  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 31-08 10:48
Hij staat gewoon op zolder, maar hij is verplaatsbaar zodat ik beter bij de achterkant kan. De kast is niet zwaar, maar door de NAS en vooral de UPS weegt hij ~60KG.

Afbeeldingslocatie: https://files.me.com/maartendevries/45x73b

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


  • Staatslot
  • Registratie: December 2007
  • Laatst online: 08-12 12:27
Hele mooie setup, leuk gedaan het DIY rack!

@HarmoniousVibe ik heb nooit gezegd dat Samsung onbetrouwbaar is, of dat deze disks per definitie onbetrouwbaar zijn. Ik heb uit twee verschillende (niet één) batches 4 disks gekregen die blijkbaar niet in orde waren. Dat gecombineerd met de naar mijn idee slechte diagnostisch tool van Samsung, de firmware bug en het op meerdere fronten onduidelijke patchen van die slechte firmware heeft mij er in ieder geval toe gebracht voorlopig even geen vertrouwen meer te hebben in het handelen van Samsung aangaande harddisks. Geen koopadvies of wat dan ook voor anderen hoor, ik geloof direct dat de genoemde disk perfect werkt bij heel veel mensen! Ik zet voor nu even in op WD, gewoon even op een ander paard wedden :)

Intussen heb ik Azerty dan ook doorgegeven dat ik graag 4 nieuwe WD Caviar greens ontvang, met een beetje mazzel worden die morgen verstuurd en zijn ze hier donderdag. Allen bedankt voor alle geboden hulp bij het onderzoeken van alle problemen die ik heb ervaren met de Samsung disks!

  • whocarez
  • Registratie: Januari 2002
  • Laatst online: 08-06 15:03
Zware Unit schreef op dinsdag 12 juli 2011 @ 14:29:
Hij staat gewoon op zolder, maar hij is verplaatsbaar zodat ik beter bij de achterkant kan. De kast is niet zwaar, maar door de NAS en vooral de UPS weegt hij ~60KG.

[afbeelding]
Deftig rekkie. _/-\o_ Ziet er strak uit, denk dat je een hoop mensen blij maakt met een worklog of een tekening. In ieder geval maak je mij er blij mee. :*)

[ Voor 8% gewijzigd door whocarez op 12-07-2011 16:14 ]


Verwijderd

Zware Unit schreef op dinsdag 12 juli 2011 @ 14:29:
Hij staat gewoon op zolder, maar hij is verplaatsbaar zodat ik beter bij de achterkant kan. De kast is niet zwaar, maar door de NAS en vooral de UPS weegt hij ~60KG.

[afbeelding]
heel netjes :P

* gelijk gaat zoeken op e-bay naar zo'n inbouw terminal dingus :*)

  • Birdie_NL
  • Registratie: Maart 2008
  • Laatst online: 03-12 19:23
Verwijderd schreef op dinsdag 12 juli 2011 @ 19:00:
[...]


heel netjes :P

* gelijk gaat zoeken op e-bay naar zo'n inbouw terminal dingus :*)
Ghehe heb ik zojuist ook gedaan, alleen de mooie nette zijn best prijzig!

Verwijderd

brndst schreef op dinsdag 12 juli 2011 @ 19:02:
[...]

Ghehe heb ik zojuist ook gedaan, alleen de mooie nette zijn best prijzig!
onder de 150,- incl shipping zie ik ze niet .. tja.. zucht .. :'(

[ Voor 21% gewijzigd door Verwijderd op 12-07-2011 19:06 ]


  • raymonvdm
  • Registratie: December 2001
  • Laatst online: 30-06 16:35
Volgens mij is dat echt van dat spul waar je "tegen aan moet lopen" Het is mij ook nooit gelukt maar als je een machine gebruikt met KVM-IP is het ook niet nodig :p

Verwijderd

Staatslot schreef op maandag 11 juli 2011 @ 20:11:
Word er echt sacherijnig van, ik zie zoveel problemen en zoveel onduidelijkheden en vooral inconsistentie dat ik het even niet meer weet. Die SMART waarden worden door iedereen anders geïnterpreteerd
Mag ik ze ook interpreteren? :)
Linkje naar je SMART output (raw output) zou fijn zijn.

  • lampie1979
  • Registratie: Maart 2005
  • Laatst online: 02-12 10:08

lampie1979

Hoepla!

Mooi zelfbouw rek! Complimenten!

They call her... c*ck juggeling Thunderc*nt!


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Zware Unit, er is een topic dat op je wacht. :)
Storage showoff topic - 10+ TB storage systems

De CSL/OT kroeg !


  • Danfoss
  • Registratie: Mei 2000
  • Laatst online: 23:19

Danfoss

Deze ruimte is te koop..

Zware Unit schreef op dinsdag 12 juli 2011 @ 13:43:
Mijn DIY NAS is eindelijk af *.

NAS HARDWARE:
#Product
1Areca ARC-1280ML (24x SATA300 RAID, XOR, 256MB, PCI-e x8)
1Kingston ValueRAM KVR800D2E6/2G

DE SOFTWARE:
FreeNAS 8.0 met 16 disken in ZFS RAIDZ2 en AFP shares. Een prima oplossing die mijn FreeBSD 8.2 installatie heeft vervangen.
Heel mooi systeem, maar lees ik het nou goed dat je 2gb ram hebt en software raid ZFS Z2 draait op die Areca? Ik dacht dat minstens 1gb ram per 1tb nodig is voor een beetje performance met zfs?

Sys Specs


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Gewoon om CiPHER een beetje te zieken ;)

De CSL/OT kroeg !


Verwijderd

Dadona schreef op dinsdag 12 juli 2011 @ 22:02:
Gewoon om CiPHER een beetje te zieken ;)
LOL .. :+

  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 31-08 10:48
Danfoss schreef op dinsdag 12 juli 2011 @ 21:58:
[...]


Heel mooi systeem, maar lees ik het nou goed dat je 2gb ram hebt en software raid ZFS Z2 draait op die Areca? Ik dacht dat minstens 1gb ram per 1tb nodig is voor een beetje performance met zfs?
Ja, dat lees je goed. Ben vandaag van raid 6 naar ZFS Z2 gegaan. 2GB is ruim voldoende voor raid 6, maar samen met de overstap naar ZFS Z2 heb ik ook nieuw (4 x 2GB ECC) geheugen besteld. Performance is momenteel met 2GB al ruim voldoende, want de Gbit verbinding wordt geheel gevuld door de data.

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


Verwijderd

Danfoss schreef op dinsdag 12 juli 2011 @ 21:58:
Heel mooi systeem, maar lees ik het nou goed dat je 2gb ram hebt en software raid ZFS Z2 draait op die Areca? Ik dacht dat minstens 1gb ram per 1tb nodig is voor een beetje performance met zfs?
Niet per TB, maar per schijf. Een hardware RAID volume is een enkele schijf vanuit het perspectief van ZFS; een niet-redundante pool. Daarvoor heb je ook veel minder RAM nodig dan met een normale RAID-Z2 pool bijvoorbeeld. Daarnaast zal de controller zorgen voor read-ahead en write buffering, om alle disks bezig te houden. Verder ga ik ervanuit dat Zware Unit de Areca in write-back modus gebruikt, wat inhoudt dat deze 'liegt' tegen ZFS over geschreven metadata; en flush commando's negeert. Dit kan de hele pool corrumperen als hier iets mis mee gaat; dus is een gevaarlijke setup.

Zolang de BBU van de Areca controller het goed doet en en de controller ook goed omgaat met de write buffer van HDDs, zal dit geen problemen mogen geven. Maar als er wel iets mis gaat dan ben je alles op de pool permanent kwijt. Zonder BBU is zo'n setup enorm onveilig; ook al heb je 300 parity disks.

Ik ben wel benieuwd in benchmarks, met name in het verschil tussen write-back en write-through. Als Zware Unit tijd heeft kan het interessant zijn deze te draaien, bijvoorbeeld met:
dd if=/dev/zero of=/pad/naar/zfs/nulfile.dat bs=1m count=32000

Je moet met 8x alle write-back testen, dus RAM+ RAM op je Areca. 32GB zoals hierboven is een redelijke hoeveelheid voor een stabiele meting. Test je met 10 of 4 gigabyte dan krijg je kuntmatig hoge scores.

  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 20-12 22:26

TrailBlazer

Karnemelk FTW

gisteren is mijn 2GB ATA DOM binnengekomen en meteen maar even Linux geïnstalleerd dus. Systeem maakt al gebruik van LDAP authenticatie. Ook netflow gecompileerd zodat ik straks mooi kan zien welk systeem de meeste datagebruik heeft.

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Kijk ik nu trouwens zo scheel of staat de IT firmware/bios voor de LSI 9240 niet op de website. Ik heb wel een firmware versie, maar daar maakt men geen gewag of het IT of Raid is.

De kaart is trouwens gelabelt als 9220 op de achterkant en tijdens het booten krijg ik ook het LSI bootscherm te zien. Tijd om uit te pluizen of het nu gewoon een LSI is of een M1015 in disguise :P.

  • Turk
  • Registratie: Mei 2010
  • Laatst online: 05-12 21:43
Bij deze mijn opstelling:

MSI MS-7181 (K8MM3-V)
AMD Athlon(tm) 64 Processor 3000+ @ 2Ghz
Antec One Hundred case
2x SAMSUNG HD204UI in RAID-0

Ik draai op FreeNAS 0.7.2 Sabanda (revision 6694)

Nou heb ik een externe hardeschijf waar 1TB aan spul opstaat, en als ik dat via mijn laptop naar de NAS stuur (in delen) is het max 11,2 mb/s. Nou zal dat waarschijnlijk liggen aan het feit dat mijn NAS een onboard 100mbit/s kaartje heeft.

Maar wat ik me dus afvraag is hoe kan ik testen waar het minpunt van mijn systeem zit.
Ik heb echt 0 kennis van Linux, wat ik wel wil leren.

Nou ben ik benieuwd hoe jullie, jullie data overzetten naar de NAS.

Staat opzich wel spul op wat ik graag wil behouden, dus durf hem zo niet aan de NAS te hangen, aangezien ik al 1 keer een GOFFSET error (of iets in die trend) heb gehad ermee.
Toen was mijn laptop een nacht spul aan het overpompen naar de NAS, en toen ik wakker werd, had ik dat probleem.

Sorry voor mijn leek taal, maar je moet toch ergens beginnen.

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 23:05
Turk schreef op woensdag 13 juli 2011 @ 11:40:
Bij deze mijn opstelling:

MSI MS-7181 (K8MM3-V)
AMD Athlon(tm) 64 Processor 3000+ @ 2Ghz
Antec One Hundred case
2x SAMSUNG HD204UI in RAID-0

Ik draai op FreeNAS 0.7.2 Sabanda (revision 6694)

Nou heb ik een externe hardeschijf waar 1TB aan spul opstaat, en als ik dat via mijn laptop naar de NAS stuur (in delen) is het max 11,2 mb/s. Nou zal dat waarschijnlijk liggen aan het feit dat mijn NAS een onboard 100mbit/s kaartje heeft.
Met 100 mbit zul je niet sneller kunnen.
Maar wat ik me dus afvraag is hoe kan ik testen waar het minpunt van mijn systeem zit.
Ik heb echt 0 kennis van Linux, wat ik wel wil leren.
Om de snelheid van je netwerk te testen kun je iperf gebruiken

De snelheid van je raid (local) kun je testen met
dd if=/dev/zero of=/pathtomountedraid/test.bin bs=1M count=4098

Dit schrijft een 4GB testfile op je raidsetje en geeft daarna de schrijfsnelheid weer.
Nou ben ik benieuwd hoe jullie, jullie data overzetten naar de NAS.
Tsja, dat is natuurlijk ook afhankelijk waar de data vandaan komt. Maar als het twee verschillende machines betreft zit je vast aan Samba (cifs) of NFS.
In mijn geval heb ik de share van mijn oude NAS gewoon gemount op mijn nieuwe machine (via NFS) en daarna is het gewoon een kwestie van kopieren en geduld hebben ;)
Staat opzich wel spul op wat ik graag wil behouden, dus durf hem zo niet aan de NAS te hangen, aangezien ik al 1 keer een GOFFSET error (of iets in die trend) heb gehad ermee.
Toen was mijn laptop een nacht spul aan het overpompen naar de NAS, en toen ik wakker werd, had ik dat probleem.

Sorry voor mijn leek taal, maar je moet toch ergens beginnen.
Als je die data belangrijk vindt, snap ik de keuze voor raid0 op je NAS niet helemaal?
Met raid0 heb je geen enkele vorm van veiligheid, is het niet beter om raid1, raid5 of raid6 te kiezen?

  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 31-08 10:48
Verwijderd schreef op woensdag 13 juli 2011 @ 00:41:
[...]

Ik ben wel benieuwd in benchmarks, met name in het verschil tussen write-back en write-through. Als Zware Unit tijd heeft kan het interessant zijn deze te draaien, bijvoorbeeld met:
dd if=/dev/zero of=/pad/naar/zfs/nulfile.dat bs=1m count=32000
dd if=/dev/zero of=/mnt/storage/nulfile.dat bs=1m count=32000
32000+0 records in
32000+0 records out
33554432000 bytes transferred in 117.852818 secs (284714719 bytes/sec)

271MB per seconden is een prima score. Verwacht over 2 weken van 2GB naar 8GB ECC geheugen te gaan. Zal dan de test nogmaals draaien. Alles boven de 110MB is prima, aangezien de enkele Gbit verbinding toch niet meer kan hebben.

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


  • Turk
  • Registratie: Mei 2010
  • Laatst online: 05-12 21:43
Sleepie schreef op woensdag 13 juli 2011 @ 12:34:
[...]

Met 100 mbit zul je niet sneller kunnen.

[...]

Om de snelheid van je netwerk te testen kun je iperf gebruiken

De snelheid van je raid (local) kun je testen met
dd if=/dev/zero of=/pathtomountedraid/test.bin bs=1M count=4098

Dit schrijft een 4GB testfile op je raidsetje en geeft daarna de schrijfsnelheid weer.

[...]

Tsja, dat is natuurlijk ook afhankelijk waar de data vandaan komt. Maar als het twee verschillende machines betreft zit je vast aan Samba (cifs) of NFS.
In mijn geval heb ik de share van mijn oude NAS gewoon gemount op mijn nieuwe machine (via NFS) en daarna is het gewoon een kwestie van kopieren en geduld hebben ;)

[...]

Als je die data belangrijk vindt, snap ik de keuze voor raid0 op je NAS niet helemaal?
Met raid0 heb je geen enkele vorm van veiligheid, is het niet beter om raid1, raid5 of raid6 te kiezen?
Ik heb voor raid0 gekozen omdat ik het anders zonde vind van de andere 2 TB.
Het is niet zo dat als er een disk uitvalt dat mijn wereld ten einde is, maar ik wil het niet op een gok gooien met het overzetten, vandaar.
Ik heb de keuze uit JBOD, RAID0, 1 en 5. en RAID 0/1/5 (weet niet of daar een verschil in zit).

Ik zal vanavond even mijn systeem testen, moet zo naar m'n werk namelijk.
Als ik trouwens de harde schijven in standby laat zetten na x aantal minuten, dan spinnen ze de hele tijd up en down.
Iemand hier ook last van?

Niet dat het energieverbruik mij op dit moment ook maar iets uitmaakt (betaal vast tarief, lang leven 1 zekeringkast per portiek).

  • Turk
  • Registratie: Mei 2010
  • Laatst online: 05-12 21:43
> dd if=/dev/zero of=/mnt/data/nulfile.dat bs=1m count=32000


Krijg niks terug.. Hoor de hardeschijven ook niet schrijven..
Pagina: 1 ... 71 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.