Even niets...
Ik draai hier een 620T icm met een PicoPSU van 90W. Voorheen een Atom D510 gehad en kan zeggen dat het qua verbruik weinig scheelt maar je er qua performance natuurlijk een hoop voor terug krijgt. Ik draai nu idle 38W.Jormungandr schreef op zondag 10 juli 2011 @ 13:47:
[...]
Ik kwam net een review van de Pentiums tegen op Xbit en die zijn inderdaad verrassend zuinig. De zuinigere T variant wordt daar niet getest tho. In combi met een H61 bordje (hoe minder fancy opties hoe beter) zou dat nog wel eens de beste optie kunnen zijn. MB+ Pentium kost ook maar een 20tal euro meer dan een Brazos.
http://www.xbitlabs.com/a...ntium-g850-g840-g620.html
inventaris: NAS
Sinds de 2 dagen regel reageer ik hier niet meer
zou erg goed zijn dat dat allemaal nader onderzocht word welke kabels nu wel te vertrouwen zijn
merk/type ... de moeilijkheid is dat ze allemaal tzelfde lijken behalve wat kleur verschil en de connectors losmaken is iets wat je ook niet echt ga doen.
Ik kan me voorstelen dat een zo losse draad of "af en toe" los een hoop narigheid kan brengen
reden om altijd maar uiterst voorzichtig te zijn met de kabels en t buigen zoveel mogelijk te vermijden.
Ben helaas nog geen revieuws tegen gekomen voor SATA kabels en t blijft een mestery/gok welke je nu moet nemen, de prijzen zijn vaak zo laag dat t volgens mij ook niet anders kan dat er crappy kabels bestaan door de hoge massaproductie.
Als er echt een serieuse fabrikant is die gaat voor zijn product en wat goeds levert denk ik dat mensen best bereid zijn om daar een euro extra aan uit te geven om iets betrouwbaars te hehben voor de grote hoeveelheid data wat er aan toevertrouwd word.
38W idle is best lekker.
[ Voor 5% gewijzigd door _Dune_ op 26-03-2013 21:12 ]
voor fans ligt t er maar aan waarvoor je ze gaat gebruiken , of stilte belangrijk is of alleen hoge flow ...DJ-Visto schreef op zondag 10 juli 2011 @ 14:07:
Blegh.. Ik moet nog wat fans erbij kopen.. Weet het nog niet welke iemand een idee?
ook de prijzen verschillen enorm
Kijk op highflow.nl , in de forums is genoeg te vinden daarover om je keuze te maken.
Verwijderd
Je enige probleem zijn de 5 pending sectors; die zijn onleesbare sectoren die voor probleen zorgen. Je kunt deze laten omwisselen door de hardeschijf door een zero-write uit te voeren; dan zullen alle Current Pending Sectors weg zijn (en eventueel de Reallocated Sector Count verhogen; dit zjin omgewisselde onzichtbare bad sectors).Staatslot schreef op zaterdag 09 juli 2011 @ 20:45:
Heb een dump hier geplaatst, ben benieuwd of jij er wijs uit wordt?
Dus een lange format onder Windows 7 of een zero-write zou de schijf weer bruikbaar moeten maken. Dit vernietigt natuurlijk wel alle data op de schijf. Als je die data wilt behouden kun je Spinrite overwegen die kan soms recoveren zonder de data weg te gooien.
Nadat je Current Pending Sector weer 0 is kun je de schijf weer gaan gebruiken. Als dit nu vaker gebeurt zou ik de schijf omruilen voor garantie; maar in principe hoeft de schijf niet slecht te zijn hij zou nog 10 jaar mee kunnen in theorie.
Juist idle scheelt het wel! Bij AMD is de chipset vrijwel geheel in de CPU geïntegreerd. Intel kun je ook erg zuinig mee komen; maar Brazos is getest tot 7 watt idle wat natuurlijk erg low-power is.FireDrunk schreef op zaterdag 09 juli 2011 @ 20:40:
Ik dacht dat Brazos juist niet zo heel erg zuinig was als beloofd? Idle scheelde het amper, maar performance per watt van een G620 en een i3-2100 was toch hoger?
Dat kan maar is niet aan te bevelen. Je controller MOET je in write-through mode gebruiken om je kunt alsnog een corrupte pool krijgen ondanks alle beveiligingen van ZFS; omdat de controller de flush commando's dan simpelweg zal negeren en dus liegt tegen ZFS. Ook heb je TLER/CCTL/ERC schijven nodig anders kan bij een bad sector of andere timeout de controller keihard de disks eraf pleuren; dan moet je weer powerdown-powerup cycle doen om ze weer te laten zien. Dit geeft ZFS geen gelegenheid de bad sectors te repareren.whocarez schreef op zaterdag 09 juli 2011 @ 23:30:
Misschien een gekke vraag maar kan er niet echt een vinger achter krijgen. kan je de bbwc van de raid controller gebruiken bij een software maitge raid zoals een mdadm array met zfs of ext4
Kortom voor ZFS wil je een normale HBA controller geen RAID controller; maar het kan in principe wel. Je verliest wel vrijwel elk voordeel van de controller en je hebt bijvoorbeeld geen TRIM, geen echte SMART en vaak ook geen toegang tot APM/AAM (soms wel via een omweg).
Op dit moment heb ik een 5u rackmount backblaze storage pod achtig ontwerp gemaakt, het frame is erg diep maar zal makkelijk in mijn 19" rack passen.
Ik ben wel benieuwd naar jullie mening, voornamelijk over de koeling van de disken heb ik zelf nog wat twijfels.
Momenteel overweeg ik nog om een custom cube te bouwen welke ik gewoon onderin een 19" rack kan zetten, dat geeft namelijk wel iets meer mogelijkheden qua koeling en plaatsing van de hardware.
Hier onder even wat plaatjes van het ontwerp in sketchup:


Onderin zitten norco saw400 backplanes daar zet ik de disks op, het daadwerkelijk vastzetten van de disks moet ik nog even uitwerken. De backblaze oplossing is niet ideaal want dan ben je erg afhankelijk van de afemetingen van de schijf, maar als mijn andere idee niet lukt dan ga ik het niet zo doen als in de backblaze storagepod.
Het ideale aan de huidige oplossing is dat wanneer de schijven op de backplanes staan ze al redelijk vastzitten, ze moeten alleen bovenaan even tegengehouden worden en dan zitten ze al vast genoeg.
Ook ben ik nog even aan het kijken naar een mooie oplossing om 2 voedingen te gebruiken, ik ben niet echt een fan van de 2e voeding boven de cpu, op de cpu wil ik namelijk een grote tower koeler plaatsen zodat de koeler goed in de airflow zit maarjah keuzes
[ Voor 11% gewijzigd door dutch_warrior op 10-07-2011 20:26 ]
Met die koeling ga je de disken normaal wel koel kunnen houden. De middelste disken gaan wat warmer lopen dan de buitenste, maar opfikken zullen ze niet doen.
Verwijderd
is het niet mogelijk de strips op afstandbusjes te plaatsen zodat de kabels eronder door kunnen ?
Onder het middenschot in het chassis zit ook 2 cm ruimte voor kabels.
Ik ga de backplanes vastzetten in 2 lexaan houders, een beetje zoals een dimm op zijn plek wordt gehouden.
De stroomkabels ga ik zelf maken met van die molex stekkers welke haaks op de kabel staan, deze passen dan ook perfect onder de backplanes.
[ Voor 4% gewijzigd door dutch_warrior op 10-07-2011 20:46 ]
bouw je er voor ons allemaal meteen ook eentje?dutch_warrior schreef op zondag 10 juli 2011 @ 20:45:
Goed idee Borroz, is ook al geïmplementeerd. In het model slecht te zien maar tussen de print en de bodem van de case is 15 mm ruimte, ik heb al mini-sas kabels met rechte hoek in alle mogelijke richtingen gevonden.
Onder het middenschot in het chassis zit ook 2 cm ruimte voor kabels.
Ik ga de backplanes vastzetten in 2 lexaan houders, een beetje zoals een dimm op zijn plek wordt gehouden.
De stroomkabels ga ik zelf maken met van die molex stekkers welke haaks op de kabel staan, deze passen dan ook perfect onder de backplanes.
De 4 disks uit mn oude server, die daar in een Addonics 4-in-3 module hebben gezeten, weigeren op te spinnen in mijn IcyDock
Geen idee wat het probleem is, ik heb een Seagate 80GB schijfje wat ik nog had liggen ingeplugd en die spint prima op en wordt ook meteen herkend in mijn Ubuntu Server. De kabel lijkt me dus in orde, evenals de 'port' van
de IcyDock.
Bedenk me net dat die disks in de Addonics aangesloten waren op een RocketRaid 2320 (JBOD), kan dat er op een of andere manier nog iets mee te maken hebben?
Iemand een idee waar ik moet zoeken?
[ Voor 15% gewijzigd door Sleepie op 10-07-2011 21:42 ]
Misschien even direct aan je mobo hangen en met smartmontools kijken of er niet iets raars te vinden is?Sleepie schreef op zondag 10 juli 2011 @ 21:36:
Een heel raar probleem opnieuw hier
De 4 disks uit mn oude server, die daar in een Addonics 4-in-3 module hebben gezeten, weigeren op te spinnen in mijn IcyDock
Geen idee wat het probleem is, ik heb een Seagate 80GB schijfje wat ik nog had liggen ingeplugd en die spint prima op en wordt ook meteen herkend in mijn Ubuntu Server. De kabel lijkt me dus in orde, evenals de 'port' van
de IcyDock.
Bedenk me net dat die disks in de Addonics aangesloten waren op een RocketRaid 2320 (JBOD), kan dat er op een of andere manier nog iets mee te maken hebben?
Iemand een idee waar ik moet zoeken?
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
Ik geloof dat staggered spin-up inderdaad aanstond op de RocketRaid kaart ja.Nextron schreef op zondag 10 juli 2011 @ 22:39:
Waren ze voorheen geconfigureerd voor staggered spin-up?
Heeft dat effect op de disk zelf?
[ Voor 6% gewijzigd door Sleepie op 10-07-2011 22:41 ]
Ik lees hier net dat sommige HD's een jumper hebben om die functie te activeren, andere (Seagate bv) activeren dit wanneer power pin 11 niet gegrond is. Icy docks gebruiken die pin waarschijnlijk weer voor LED waardoor de pin niet gegrond is.
Hoe meer ik weet,
hoe meer ik weet,
dat ik niets weet.
En waarempel ze doen het nu ook in de IcyDock
Thanks!!!
Ik ben bezig met het samenstellen van een HTPC/NAS en nu zit ik als raidcontroller te denken aan de RocketRAID 2680 echter is dit nou een echte hardwarematige raidkaart of belast deze ook nog de CPU?
Ik kom er op de site van highpoint niet echt uit, ik kan wel terugvinden dat de kaart zelf de xor berekeningen doet en in de review op http://www.overclockersonline.net/reviews/50002671/ kan ik niks vinden over de systeembelasting.
Reden dat ik dit vraag is omdat de kaart op een Asus E35M1-M (brazos platform) komt te zitten en de cpu power daar misschien niet toereikend is i.c.m. 1080P playback (alhoewel dit via hardware accelleration middels de HD6310 geen probleem zou mogen zijn)
Ik had in dit topic ookal gezocht op de RocketRAID 2680 maar niet echt een antwoord gevonden.
Er komt trouwens 8x een Samsung EcoGreen F4EG HD204UI, 2TB aan te hangen in raid5.
•Geocaching•Security, Media & OSINT Junkie•Opinions are my own and not those of my employer.
1GB:
1
2
3
4
| vincent@Shiffle:~$ sudo dd if=/dev/zero of=/opslag/raid0/test.bin bs=1M count=1000 1000+0 records in 1000+0 records out 1048576000 bytes (1.0 GB) copied, 7.04511 s, 149 MB/s |
1
2
3
4
| vincent@Shiffle:~$ sudo dd if=/opslag/raid0/test.bin of=/dev/null bs=1M 1000+0 records in 1000+0 records out 1048576000 bytes (1.0 GB) copied, 0.477018 s, 2.2 GB/s |
10GB
1
2
3
4
| vincent@Shiffle:~$ sudo dd if=/dev/zero of=/opslag/raid0/test.bin bs=1M count=10000 10000+0 records in 10000+0 records out 10485760000 bytes (10 GB) copied, 124.504 s, 84.2 MB/s |
1
2
3
| vincent@Shiffle:~$ sudo dd if=/opslag/raid0/test.bin of=/dev/null bs=1M 10000+0 records in 10000+0 records out 10485760000 bytes (10 GB) copied, 144.28 s, 72.7 MB/s |
Apart, misschien nog maar eens een andere blocksize kiezen ofz.. Er draaien vms op
MDADM Detail:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
| /dev/md0:
Version : 00.90
Creation Time : Sun Jul 10 00:35:16 2011
Raid Level : raid5
Array Size : 1953524992 (1863.03 GiB 2000.41 GB)
Used Dev Size : 976762496 (931.51 GiB 1000.20 GB)
Raid Devices : 3
Total Devices : 3
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Mon Jul 11 01:10:10 2011
State : active
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
UUID : e8ca7701:719f90ee:5ef43fce:a572e828 (local to host Shiffle)
Events : 0.19
Number Major Minor RaidDevice State
0 8 0 0 active sync /dev/sda
1 8 32 1 active sync /dev/sdc
2 8 48 2 active sync /dev/sdd |
Van mijn 8*2TB nog geen scores, is nog steeds aan het expanden.. Ik heb er vandaag ook heel wat I/O opgedaan dus dat bevorderd het niet echt, maar ik heb alle downloads en ftp connecties weer even gepauzeerd zodat die zijn gang even kan gaan
Verwijderd
Dit geldt evengoed voor XFS met software-RAID. Maar als daarbij de metadata beschadigd is dan kun je nog met disk check de schade repareren; je verliest dan wel wat files en/of hele directories maar niet alles. Bij ZFS geldt dat als je metadata corrupt raakt je de hele pool kwijt bent, en geen recovery tools tot je beschikking hebt.whocarez schreef op zondag 10 juli 2011 @ 19:49:
Neem aan dat dit voor xfs ook geld met een software matige raid. Boot nu me esx/nas server eerst naar een custom debian setup met smartmontools. Daar run ik een script om tler aan te zetten op alle schijven en dan reboten naar esxi toe. Erg omslachtig allemaal maar nog nooit een rotte array gehad door bad sectors
De integriteit van de disks uit handen nemen van ZFS is dus heel erg gevaarlijk en moet je gewoon niet doen. ZFS is ontworpen om zelf direct controle over de disks te hebben; als je dan toch een controller gebruikt die liegt tegen ZFS dan moet kun je tig parity en ditto copies hebben maar keihard een corrupte pool hebben en alles op je pool permanent kwijt raken.
You have been warned.
De 2600 series hebben een Marvell 88SE6485 dus dit valt onder 'FakeRAID'; softwarematig driverRAID met een hardwarecomponent om bootstrapping mogelijk te maken (mits je BIOS interrupt 19 capture ondersteunt).The-Priest-NL schreef op zondag 10 juli 2011 @ 23:50:
Ik ben bezig met het samenstellen van een HTPC/NAS en nu zit ik als raidcontroller te denken aan de RocketRAID 2680 echter is dit nou een echte hardwarematige raidkaart of belast deze ook nog de CPU?
Damn was er al "bang" voor, probleem is dat het ook nog eens in een x16@x4 PCI-e slot moet kunnen, andere kaarten die ik zo gauw kan vinden zijn allemaal x8.Verwijderd schreef op maandag 11 juli 2011 @ 01:43:
De 2600 series hebben een Marvell 88SE6485 dus dit valt onder 'FakeRAID'; softwarematig driverRAID met een hardwarecomponent om bootstrapping mogelijk te maken (mits je BIOS interrupt 19 capture ondersteunt).
Welke kaart zouden jullie eventueel aanraden?
Eisen zijn:
8 Sata disks aan kunnen sluiten.
PCI-e x4
Echte raidkaart en geen "Fakeraid" zoals de eerder door mij gekozen RR2680.
•Geocaching•Security, Media & OSINT Junkie•Opinions are my own and not those of my employer.
Verwijderd
Als je toch RAID5 onder Windows wilt met een BBWC controller moet je diep in de buidel tasten:
- dure XOR controller
- Battery Backup Unit (BBU)
- TLER/CCTL/ERC enabled schijven
x8 kaarten kun je ook in je x4 slot gebruiken; mits het fysiek past. Je kunt hiervoor een riser gebruiken als je moederbord geen ruimte over heeft voor de extra pinnetjes.
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Alle disks zijn getest met de ESTool van Samsung, 24 uur testen maar..........
geen fouten gevonden.. heel bijzonder?!
Even niets...
Mijn mening ... je bent niet de enige die hier mee rondspooktdutch_warrior schreef op zondag 10 juli 2011 @ 20:05:
Ik ben al een tijdje bezig met het ontwerpen van een case voor een storage server.
Op dit moment heb ik een 5u rackmount backblaze storage pod achtig ontwerp gemaakt, het frame is erg diep maar zal makkelijk in mijn 19" rack passen.
Ik ben wel benieuwd naar jullie mening, voornamelijk over de koeling van de disken heb ik zelf nog wat twijfels.
2 dingetjes , als je een schijf wil vervangen terwijl je server aanstaat vergeet dan niet een kabel arm mee te ontwerpen in de diepte de je beschikbaar hebt in je rack. Deze kun je bijvoorbeeld mooi verdiept kwijt boven de pci-e kaarten al belemmer je dan wel enigszins onderstaand voorgestelde luchtstroom.
Over de koeling, je schijven hebben wel een luchtstroom maar deze kan daarna nergens heen behalve door de voeding.
Je moet eigenlijk net zo'n groot gat als je fan's hebt aan de achterkan maken .... wat dus niet kan ... maar je kunt wel de gehele achterkant van roosters/gaatjes voorzien inclusief de niet gebruikte slotplaten van de pci-e kaarten.
Voor je cpu zou ik niet direct een toren nemen, maar in een optimale wereld een koeler met heatpipes waarbij de eigenlijke radiator geplaatst wordt op het stuk boven de atx afdekplaat. Nu is dit een utopie waarschijnlijk, dus next best thing is een tower met aan de achterkant een luchtgeleider naar de achterkant van de behuizing. Eventueel kun je dan nog een cpu fan plaatsen maar als je het goed ontwerpt is dat niet nodig.
Bij dit idee moet je rekening houden dat je de warmteverdeling in het rack niet verstoort, koude lucht aanzuigen aan de voorkant warme lucht dumpen aan de achterkant.Momenteel overweeg ik nog om een custom cube te bouwen welke ik gewoon onderin een 19" rack kan zetten, dat geeft namelijk wel iets meer mogelijkheden qua koeling en plaatsing van de hardware.
p.s. vergeet niet te spieken bij die ene sun server ....thumper heet dat ding geloof ik. linkje
[ Voor 3% gewijzigd door Mafketel op 11-07-2011 09:34 . Reden: thumper spiek briefje toegevoegt ]
één voor één getest (kan ook niet anders), met exact dezelfde kabels als hoe het zat toen de problemen werden veroorzaakt. Zelfde moederbord, zelfde stroom, zelfde satakabel...FireDrunk schreef op maandag 11 juli 2011 @ 09:29:
Disken tegelijkertijd of afzonderlijk getest? Zelfde kabels? Andere stroomconnectoren?
Ik zal nog even kijken wat die optie -F samsung of -F samsung2 aangeeft bij smart daar heb ik nog niet naar gekeken. Ik blijf het zo vreemd vinden, eerst krijg ik massa's I/O errors, de array gaat kapot na het gebruik van de diagnostische tools van Samsung en nu ga ik de disks één voor één scannen en wordt er geen enkele fout gevonden. Beetje eng om nu gewoon lachend weer opnieuw op te bouwen en na 2 maanden weer 5 tb kwijt te zijn
Dit is helemaal vreemd, uit de man van smartctl:
1
2
| samsung2 In more recent Samsung disks (firmware revisions ending in "-23") the number of ATA errors reported is byte swapped. Enabling this option tells smartctl to evaluate this quantity in byte-reversed order. An indication that your Samsung disk needs this option is that the self-test log is printed correctly, but there are a very large number of errors in the SMART error log. This is because the error count is byte swapped. Thus a disk with five errors (0x0005) will appear to have 20480 errors (0x5000). |
Je zou dus samsung2 moeten gebruiken als schakeloptie als je grote hoeveelheden fouten ziet zonder het gebruik van de schakeloptie. Nou, dat heb ik geweten.. Na de schakeloptie samsung of samsung 2 heb ik 4000+ ata errors te zien gekregen! Iemand die me kan vertellen of dat nou echt normaal is, of dat ik hiermee recht heb op 4 nieuwe disks?
[ Voor 36% gewijzigd door Staatslot op 11-07-2011 09:42 ]
Even niets...
Bij Western Digital hebben ze dat in mijn geval wel geaccepteerd dus allicht het proberen waard. Ondanks de goede service van WD toch overgegaan op Samsungs omdat ik uiteindelijk 6 kapotte schijven had.FireDrunk schreef op maandag 11 juli 2011 @ 10:15:
Je hebt alleen 'recht' op nieuwe schijven als de tool van Samsung dat aangeeft, smartctl is nooit een optie voor samsung volgens mij...
Sinds de 2 dagen regel reageer ik hier niet meer
Even niets...
Niet 6 schijven tegelijk, maar de vervangende schijven hielden er ook telkens mee op tot in totaal 6. Ze werkten simpelweg niet naar behoren in Linux/Solaris (veel bad blocks).FireDrunk schreef op maandag 11 juli 2011 @ 10:35:
6 kapotte schijven? Ik heb in mijn leven nog nooit zoveel kapotte schijven gehad... Slechte voeding?
Sinds de 2 dagen regel reageer ik hier niet meer
Bad blocks trekken zich niks aan van het OS. Als dat wel zo is dan speelt er een ander probleem.CurlyMo schreef op maandag 11 juli 2011 @ 10:41:
[...]
Niet 6 schijven tegelijk, maar de vervangende schijven hielden er ook telkens mee op tot in totaal 6. Ze werkten simpelweg niet naar behoren in Linux/Solaris (veel bad blocks).
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Zijn er meer mensen met ditzelfde probleem? Wat is de oplossing? Die enterprise schijf van WD kopen? Wellicht ander merk?
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Even niets...
In precies hetzelfde systeem heb ik een hele hoop geouwehoer gehad met WD20EARS maar met de Samsungs HD204UI waren de problemen voorbij. Waar het precies aan ligt zou ik niet weten, het resultaat is immers wat telt.FireDrunk schreef op maandag 11 juli 2011 @ 13:35:
Dat is ook allemaal theorie, alle problemen is een groot begrip, want rotte kabels, een rotte voeding, rotte controller kan allemaal meespelen.
Sinds de 2 dagen regel reageer ik hier niet meer
Die oude zou je inderdaad nog moeten kunnen fixen. Vanaf de EARS of misschien de EADS niet meer.lennartb schreef op maandag 11 juli 2011 @ 13:07:
Ik kom op verschillende sites tegen dat je voor de oudere WD's nog met een tooltje (wdtler) TLER aan kan zetten. ik ga het eens proberen. Voor wat ik lees moeten dan alle problemen opgelost zijn (onder windows).
[ Voor 5% gewijzigd door HarmoniousVibe op 11-07-2011 16:24 ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Verwijderd
Ja dat gevoel krijg ik ook maar of ze daarmee hunzelf niet in de vingers snijden ?...Verwijderd schreef op maandag 11 juli 2011 @ 16:32:
EARS kan geen TLER meer. EADS kan dat tot aan November 2010; daarna niet meer. Politieke/business beslissing van WD om mensen voor hun duurdere RAID edition firmware te laten betalen. Er moeten centen in het laatje komen en met die RAID edition schijven wordt er tenminste nog wat verdiend.
mischien voor bedrijven geen probleem maar voor de partikulier wel , zo RE schijf is obnormaal veel duurder
ik denk niet dat er velen onder ons zijn die dat er voor over hebvben ?
t is verre van redelijk.
Ik ga binnekort over op de Samsungs F4 en zien wat die ervan bakken
er staat me iets bij dat quindor op storage review ook in zijn zo'n zelfde situatie heeft gezeten met samsung disken. Zou even googlen op storage review en dan cctl/tler. Hier staat een hoop info.Staatslot schreef op maandag 11 juli 2011 @ 09:27:
Nou nog even een status update van deze kant..
Alle disks zijn getest met de ESTool van Samsung, 24 uur testen maar..........
geen fouten gevonden.. heel bijzonder?!
En waar denk je dat ze meer aan verdienen? Grote bedrijven of particulieren?parcifal schreef op maandag 11 juli 2011 @ 19:14:
[...]
Ja dat gevoel krijg ik ook maar of ze daarmee hunzelf niet in de vingers snijden ?...
mischien voor bedrijven geen probleem maar voor de partikulier wel , zo RE schijf is obnormaal veel duurder
ik denk niet dat er velen onder ons zijn die dat er voor over hebvben ?
t is verre van redelijk.
Ik ga binnekort over op de Samsungs F4 en zien wat die ervan bakken
De WD RE edities worden heel erg veel gebruikt in Promise arrays... Ook willen ze nog wel eens de wat sata SAN/NAS storage systemen verschijnen... Daar brengen ze veel meer op, en word er grof geld voor betaald.
Even niets...
Samsungtool: geen problemen
In Ubuntu opnieuw de array opgebouwd: geen problemen
Filesystem aangemaakt op array, check for badblocks maar aangezet en ja hoor daar gaan we weer:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
| Jul 11 20:04:55 storage kernel: [37919.565651] __ratelimit: 366191 callbacks suppressed Jul 11 20:04:55 storage kernel: [37919.565654] Buffer I/O error on device md0, logical block 138987007 Jul 11 20:04:55 storage kernel: [37919.570117] Buffer I/O error on device md0, logical block 138987009 Jul 11 20:04:55 storage kernel: [37919.574527] Buffer I/O error on device md0, logical block 138987010 Jul 11 20:04:55 storage kernel: [37919.579749] Buffer I/O error on device md0, logical block 138987011 Jul 11 20:04:55 storage kernel: [37919.584879] Buffer I/O error on device md0, logical block 138987012 Jul 11 20:04:55 storage kernel: [37919.590236] Buffer I/O error on device md0, logical block 138987013 Jul 11 20:04:55 storage kernel: [37919.595454] Buffer I/O error on device md0, logical block 138987014 Jul 11 20:04:55 storage kernel: [37919.600738] Buffer I/O error on device md0, logical block 138987015 Jul 11 20:04:55 storage kernel: [37919.605135] Buffer I/O error on device md0, logical block 138987017 Jul 11 20:04:55 storage kernel: [37919.610374] Buffer I/O error on device md0, logical block 138987018 Jul 11 20:05:00 storage kernel: [37924.564500] __ratelimit: 337559 callbacks suppressed Jul 11 20:05:00 storage kernel: [37924.564503] Buffer I/O error on device md0, logical block 139372801 Jul 11 20:05:00 storage kernel: [37924.568923] Buffer I/O error on device md0, logical block 139372802 Jul 11 20:05:00 storage kernel: [37924.573271] Buffer I/O error on device md0, logical block 139372803 Jul 11 20:05:00 storage kernel: [37924.578397] Buffer I/O error on device md0, logical block 139372804 Jul 11 20:05:00 storage kernel: [37924.583155] Buffer I/O error on device md0, logical block 139372805 Jul 11 20:05:00 storage kernel: [37924.588133] Buffer I/O error on device md0, logical block 139372806 Jul 11 20:05:00 storage kernel: [37924.592513] Buffer I/O error on device md0, logical block 139372807 Jul 11 20:05:00 storage kernel: [37924.597402] Buffer I/O error on device md0, logical block 139372809 Jul 11 20:05:00 storage kernel: [37924.601748] Buffer I/O error on device md0, logical block 139372810 Jul 11 20:05:00 storage kernel: [37924.607034] Buffer I/O error on device md0, logical block 139372811 Jul 11 20:05:05 storage kernel: [37929.563347] __ratelimit: 333288 callbacks suppressed Jul 11 20:05:05 storage kernel: [37929.563351] Buffer I/O error on device md0, logical block 139753706 |
Zo gaat het nog een regel of 80 door..
Morgen maar eens bellen met Azerty, maar als ze de Samsung ESTool hanteren kan ik natuurlijk fluiten naar mijn garantie.. Doe ik iets fout, of heeft iemand nog een doorslaggevende heldere ingeving?
Word er echt sacherijnig van, ik zie zoveel problemen en zoveel onduidelijkheden en vooral inconsistentie dat ik het even niet meer weet. Die SMART waarden worden door iedereen anders geïnterpreteerd en met het veranderen van schakelopties wordt het aantal fouten echt ongeloofwaardig hoog.. HELP!
Volgens mij is alles weer koek en ei als je gewoon een badblocks test doet op /dev/sdX (fysieke devices).
[ Voor 22% gewijzigd door HarmoniousVibe op 11-07-2011 20:31 ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Zo koek en ei is het helaas niet, webmin meldt:HarmoniousVibe schreef op maandag 11 juli 2011 @ 20:30:
Kun je wel bad blocks hebben op een virtual/logisch device als md0?Het lijkt me heel erg sterk dat je minimaal 666666 bad sectors hebt.
Volgens mij is alles weer koek en ei als je gewoon een badblocks test doet op /dev/sdX (fysieke devices).
RAID errors 4 disks have failed
RAID status clean, degraded
Partitions in RAID
SATA device B (Down)
SATA device C (Down)
SATA device D (Down)
SATA device E (Down)
Kortom, er zit echt iets niet goed maar wat het is.......?
Jup, ook gedaan. Zowel de F4EG patch die het firmware nummer niet veranderde als de /JP patch die het firmwarenummer van de disks wel met 2 ophoogde..Nielson schreef op maandag 11 juli 2011 @ 20:41:
Je hebt toch wel die firmware patch uitgevoerd voor je F4 EcoGreen schijven? Aangezien je juist fouten lijkt te krijgen als je de status van de schijven checked met smartctl.
Het gaat om het onderstaande systeem:
| # | Product | Prijs | Subtotaal |
| 1 | ICIDU Mini Drive 4GB | € 9,99 | € 9,99 |
| 1 | Intel Gigabit CT Desktop Adapter | € 23,15 | € 23,15 |
| 1 | TP-Link TL-SG1005D | € 15,- | € 15,- |
| 4 | Samsung EcoGreen F4EG HD204UI, 2TB | € 59,99 | € 239,96 |
| 1 | Sharkoon Rebel9 Aluminium | € 47,70 | € 47,70 |
| 1 | Fractal Design Silent Series , 120mm | € 9,40 | € 9,40 |
| 1 | Intel Core i3 540 | € 82,80 | € 82,80 |
| 1 | Cooler Master 4-in-3 Device Module | € 16,- | € 16,- |
| 1 | Kingston SSDNow V+100 SVP100S2/96G (stand-alone drive) 96GB | € 114,99 | € 114,99 |
| 4 | Kingston ValueRAM KVR1333D3N9K2/4G | € 22,99 | € 91,96 |
| 1 | MSI H55M-ED55 | € 71,90 | € 71,90 |
| Bekijk collectie Importeer producten | Totaal | € 722,85 | |
Ik wil dus ESXi booten vanaf de USB stick. En dan Ubuntu Server als een VM draaien vanaf de Kingston. Ik wil een Raid 5 set met mdadm gaan draaien en daarop een XFS filesystem. Dit heeft prio 1, zodat ik hierop mijn films, series en foto's kwijt kan. Ik ga ook Sickbeard/Couchpotato/Sab draaien hierop.
Later komen er meer VM's, waaronder 1 Windows 2008 R2, en Windows 7.
Mijn eerste vraag is : "Wat is een handige plan van aanpak?"
Tweede vraag is of ik wat moet doen aan de Samsungs, moet ik daar meteen een andere firmware opzetten?
Verder vroeg ik me af wat handige instellingen zijn voor de raidset, en XFS filesysteem.
Ik weet dat het lijkt alsof ik niks heb uitgezocht, maar het is nu zo dat ik niet veel tijd heb om te experimenteren. Dus directe instructies zijn nu ff welkom.
Dè developers podcast in je moerstaal : CodeKlets Podcast
Stond netjes bij dat het geen kwaad kon, de firmware herkent zelf de disks de gepatcht kunnen worden.Nielson schreef op maandag 11 juli 2011 @ 20:46:
Je hebt de /JP firmware op de normale geflashed? Is dat wel zo handig?
Bovendien verhoogde de eerste patch het firmwarenummer niet en kon deze een oneindig aantal keren worden uitgevoerd, terwijl de /JP versie na één keer draaien netjes meldde dat de disks waren geflasht en bovendien de firmwareversies zijn verhoogd. Een tweede keer draaien gaf ook netjes aan dat er niets te patchen was, dus ik heb er wel vertrouwen in dat dat goed is gegaan eigenlijk..
Eigenlijk simple toch eerst esxi installeren en patchen naar laatste niveau. Vmfs volume aanmaken op de kingston en daar een ubuntu server aan hangen (neem aan dat je niet middels nfs wil werken? anders word het eerst een machine opzetten met nfs voor de datastore. beide hebben hun voordelen en nadelen. afhankelijk van het gebruik.OMX2000 schreef op maandag 11 juli 2011 @ 20:47:
Morgen komt eindelijk de boel binnen. Ben alleen bang dat ik weinig tijd zal hebben om de boel op te tuigen. Dus ik heb jullie hulp een beetje nodig.Ik heb me behoorlijk ingelezen afgelopen weken, maar ik zit
Het gaat om het onderstaande systeem:
# Product Prijs Subtotaal 1 ICIDU Mini Drive 4GB € 9,99 € 9,99 1 Intel Gigabit CT Desktop Adapter € 23,15 € 23,15 1 TP-Link TL-SG1005D € 15,- € 15,- 4 Samsung EcoGreen F4EG HD204UI, 2TB € 59,99 € 239,96 1 Sharkoon Rebel9 Aluminium € 47,70 € 47,70 1 Fractal Design Silent Series , 120mm € 9,40 € 9,40 1 Intel Core i3 540 € 82,80 € 82,80 1 Cooler Master 4-in-3 Device Module € 16,- € 16,- 1 Kingston SSDNow V+100 SVP100S2/96G (stand-alone drive) 96GB € 114,99 € 114,99 4 Kingston ValueRAM KVR1333D3N9K2/4G € 22,99 € 91,96 1 MSI H55M-ED55 € 71,90 € 71,90 Bekijk collectie
Importeer productenTotaal € 722,85
Ik wil dus ESXi booten vanaf de USB stick. En dan Ubuntu Server als een VM draaien vanaf de Kingston. Ik wil een Raid 5 set met mdadm gaan draaien en daarop een XFS filesystem. Dit heeft prio 1, zodat ik hierop mijn films, series en foto's kwijt kan. Ik ga ook Sickbeard/Couchpotato/Sab draaien hierop.
Later komen er meer VM's, waaronder 1 Windows 2008 R2, en Windows 7.
Mijn eerste vraag is : "Wat is een handige plan van aanpak?"
Tweede vraag is of ik wat moet doen aan de Samsungs, moet ik daar meteen een andere firmware opzetten?
Verder vroeg ik me af wat handige instellingen zijn voor de raidset, en XFS filesysteem.
Ik weet dat het lijkt alsof ik niks heb uitgezocht, maar het is nu zo dat ik niet veel tijd heb om te experimenteren. Dus directe instructies zijn nu ff welkom.
en dan je ubuntu machientje opbouwen
Bovendien heb je dan (volgens mij) TRIM (mits je dit in je VM aan zet) wat de levensduur van je SSD bevorderd. Of het ook echt werkt weet ik niet precies, want ik weet niet of ESX(i) met RDM het TRIM commando doorlaat. Maar ik denk het wel
Over die samsungs, altijd patchen, je weet nooit zeker of ze goed zijn... Gewoon doen, dan weet je op voorhand al dat het daar niet aan kan liggen
[Tenzij je die test VM's perse ook op die SSD wil hebben, dan zul je wel naar VMFS moeten inderdaad
[ Voor 8% gewijzigd door FireDrunk op 11-07-2011 21:57 ]
Even niets...
Ik neem aan dat ik een partitie op de SSD maak voor Ubuntu, en later ook voor Windows 2008?FireDrunk schreef op maandag 11 juli 2011 @ 21:56:
Ik zou geen VMFS gebruiken, maar de disk direct aan de Ubuntu VM geven en daarin formatteren... Mocht je dan ooit besluiten om even geen ESX te willen gebruiken, boot je gewoon van die installatie, dat werkt prima.
Bovendien heb je dan (volgens mij) TRIM (mits je dit in je VM aan zet) wat de levensduur van je SSD bevorderd. Of het ook echt werkt weet ik niet precies, want ik weet niet of ESX(i) met RDM het TRIM commando doorlaat. Maar ik denk het wel
Over die samsungs, altijd patchen, je weet nooit zeker of ze goed zijn... Gewoon doen, dan weet je op voorhand al dat het daar niet aan kan liggen
[Tenzij je die test VM's perse ook op die SSD wil hebben, dan zul je wel naar VMFS moeten inderdaad]
Dè developers podcast in je moerstaal : CodeKlets Podcast
Even niets...
Of middels nfs aanbieden vanuit een vm (thin provisioning by default erg handig voor die kleine ssd). Trim werkt niet vanuit esxi maar mogelijk wel vanuit de vm. je moet de disk dan wel middels vt-d of amd-vi aan de machine publiceren. De kingston heeft als het goed is een goede garbage collection. Waarschijnlijk lood om oud ijzer dus.FireDrunk schreef op maandag 11 juli 2011 @ 22:08:
Nee als je ze beide op die SSD wil hebben, moet je VMFS gebruiken
Even niets...
maar staat niet default aan. Het is dus iets waar je zelf voor moet kiezen.
http://vmetc.com/2009/05/...e-virtual-infrastructure/ enkele voordelen
Dat linkje gaat over ESX 3.5...
Even niets...
Klopt je kan kiezen of je het wil bij bepaalde nfs setups kan het zo zijn dan het default is zoals bij netapp.FireDrunk schreef op maandag 11 juli 2011 @ 22:45:
* FireDrunk heeft ESXi 4.1, en daar kan je het gewoon kiezen bij het aanmaken van een VM (net zoals bij NFS)
Dat linkje gaat over ESX 3.5...
Heb je een quick check of een full check gedaan. Toen ik 8x F3EG kocht bleken er uiteindelijk 3! niet in orde te zijn. Quick vond alles prima, maar na een full check kwamen deze aan het licht. Ook mijn toenmalige RAID controller (Adaptec 5805) kon errors vinden met een full surface scan.Staatslot schreef op maandag 11 juli 2011 @ 20:11:
De wanhoop komt nu toch wel om de hoek kijken hoor...
Samsungtool: geen problemen
In Ubuntu opnieuw de array opgebouwd: geen problemen
Filesystem aangemaakt op array, check for badblocks maar aangezet en ja hoor daar gaan we weer:
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 Jul 11 20:04:55 storage kernel: [37919.565651] __ratelimit: 366191 callbacks suppressed Jul 11 20:04:55 storage kernel: [37919.565654] Buffer I/O error on device md0, logical block 138987007 Jul 11 20:04:55 storage kernel: [37919.570117] Buffer I/O error on device md0, logical block 138987009 Jul 11 20:04:55 storage kernel: [37919.574527] Buffer I/O error on device md0, logical block 138987010 Jul 11 20:04:55 storage kernel: [37919.579749] Buffer I/O error on device md0, logical block 138987011 Jul 11 20:04:55 storage kernel: [37919.584879] Buffer I/O error on device md0, logical block 138987012 Jul 11 20:04:55 storage kernel: [37919.590236] Buffer I/O error on device md0, logical block 138987013 Jul 11 20:04:55 storage kernel: [37919.595454] Buffer I/O error on device md0, logical block 138987014 Jul 11 20:04:55 storage kernel: [37919.600738] Buffer I/O error on device md0, logical block 138987015 Jul 11 20:04:55 storage kernel: [37919.605135] Buffer I/O error on device md0, logical block 138987017 Jul 11 20:04:55 storage kernel: [37919.610374] Buffer I/O error on device md0, logical block 138987018 Jul 11 20:05:00 storage kernel: [37924.564500] __ratelimit: 337559 callbacks suppressed Jul 11 20:05:00 storage kernel: [37924.564503] Buffer I/O error on device md0, logical block 139372801 Jul 11 20:05:00 storage kernel: [37924.568923] Buffer I/O error on device md0, logical block 139372802 Jul 11 20:05:00 storage kernel: [37924.573271] Buffer I/O error on device md0, logical block 139372803 Jul 11 20:05:00 storage kernel: [37924.578397] Buffer I/O error on device md0, logical block 139372804 Jul 11 20:05:00 storage kernel: [37924.583155] Buffer I/O error on device md0, logical block 139372805 Jul 11 20:05:00 storage kernel: [37924.588133] Buffer I/O error on device md0, logical block 139372806 Jul 11 20:05:00 storage kernel: [37924.592513] Buffer I/O error on device md0, logical block 139372807 Jul 11 20:05:00 storage kernel: [37924.597402] Buffer I/O error on device md0, logical block 139372809 Jul 11 20:05:00 storage kernel: [37924.601748] Buffer I/O error on device md0, logical block 139372810 Jul 11 20:05:00 storage kernel: [37924.607034] Buffer I/O error on device md0, logical block 139372811 Jul 11 20:05:05 storage kernel: [37929.563347] __ratelimit: 333288 callbacks suppressed Jul 11 20:05:05 storage kernel: [37929.563351] Buffer I/O error on device md0, logical block 139753706
Zo gaat het nog een regel of 80 door..![]()
Morgen maar eens bellen met Azerty, maar als ze de Samsung ESTool hanteren kan ik natuurlijk fluiten naar mijn garantie.. Doe ik iets fout, of heeft iemand nog een doorslaggevende heldere ingeving?
Word er echt sacherijnig van, ik zie zoveel problemen en zoveel onduidelijkheden en vooral inconsistentie dat ik het even niet meer weet. Die SMART waarden worden door iedereen anders geïnterpreteerd en met het veranderen van schakelopties wordt het aantal fouten echt ongeloofwaardig hoog.. HELP!
Kost je eventjes wat tijd (~8 uur per disk) maar dan weet je vervolgens wel zeker dat het in orde is!
Fullscan gedaan ongeveer 6 uur per disk, maar de tool meldt helaas geen fouten..Quindor schreef op dinsdag 12 juli 2011 @ 07:13:
[...]
Heb je een quick check of een full check gedaan. Toen ik 8x F3EG kocht bleken er uiteindelijk 3! niet in orde te zijn. Quick vond alles prima, maar na een full check kwamen deze aan het licht. Ook mijn toenmalige RAID controller (Adaptec 5805) kon errors vinden met een full surface scan.
Kost je eventjes wat tijd (~8 uur per disk) maar dan weet je vervolgens wel zeker dat het in orde is!
Rma mail naar Azerty verstuurd, heel uitgebreid met alle foutmeldingen screenshots etc.
Vertrouw die ESTool ook niet echt eerlijk gezegd.
Het is toch een beetje een slager die zijn eigen vlees keurt (wij van wc-eend adviseren.....)
Bovendien vind ik nergens in die tool een onderbouwing van wat er is onderzocht..
Yup, gisteravond even met de WDtler tool de disks aangepast. Beide standaard op 7sec. Nu weer afwachten.HarmoniousVibe schreef op maandag 11 juli 2011 @ 16:24:
[...]
Die oude zou je inderdaad nog moeten kunnen fixen. Vanaf de EARS of misschien de EADS niet meer.
Complimenten voor de service van Azerty!
Is de WD Caviar Green WD20EARS (2TB) dan een goed alternatief, want ik vertrouw Samsung na zoveel blunders (firmware fout, onduidelijke firmware update, geen versienummer aanpassen na firmware update, slechte diagnostische tool) niet meer.
[ Voor 5% gewijzigd door Staatslot op 12-07-2011 10:37 ]
Tsja, YMMV. Je hebt er weinig aan als een paar mensen nu gaan roepen dat merk X wel of geen betrouwbare schijven zijn. Er zijn hordes mensen die enorm blij zijn met hun F4, maar jij hebt blijkbaar een slechte batch te pakken gehad. Zelf heb ik 10 WD20EARS disks besteld (in batches van 4, 3 en 3) en daarvan was er ééntje DOA, maar zoals ik al zei zegt dit vrij weinig.Staatslot schreef op dinsdag 12 juli 2011 @ 10:31:
Inmiddels bericht gehad van Azerty dat ik de disks kan terugsturen en ruilen voor 4 andere disks naar keuze.
Complimenten voor de service van Azerty!
Is de WD Caviar Green WD20EARS (2TB) dan een goed alternatief, want ik vertrouw Samsung na zoveel blunders (firmware fout, onduidelijke firmware update, geen versienummer aanpassen na firmware update, slechte diagnostische tool) niet meer.
Het enige objectieve wat er over de WD's te zeggen is, is dat ze absoluut niet geschikt zijn voor hardware RAID. Je kunt ze eigenlijk alleen gebruiken icm een echte HBA (mobo SATA-controller of een LSI-achtige in IT-modus bijvoorbeeld).
En dat er niet echt firmware-issues zijn geweest, voor zover ik weet. Dat geldt overigens ook voor de andere merken (muv van Samsung dus).
[ Voor 5% gewijzigd door HarmoniousVibe op 12-07-2011 11:12 . Reden: typo ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Die WD's zijn ook prima schijven
Echt slechte schijven bestaan tegenwoordig haast niet meer...
Even niets...
Verwijderd
AZERTY is top .. mee eensStaatslot schreef op dinsdag 12 juli 2011 @ 10:31:
Inmiddels bericht gehad van Azerty dat ik de disks kan terugsturen en ruilen voor 4 andere disks naar keuze.
Complimenten voor de service van Azerty!
Toch zou ik samsung (her)overwegen .. topschijven
als kleine nuancering;HarmoniousVibe schreef op dinsdag 12 juli 2011 @ 11:07:
[...]
Tsja, YMMV. Je hebt er weinig aan als een paar mensen nu gaan roepen dat merk X wel of geen betrouwbare schijven zijn. Er zijn hordes mensen die enorm blij zijn met hun F4, maar jij hebt blijkbaar een slechte batch te pakken gehad. Zelf heb ik 10 WD20EARS disks besteld (in batches van 4, 3 en 3) en daarvan was er ééntje DOA, maar zoals ik al zei zegt dit vrij weinig.
Het enige objectieve wat er over de WD's te zeggen is, is dat ze absoluut niet geschikt zijn voor hardware RAID. Je kunt ze eigenlijk alleen gebruiken icm een echte HBA (mobo SATA-controller of een LSI-achtige in IT-modus bijvoorbeeld).
En dat er niet echt firmware-issues zijn geweest, voor zover ik weet. Dat geldt overigens ook voor de andere merken (muv van Samsung dus).
de EARS e.d. zijn idd niet geschikt voor hardware RAID.. de RE versies van WD zijn juist bijzonder goed geschikt.. draai er nu 24 stuks van in een raid 6, en draai verder al jarenlang op RE schijven (vanaf RE2, iedere 2 jaar nieuwe schijven) en nooit issues gehad..
60 TB can not be enough
Editje: Mijn IBM M1015 is intussen toegekomen. K heb er wel nog geen SAS->SATA forward breakout kabel voor dus een schijf eraan hangen kan nog niet. Ik ga ze vandaag wel al flashen naar LSI IT mode.
[ Voor 30% gewijzigd door Jormungandr op 12-07-2011 11:51 ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
NAS HARDWARE:
DE SOFTWARE:
FreeNAS 8.0 met 16 disken in ZFS RAIDZ2 en AFP shares. Een prima oplossing die mijn FreeBSD 8.2 installatie heeft vervangen.
HET DIY 19" RACK:
Twee weken bezig geweest met zelf een portable 19" rack te bouwen. Naast de 3U hoge NAS is er plaats voor 1U hoge rackmount LCD en 2U hoge APC Smart UPS 3000. Zowel de rackmount LCD (~60 Euro) als de UPS (50 Euro) heb ik via eBay / Marktplaats gekocht. Heb nog 3U vrij in het rack, maar wil de ruimte boven en onder de NAS niet vullen ivm de warmte. Verwacht nog een Gbit switch in het rack erbij te plaatsen, maar moet eerst de kabels in mijn huis opnieuw gaan leggen.
*Een DIY project is natuurlijk nooit helemaal af, want er zijn altijd wel een paar additionele tweaks uit te voeren.
... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...
Waar(voor) wordt 'ie gebruikt?
Helaas niet meer zo'n bevlogen Tweaker als voorheen...
't Is een prachtig ding, maar je verplaatst 'm ook echt regelmatig? Past denk wel goed bij je nicknameTwee weken bezig geweest met zelf een portable 19" rack te bouwen.
Verwijderd
heel deftige case geworden.. kan je evt. nog een fotootje plaatsen met de monitor uit.. zit er dan een toetsenbordje bij ?Nielson schreef op dinsdag 12 juli 2011 @ 13:50:
[...]
't Is een prachtig ding, maar je verplaatst 'm ook echt regelmatig? Past denk wel goed bij je nickname
... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...
@HarmoniousVibe ik heb nooit gezegd dat Samsung onbetrouwbaar is, of dat deze disks per definitie onbetrouwbaar zijn. Ik heb uit twee verschillende (niet één) batches 4 disks gekregen die blijkbaar niet in orde waren. Dat gecombineerd met de naar mijn idee slechte diagnostisch tool van Samsung, de firmware bug en het op meerdere fronten onduidelijke patchen van die slechte firmware heeft mij er in ieder geval toe gebracht voorlopig even geen vertrouwen meer te hebben in het handelen van Samsung aangaande harddisks. Geen koopadvies of wat dan ook voor anderen hoor, ik geloof direct dat de genoemde disk perfect werkt bij heel veel mensen! Ik zet voor nu even in op WD, gewoon even op een ander paard wedden
Intussen heb ik Azerty dan ook doorgegeven dat ik graag 4 nieuwe WD Caviar greens ontvang, met een beetje mazzel worden die morgen verstuurd en zijn ze hier donderdag. Allen bedankt voor alle geboden hulp bij het onderzoeken van alle problemen die ik heb ervaren met de Samsung disks!
Deftig rekkie.Zware Unit schreef op dinsdag 12 juli 2011 @ 14:29:
Hij staat gewoon op zolder, maar hij is verplaatsbaar zodat ik beter bij de achterkant kan. De kast is niet zwaar, maar door de NAS en vooral de UPS weegt hij ~60KG.
[afbeelding]
[ Voor 8% gewijzigd door whocarez op 12-07-2011 16:14 ]
Verwijderd
heel netjesZware Unit schreef op dinsdag 12 juli 2011 @ 14:29:
Hij staat gewoon op zolder, maar hij is verplaatsbaar zodat ik beter bij de achterkant kan. De kast is niet zwaar, maar door de NAS en vooral de UPS weegt hij ~60KG.
[afbeelding]
* gelijk gaat zoeken op e-bay naar zo'n inbouw terminal dingus
Ghehe heb ik zojuist ook gedaan, alleen de mooie nette zijn best prijzig!Verwijderd schreef op dinsdag 12 juli 2011 @ 19:00:
[...]
heel netjes![]()
* gelijk gaat zoeken op e-bay naar zo'n inbouw terminal dingus
Verwijderd
onder de 150,- incl shipping zie ik ze niet .. tja.. zucht ..brndst schreef op dinsdag 12 juli 2011 @ 19:02:
[...]
Ghehe heb ik zojuist ook gedaan, alleen de mooie nette zijn best prijzig!
[ Voor 21% gewijzigd door Verwijderd op 12-07-2011 19:06 ]
Verwijderd
Mag ik ze ook interpreteren?Staatslot schreef op maandag 11 juli 2011 @ 20:11:
Word er echt sacherijnig van, ik zie zoveel problemen en zoveel onduidelijkheden en vooral inconsistentie dat ik het even niet meer weet. Die SMART waarden worden door iedereen anders geïnterpreteerd
Linkje naar je SMART output (raw output) zou fijn zijn.
They call her... c*ck juggeling Thunderc*nt!
Heel mooi systeem, maar lees ik het nou goed dat je 2gb ram hebt en software raid ZFS Z2 draait op die Areca? Ik dacht dat minstens 1gb ram per 1tb nodig is voor een beetje performance met zfs?Zware Unit schreef op dinsdag 12 juli 2011 @ 13:43:
Mijn DIY NAS is eindelijk af *.
NAS HARDWARE:
# Product 1 Areca ARC-1280ML (24x SATA300 RAID, XOR, 256MB, PCI-e x8) 1 Kingston ValueRAM KVR800D2E6/2G
DE SOFTWARE:
FreeNAS 8.0 met 16 disken in ZFS RAIDZ2 en AFP shares. Een prima oplossing die mijn FreeBSD 8.2 installatie heeft vervangen.
Ja, dat lees je goed. Ben vandaag van raid 6 naar ZFS Z2 gegaan. 2GB is ruim voldoende voor raid 6, maar samen met de overstap naar ZFS Z2 heb ik ook nieuw (4 x 2GB ECC) geheugen besteld. Performance is momenteel met 2GB al ruim voldoende, want de Gbit verbinding wordt geheel gevuld door de data.Danfoss schreef op dinsdag 12 juli 2011 @ 21:58:
[...]
Heel mooi systeem, maar lees ik het nou goed dat je 2gb ram hebt en software raid ZFS Z2 draait op die Areca? Ik dacht dat minstens 1gb ram per 1tb nodig is voor een beetje performance met zfs?
... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...
Verwijderd
Niet per TB, maar per schijf. Een hardware RAID volume is een enkele schijf vanuit het perspectief van ZFS; een niet-redundante pool. Daarvoor heb je ook veel minder RAM nodig dan met een normale RAID-Z2 pool bijvoorbeeld. Daarnaast zal de controller zorgen voor read-ahead en write buffering, om alle disks bezig te houden. Verder ga ik ervanuit dat Zware Unit de Areca in write-back modus gebruikt, wat inhoudt dat deze 'liegt' tegen ZFS over geschreven metadata; en flush commando's negeert. Dit kan de hele pool corrumperen als hier iets mis mee gaat; dus is een gevaarlijke setup.Danfoss schreef op dinsdag 12 juli 2011 @ 21:58:
Heel mooi systeem, maar lees ik het nou goed dat je 2gb ram hebt en software raid ZFS Z2 draait op die Areca? Ik dacht dat minstens 1gb ram per 1tb nodig is voor een beetje performance met zfs?
Zolang de BBU van de Areca controller het goed doet en en de controller ook goed omgaat met de write buffer van HDDs, zal dit geen problemen mogen geven. Maar als er wel iets mis gaat dan ben je alles op de pool permanent kwijt. Zonder BBU is zo'n setup enorm onveilig; ook al heb je 300 parity disks.
Ik ben wel benieuwd in benchmarks, met name in het verschil tussen write-back en write-through. Als Zware Unit tijd heeft kan het interessant zijn deze te draaien, bijvoorbeeld met:
dd if=/dev/zero of=/pad/naar/zfs/nulfile.dat bs=1m count=32000
Je moet met 8x alle write-back testen, dus RAM+ RAM op je Areca. 32GB zoals hierboven is een redelijke hoeveelheid voor een stabiele meting. Test je met 10 of 4 gigabyte dan krijg je kuntmatig hoge scores.
De kaart is trouwens gelabelt als 9220 op de achterkant en tijdens het booten krijg ik ook het LSI bootscherm te zien. Tijd om uit te pluizen of het nu gewoon een LSI is of een M1015 in disguise
MSI MS-7181 (K8MM3-V)
AMD Athlon(tm) 64 Processor 3000+ @ 2Ghz
Antec One Hundred case
2x SAMSUNG HD204UI in RAID-0
Ik draai op FreeNAS 0.7.2 Sabanda (revision 6694)
Nou heb ik een externe hardeschijf waar 1TB aan spul opstaat, en als ik dat via mijn laptop naar de NAS stuur (in delen) is het max 11,2 mb/s. Nou zal dat waarschijnlijk liggen aan het feit dat mijn NAS een onboard 100mbit/s kaartje heeft.
Maar wat ik me dus afvraag is hoe kan ik testen waar het minpunt van mijn systeem zit.
Ik heb echt 0 kennis van Linux, wat ik wel wil leren.
Nou ben ik benieuwd hoe jullie, jullie data overzetten naar de NAS.
Staat opzich wel spul op wat ik graag wil behouden, dus durf hem zo niet aan de NAS te hangen, aangezien ik al 1 keer een GOFFSET error (of iets in die trend) heb gehad ermee.
Toen was mijn laptop een nacht spul aan het overpompen naar de NAS, en toen ik wakker werd, had ik dat probleem.
Sorry voor mijn leek taal, maar je moet toch ergens beginnen.
Met 100 mbit zul je niet sneller kunnen.Turk schreef op woensdag 13 juli 2011 @ 11:40:
Bij deze mijn opstelling:
MSI MS-7181 (K8MM3-V)
AMD Athlon(tm) 64 Processor 3000+ @ 2Ghz
Antec One Hundred case
2x SAMSUNG HD204UI in RAID-0
Ik draai op FreeNAS 0.7.2 Sabanda (revision 6694)
Nou heb ik een externe hardeschijf waar 1TB aan spul opstaat, en als ik dat via mijn laptop naar de NAS stuur (in delen) is het max 11,2 mb/s. Nou zal dat waarschijnlijk liggen aan het feit dat mijn NAS een onboard 100mbit/s kaartje heeft.
Om de snelheid van je netwerk te testen kun je iperf gebruikenMaar wat ik me dus afvraag is hoe kan ik testen waar het minpunt van mijn systeem zit.
Ik heb echt 0 kennis van Linux, wat ik wel wil leren.
De snelheid van je raid (local) kun je testen met
dd if=/dev/zero of=/pathtomountedraid/test.bin bs=1M count=4098
Dit schrijft een 4GB testfile op je raidsetje en geeft daarna de schrijfsnelheid weer.
Tsja, dat is natuurlijk ook afhankelijk waar de data vandaan komt. Maar als het twee verschillende machines betreft zit je vast aan Samba (cifs) of NFS.Nou ben ik benieuwd hoe jullie, jullie data overzetten naar de NAS.
In mijn geval heb ik de share van mijn oude NAS gewoon gemount op mijn nieuwe machine (via NFS) en daarna is het gewoon een kwestie van kopieren en geduld hebben
Als je die data belangrijk vindt, snap ik de keuze voor raid0 op je NAS niet helemaal?Staat opzich wel spul op wat ik graag wil behouden, dus durf hem zo niet aan de NAS te hangen, aangezien ik al 1 keer een GOFFSET error (of iets in die trend) heb gehad ermee.
Toen was mijn laptop een nacht spul aan het overpompen naar de NAS, en toen ik wakker werd, had ik dat probleem.
Sorry voor mijn leek taal, maar je moet toch ergens beginnen.
Met raid0 heb je geen enkele vorm van veiligheid, is het niet beter om raid1, raid5 of raid6 te kiezen?
dd if=/dev/zero of=/mnt/storage/nulfile.dat bs=1m count=32000Verwijderd schreef op woensdag 13 juli 2011 @ 00:41:
[...]
Ik ben wel benieuwd in benchmarks, met name in het verschil tussen write-back en write-through. Als Zware Unit tijd heeft kan het interessant zijn deze te draaien, bijvoorbeeld met:
dd if=/dev/zero of=/pad/naar/zfs/nulfile.dat bs=1m count=32000
32000+0 records in
32000+0 records out
33554432000 bytes transferred in 117.852818 secs (284714719 bytes/sec)
271MB per seconden is een prima score. Verwacht over 2 weken van 2GB naar 8GB ECC geheugen te gaan. Zal dan de test nogmaals draaien. Alles boven de 110MB is prima, aangezien de enkele Gbit verbinding toch niet meer kan hebben.
... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...
Ik heb voor raid0 gekozen omdat ik het anders zonde vind van de andere 2 TB.Sleepie schreef op woensdag 13 juli 2011 @ 12:34:
[...]
Met 100 mbit zul je niet sneller kunnen.
[...]
Om de snelheid van je netwerk te testen kun je iperf gebruiken
De snelheid van je raid (local) kun je testen met
dd if=/dev/zero of=/pathtomountedraid/test.bin bs=1M count=4098
Dit schrijft een 4GB testfile op je raidsetje en geeft daarna de schrijfsnelheid weer.
[...]
Tsja, dat is natuurlijk ook afhankelijk waar de data vandaan komt. Maar als het twee verschillende machines betreft zit je vast aan Samba (cifs) of NFS.
In mijn geval heb ik de share van mijn oude NAS gewoon gemount op mijn nieuwe machine (via NFS) en daarna is het gewoon een kwestie van kopieren en geduld hebben
[...]
Als je die data belangrijk vindt, snap ik de keuze voor raid0 op je NAS niet helemaal?
Met raid0 heb je geen enkele vorm van veiligheid, is het niet beter om raid1, raid5 of raid6 te kiezen?
Het is niet zo dat als er een disk uitvalt dat mijn wereld ten einde is, maar ik wil het niet op een gok gooien met het overzetten, vandaar.
Ik heb de keuze uit JBOD, RAID0, 1 en 5. en RAID 0/1/5 (weet niet of daar een verschil in zit).
Ik zal vanavond even mijn systeem testen, moet zo naar m'n werk namelijk.
Als ik trouwens de harde schijven in standby laat zetten na x aantal minuten, dan spinnen ze de hele tijd up en down.
Iemand hier ook last van?
Niet dat het energieverbruik mij op dit moment ook maar iets uitmaakt (betaal vast tarief, lang leven 1 zekeringkast per portiek).
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.