Helaas laten het moederbord en de LSI SAS nog even op zich wachten.Psycho_Bartje schreef op zaterdag 24 september 2011 @ 11:32:
Wil ik na lang uitzoeken, wikken & wegen eindelijk de spullen voor mijn nieuwe NAS gaan bestellen, blijkt het Supermicro bord ineens slecht leverbaar.![]()
Dan maar "op safe" gegaan en de volgende onderdelen besteld:
# Product Prijs Subtotaal 1 Intel Server Board S1200BTS € 156,90 € 156,90 1 LSI SAS 9211-8i (SAS9211-8I/SGL) € 210,13 € 210,13 1 Intel Xeon E3-1220 Boxed € 171,72 € 171,72 1 Scythe Mugen 2 Rev. B € 34,- € 34,- 2 Kingston ValueRAM KVR1333D3E9SK2/8GI € 67,48 € 134,96 Bekijk collectie
Importeer productenTotaal € 707,71
Wellicht had het goedkoper gekund door ipv van de LSI bijvoorbeld een rebranded IBM te nemen en andere geheugenmodules (ICIDU), maar hiermee verwacht ik een hopelijk probleemloze installatie.
Nu nog 5 Samsungs 2TB erbij een dan een RAID-Z2 met in totaal 10 schijven onder FreeNAS opzetten als alles komende week (hopelijk) binnen isKijken of mij dat als oefenTweaker lukken gaat....
Wel alvast even met de Voltcraft Energy Logger 4000 (dank voor de adviezen
(voor de tabel even leentjebuur gespeeld in het 10+ TB topic
| System specifications | |
| Component | Value |
|---|---|
| Case | Zalman MS1000-HS2 |
| CPU | AMD Athlon II X2 240E |
| RAM | Kingston ValueRAM KVR800D2N6K2/2G |
| Motherboard | Gigabyte GA-MA74GM-S2H |
| Operating system | Windows Home Server 1 |
| Controller | Promise FastTrak SATA 300 TX4 |
| Hard drive | Western Digital Caviar Green WD10EADS, 1TB (1x) Samsung EcoGreen F4EG HD204UI, 2TB (5x) Samsung EcoGreen F3EG, 2TB (1x) |
| RAID array configuration | Drive Extender |
| Netto storage capacity | 6.5 TB |
| Network | Gigabit |
| UPS | Nee |
| Filesystem | WHS |
| Idle power usage | 75 Watt (zonder spindown volgens mij) |
| Extra | |
Hopelijk binnenkort: wordt vervolgd als de nieuwe spullen (incl de 5 extra 2TB Samsungs) binnen zijn
Nee, ik heb alleen maar 1 data en dat is een gstripe RAID 0_-= Erikje =-_ schreef op donderdag 29 september 2011 @ 14:28:
Turk, zit je wel naar de zelfde share te kijken? (niet dat je wat anders exporteerd met de naam data)
Schijf Bestandssysteem Naam Omschrijving Status
/dev/stripe/datap1 ufs data OK
Ik ben niet helemaal thuis in FreeNAS, maar als dit opgelost kan worden ben ik er zeer tevreden mee
En even leest wat ze doen ..... gebruik daarvoor google of man
df -h
zfs -list
zfs list -t snapshot
Een i3/i5 is imo beter dan de huidige atoms, daar je zaken hebt als rush to idle en ongeduldjantje112 schreef op dinsdag 27 september 2011 @ 19:01:
Ok, ik ben lui vandaag.
Ik heb al diverse opties bekeken. Momenteel een ch3snas in de meterkast, maar ik wil wat meer power.
Behuizing twijfel ik nog. Minimaal 6 3.5discs (6*3) en een SSD (voor cache) Ik ga unraid gebruiken.
Keus is A. Fractal array B. Lian Li 08 C.?
Moederbord (6 of 7 Sata zou mooi zijn!)
A. Atom B. AMD Fusion C. ? (Sandy of Ivy bridge?) D. Toch dat VIA ding?
Voeding
A. Pico B. Zuinige ATX C. Iets wat nog in de kast ligt..
Ik wil draaien op unraid, systeem zal doordeweeks met name stil staan. Dus zuinigheid is belangrijk.
Budget, in redelijkheid oneindig..
Wie kan mij helpen met de afweging?
| # | Product | Prijs | Subtotaal |
| 1 | Intel Core i5 2500 Boxed | € 170,57 | € 170,57 |
| 1 | Kingston ValueRAM KVR1333D3N9K2/8G | € 40,- | € 40,- |
| 1 | Intel BOXDH67CLB3 | € 86,76 | € 86,76 |
| Bekijk collectie Importeer producten | Totaal | € 297,33 | |
Maar als je de SSD via je chipset als cache wil gebruiken wil je wellicht de Z68 chipset? Een kort door de bocht search op tweakers leverde mij op (4x sata 300 en 6x sata 600
| # | Product | Prijs | Subtotaal |
| 1 | Asrock Fatal1ty Z68 Professional Gen3 | € 220,30 | € 220,30 |
| Bekijk collectie Importeer producten | Totaal | € 220,30 | |
Maar al die extra chips op zo'n gamers bord vreten wel stroom, vergeet niet dat 5W op jaarbasis neerkomt op 10€ stroomkosten...
Trekt een pico zoveel schijven tijdens boot of weet je een staggered spin up te bewerkstelligen? Anders zou ik voor een efficiënte low power atx gaan.
pricewatch: Asus P8Z68-V PRO is de goedkoopste 1156/z68 die ik tegenkwam met meer dan 6 sata controllers, 4 om 4 om precies te zijn. Binnen een tientje kun je ook voor een Gigabyte, AsRock of MSI variant gaan met 4/4 sata als je voorkeur daar naar uitgaat.
[ Voor 4% gewijzigd door B3U5 op 30-09-2011 15:31 . Reden: toevoeging ]
Opsporing Verzocht:
Ik zat gisteren een post met pics te bewonderen van een tweaker met een kast voorzien van rode en groene ductape (uit mijn hoofd) een Corsair voeding en Chieftec SST-3141SAS modules? Ik heb op alle mogelijke termen gezocht maar ik kan de post NIET meer terug vinden en begint frustrerend te worden.
Weet ook niet meer of ik 'm in deze thread of de Storage showoff topic - 10+ TB storage thread gezien had
( Storage showoff topic - 10+ TB storage systems )
Iemand enig idee over welke build ik het heb..?
muchos gracias
[ Voor 5% gewijzigd door NIK0 op 30-09-2011 17:34 ]
Member of the Ukraine IT Army
De build van Thalantis bedoel je.NIK0 schreef op vrijdag 30 september 2011 @ 17:33:
Pfffff...forum broeders kan iemand mij even naar de juiste post verwijzen![]()
Opsporing Verzocht:
Ik zat gisteren een post met pics te bewonderen van een tweaker met een kast voorzien van rode en groene ductape (uit mijn hoofd) een Corsair voeding en Chieftec SST-3141SAS modules? Ik heb op alle mogelijke termen gezocht maar ik kan de post NIET meer terug vinden en begint frustrerend te worden.
Weet ook niet meer of ik 'm in deze thread of de Storage showoff topic - 10+ TB storage thread gezien had
( Storage showoff topic - 10+ TB storage systems )
Iemand enig idee over welke build ik het heb..?
muchos gracias
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Hmm..nee dat was um niet..weet zeker dat ik groene en rode ductape heb gezien
Member of the Ukraine IT Army
Ik snap welke plaatje je bedoelt, de duct tape was/is gebruikt om de kabel spaghetti te beheersen en de voeding per array deel te markeren.NIK0 schreef op vrijdag 30 september 2011 @ 18:14:
[...]
Hmm..nee dat was um niet..weet zeker dat ik groene en rode ductape heb gezien
[ Voor 6% gewijzigd door Pantagruel op 30-09-2011 21:15 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Keuze is namelijk tussen 4x een Samsung F4 2TB of 2x een WD 3TB disk en deze array later uit te breiden wanneer de schijven goedkoper zijn geworden. (prijs 4x F4 en 2x WD = 'gelijk')
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Hmm dan zullen we het toch over dezelfde build hebben raar alleen dat ik dat plaatje nergens meer terug kan vinden maar thanks iig!Pantagruel schreef op vrijdag 30 september 2011 @ 21:14:
[...]
Ik snap welke plaatje je bedoelt, de duct tape was/is gebruikt om de kabel spaghetti te beheersen en de voeding per array deel te markeren.
Member of the Ukraine IT Army
Sowieso niet de raid van de "controller" gebruiken, als je de hd's partitioneerd voordat je ze aan de controller hangt herkent hij ze als native en kan je aan de slag met welke softraid/zfs oplossing die je zelf wil.klaasbram schreef op vrijdag 30 september 2011 @ 22:28:
Ik zit hier met een servertje met een RocketRaid 2340 kaart erin welke 64bit LBA ondersteund en daardoor ook HDD's welke groter zijn dan 2TB maar ik kan nergens terug vinden of hij lekker werkt met een Western digital WD30EZRX (3TB hdd)
Keuze is namelijk tussen 4x een Samsung F4 2TB of 2x een WD 3TB disk en deze array later uit te breiden wanneer de schijven goedkoper zijn geworden. (prijs 4x F4 en 2x WD = 'gelijk')
Ik zou zelf voor de 4x2TB oplossing gaan in raid 5, die gaat ook makkelijker uit te breiden zijn in de toekomst.
If it ain't broken it doesn't have enough features
Reclame: heb nog steeds leuk setje (moederbord, CPU en geheugen) te koop staan (link)
... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...
Ben ik dus niet met je eens want de ORLM/OCE functie vind ik juist erg fijn. Daarom is de twijfel voor de 2x 3TB juist zo groot want deze zou ik eerst in een stripe gaan draaien en daarna later migreren maar een 4x 3TB in raid 5 dus effectief ga ik bij die 2e keer maar 3TB vooruit. Maar tegen die tijd zijn de 3TB als het goed is weer een stuk goedkoperApache schreef op zaterdag 01 oktober 2011 @ 21:08:
[...]
Sowieso niet de raid van de "controller" gebruiken, als je de hd's partitioneerd voordat je ze aan de controller hangt herkent hij ze als native en kan je aan de slag met welke softraid/zfs oplossing die je zelf wil.
Ik zou zelf voor de 4x2TB oplossing gaan in raid 5, die gaat ook makkelijker uit te breiden zijn in de toekomst.
[ Voor 5% gewijzigd door The-Source op 02-10-2011 13:38 ]
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Nou heb ik de eerste 3 disks in RAID5 gezet en dat werkt prima.
Maar nu heb ik hier een 4e disk aan toevoegt wat ik gedaan heb met:
mdadm --add /dev/md0 /dev/sdh1
mdadm --grow /dev/md0 --raid-devices=4
Alleen nu die helemaal klaar is met resyncen mis ik 2TB aan data.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
| bak:/ # mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Fri Sep 30 22:14:36 2011
Raid Level : raid5
Array Size : 5860537344 (5589.04 GiB 6001.19 GB)
Used Dev Size : 1953512448 (1863.01 GiB 2000.40 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Sun Oct 2 17:51:19 2011
State : active
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Name : bak:0 (local to host bak)
UUID : c3c98753:98db586f:7c544257:8f1d0b58
Events : 9128
Number Major Minor RaidDevice State
0 8 65 0 active sync /dev/sde1
1 8 81 1 active sync /dev/sdf1
3 8 97 2 active sync /dev/sdg1
4 8 113 3 active sync /dev/sdh1
bak:/ # df -h
Bestandssysteem Grtte Gebr Besch Geb% Aangekoppeld op
rootfs 50G 9,0G 39G 19% /
devtmpfs 1,9G 284K 1,9G 1% /dev
tmpfs 1,9G 92K 1,9G 1% /dev/shm
/dev/sda2 50G 9,0G 39G 19% /
/dev/sda3 1,8T 1,8T 27G 99% /mnt/hdd1
/dev/sdb1 1,8T 1,8T 22G 99% /mnt/hdd2
/dev/sdc1 1,8T 1,8T 28G 99% /mnt/hdd3
/dev/sdd1 1,8T 1,8T 46G 98% /mnt/hdd4
/dev/md0 3,6T 197M 3,4T 1% /mnt/hdd5 |
Iemand een idee waar in godsnaam die 2TB gebleven is?
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Dat doe je hier toch mee: mdadm --grow /dev/md0 --raid-devices=4 ?HarmoniousVibe schreef op zondag 02 oktober 2011 @ 18:18:
Je moet je filesystem nog growen.
Of moet ik dat op een andere manier doen?
Daarmee grow je alleen de array, het filesystem moet je nog op de hoogte brengen door iets als resize2fs te doen als het om een ext2/3/4 gaat, andere filesystems hebben vergelijkbare commands.Dutch3men schreef op zondag 02 oktober 2011 @ 18:53:
[...]
Dat doe je hier toch mee: mdadm --grow /dev/md0 --raid-devices=4 ?
Of moet ik dat op een andere manier doen?
Vaak moet je vooraf nog een filecheck doen als e2fsck.
[ Voor 6% gewijzigd door Loekie op 02-10-2011 18:59 ]
Via google kom ik alleen maar inplementaties tegen in complete nas oplossingen. En op pagina's over ZFS of Freenas kan ik ook niet echt zo'n functie vinden.
Iemand een idee of zoiets ook mogelijk is met 1 van de software oplossingen?
Heb even zitten lezen en kan nou niet bepalen of het precies kan wat ik wil. Data is wel ook op een losse schijf te benaderen dus in principe kun je een schijf door een grotere vervangen en dan data terug kopiëren van de losse schijf.
Performance is alleen beperkt tot de snelheid van een losse schijf. Nog niet helemaal dus wat ik zoek.
Nog meer mensen een idee?
Omdat dit parallel kan, heb je snelheidswinst.
Mocht je dus een grotere schijf bijzetten, gaat dit goed, tot je de 'extra' ruimte van de schijf benaderd die niet aanwezig is op de kleinste schijf. Dan kakt je performance in, en loop je het risico dat er niet genoeg schijfruimte op andere schijven aanwezig is om de volledige stripe weg te schrijven.
Drobo is hier een goed voorbeeld van. Met hun BeyondRAID heb je welliswaar wat jij zegt, maar die dingen performen voor geen meter, omdat ze constant bezig zijn met rare stripe sizes en op verschillende disks schrijven.
Even niets...
maar geinspireerd door het zuinige server topic, en ik gewoon tweaker ben dat wanneer er niks te prutsen valt je gewoon weer wat nieuws besteld zodat je verder kan prutsen!
Zit ik een beetje met het volgende ik heb Raid 5 draaien, en dezelfde schijven wil ik in mijn nieuwe "zuinige server" gaan gebruiken.
Alleen kan ik niet vinden of ik de schijven kan aansluiten op de nieuwe server en dat windows 2008 dan de raid config weer herkend en zodoende ik niks hoef te backuppen?
Een groot deel kan ik zeer waarschijnlijk wel ergens anders onder brengen maar ik weet niet zeker of ik ruimte voor alles ga hebben.
Het idee is:
SSD overzetten en opnieuw installeren (os schijf)
en dan de 2 TB's overzetten, en hopen dat windows 2008 server de array weer herkend?
Ik kwam namelijk 1 topic tegen waar iemand het zeflde wou met een raid 0 config onder windows 7, daar werd door 1 poster gezegd dat de raid array configuratie op de schijven staat opgeslagen en niet zo zeer in het os. Dit heb ik alleen niet bevestigd kunnen krijgen, en alles topics die ik vind gaat over controllers e.d. zover ik weet maakt het type controller voor software raid geen klap uit?
Als je via Dynamic Disks in Windows zelf een RAID set hebt aangemaakt, dan kan je dat gewoon verhuizen.
Heb je het via een controller (Highpoint, Areca, LSI, Intel, whatever) dan gaat dat ook wel goed.
Even niets...
Dat heb ik dus, maar ik kan nergens een link vinden dat dit bevestigd, maar misschien dat ik verkeerd zoek, als het zo werkt zou wel enorm relaxt zijn.FireDrunk schreef op maandag 03 oktober 2011 @ 13:59:
Dat ligt aan de RAID implementatie. Zit die in je moederbord? (FakeRAID) dan moet je goed kijken of je config wel verhuisbaar is naar een nieuw moederbord.
Als je via Dynamic Disks in Windows zelf een RAID set hebt aangemaakt, dan kan je dat gewoon verhuizen.Heb je het via een controller (Highpoint, Areca, LSI, Intel, whatever) dan gaat dat ook wel goed.
Even importeren.
[ Voor 13% gewijzigd door FireDrunk op 03-10-2011 14:13 ]
Even niets...
Verwijderd
Ik heb dat ook als je in de BIOS van de PC ROM niet uitgezet hebt voor deze kaart, ik heb de rom-bios uitgezet omdat ik deze toch verder niet gebruik en je deze alleen zou gebruiken voor het bouwen van een RAID-array via de SASUC8i.NetXtreme schreef op woensdag 05 oktober 2011 @ 21:22:
Ik heb nu een Intel SASUC8I met daaraan 5x 2 TB WD EARS. Tijdens laden geeft ie aan dat je met CTRL + C configuration utility kan laden. Dan geeft deze aan dat deze de volgende initialisatie weergegeven zal worden, maar dan blijft deze gewoon op een knipperende cursor staan en gebeurt er niets.... Iemand een idee?
Ik ben nogal groen in het hele ZFS gebeuren. Ik heb dus Freenas ook geinstalleerd op een ESXi. Maar ik krijg nogal trage transfers. Bij het starten van transfers haal ik burst 120mbps, maar dat zakt terug naar een zielige 30mbps en soms zelfs 20mbps. Nu weet ik dat er met ESXi en FreeNAS weer een hoop overhead tussen komt, maar dit is wel erg traag. Normaal haal ik tussen pc's en andere vm's toch wel zeker 60-100mbps.Verwijderd schreef op woensdag 05 oktober 2011 @ 22:28:
Ik heb de boel hier eindelijk werkend. Ubuntu is de deur uit, ik heb nu ESXi draaien met daarop Freenas die via RDM's toegang heeft tot de 3 disks. Ik vind het jammer dat ik nu de array niet zomaar kan growen, maar het werkt met ZFS wel stukken stabieler.
Ik heb de reporting e.d. al nagekeken en hij doet verder niets, ik heb ook al het geheugen naar 4GB gegooid omdat ZFS nogal geheugen hongerig zou zijn.. (?)
Ben al langs talloze fora geweest maar niet echt iets wat me helpt, dus iemand hier ideeen?
Specs:
AMD x4 620
16GB 1333mhz
SASUC8I met daarop 2x 2TB schijven die voor FreeNAS zijn. (zijn ecogreen samsungs)
Verwijderd
Verwijderd
# 32GB schrijven
dd if=/dev/zero of=/tank/testfile.dat bs=1m count=32000
# 32GB lezen
dd if=/tank/testfile.dat of=/dev/null bs=1m
verander /tank/ naar de naam van je pool. Om dit uit te kunnen voeren moet je middels SSH ingelogd zijn op je FreeNAS box.
32000+0 records in
32000+0 records out
33554432000 bytes transferred in 69.254497 secs (484509071 bytes/sec) = 462MB
/mnt/Storage# dd if=/mnt/Storage/testfile.dat of=/dev/null bs=1m
32000+0 records in
32000+0 records out
33554432000 bytes transferred in 47.249551 secs (710153456 bytes/sec) = 677MB
Specs (link)
... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...
Meer dan zat voor mijn doeleinden, 4x WD 2tbyte green via de onboard op m'n asus minitx bordje[root@nas /mnt/vol01/tmp]# dd if=/dev/zero of=./testfile.dat bs=1m count=32000 32000+0 records in
32000+0 records out
33554432000 bytes transferred in 213.729090 secs (156995157 bytes/sec) (150 Mbyte/s)
[root@nas /mnt/vol01/tmp]# dd if=./testfile.dat of=/dev/null bs=1m
32000+0 records in
32000+0 records out
33554432000 bytes transferred in 119.123018 secs (281678828 bytes/sec) (269 Mbyte/s)
ORLM/OCE heb je ook met mdadm/LVM alleen is het dan betrouwbaar en niet controller afhankelijkklaasbram schreef op zondag 02 oktober 2011 @ 13:37:
^^ ik zou het zelf niet weten want hij komt ook niet veel voorbij. Ik heb zelf 3 jaar terug goedkoop kunnen kopen voor 350 dollar ex verzending maar dat was wel 2e hands..
[...]
Ben ik dus niet met je eens want de ORLM/OCE functie vind ik juist erg fijn. Daarom is de twijfel voor de 2x 3TB juist zo groot want deze zou ik eerst in een stripe gaan draaien en daarna later migreren maar een 4x 3TB in raid 5 dus effectief ga ik bij die 2e keer maar 3TB vooruit. Maar tegen die tijd zijn de 3TB als het goed is weer een stuk goedkoperen kan ik later weer verder uitbreiden met 3TB want ik verwacht dat die nog wel een tijd in de markt blijven...
If it ain't broken it doesn't have enough features
nee ik was het niet
Edit:
Nog eens wat benchmarks met de nieuwe setup:
root@vfileserver:~# dd if=/dev/zero of=/mnt/data/zero.file bs=1M count=50000 50000+0 records in 50000+0 records out 52428800000 bytes (52 GB) copied, 111,505 s, 470 MB/s root@vfileserver:~# dd if=/mnt/data/zero.file of=/dev/null bs=1M count=50000 50000+0 records in 50000+0 records out 52428800000 bytes (52 GB) copied, 75,2599 s, 697 MB/s
Het enige minpuntje is dat mijn schijven na een tijd niet meer in standby gaan.
Als ik eens reboot is het probleem opgelost, dan werkt het weer een tijd, maar na x aantal uur/dagen gaan ze niet meer in standby, standby staat op 120s.
root@vfileserver:~# hdparm -C /dev/sd[bcdefghi] /dev/sdb: drive state is: active/idle /dev/sdc: drive state is: active/idle /dev/sdd: drive state is: active/idle /dev/sde: drive state is: active/idle /dev/sdf: drive state is: active/idle /dev/sdg: drive state is: active/idle /dev/sdh: drive state is: active/idle /dev/sdi: drive state is: active/idle
[ Voor 24% gewijzigd door BlackShadow op 09-10-2011 19:09 ]
Bij mij staat er:Mafketel schreef op donderdag 29 september 2011 @ 14:24:
windows 7 ... niet xp
anyway als je een df -h had gedaan had je zelf het antwoord kunnen vinden.
Bij mij geeft win7 bij total size de gebruikte ruimte door dat filesysteem.
En vrije ruimte is de vrije ruimte in de zpool.
oftewel.
windows home geeft 3,44GB vrij en 28GB total size
df -h geeft size 29G used 25G avail3.5G
zfs -list geeft used 27.1G avail 3.44G refer24.6G
zfs list -t snapshot geeft
snapshot1 used 1.78G - refer 25.9G
snapshot2 used 71.7M - refer 24.2G
met wat afrondingen te begrijpen zo denk ik.
/dev/ad0s1a size 1gb used 244 (dus die windows ziet)
/dev/stripe/datap1 size 3,5T used 633T
en de datap1 wou ik graag zien in Windows (die zie ik wel als ik die netwerklocatie open, maar de grootte niet)
[ Voor 5% gewijzigd door Mafketel op 10-10-2011 09:01 ]
Turk, kijk eens bij CIFS shares naar welk path je deelt, dat path zou met mount overeen moeten komen met /dev/stripe/datap1
Dit is een voorbeeldje van mijn nasje:
1
2
3
4
5
6
7
8
9
10
11
| [erik@nas] /mnt/vol01/download/incomplete# df -h Filesystem Size Used Avail Capacity Mounted on /dev/ufs/FreeNASs1a 927M 431M 422M 51% / devfs 1.0K 1.0K 0B 100% /dev /dev/md0 4.3M 3.6M 396K 90% /etc /dev/md1 732K 28K 648K 4% /mnt /dev/md2 75M 19M 49M 28% /var /dev/ufs/FreeNASs4 20M 1.3M 17M 7% /data vol01 5.2T 1.4T 3.8T 26% /mnt/vol01 programs 928M 187M 740M 20% /mnt/programs [erik@nas] /mnt/vol01/download/incomplete# |
Ik deel dus in mijn CIFS share /mnt/vol01
Na een jaar lang dit topic gevolgd te hebben. Heb ik sinds ruim een maand de volgende bak draaien uitsluitend voor data storage;
| # | Product | Prijs | Subtotaal |
| 4 | Samsung EcoGreen F4EG HD204UI, 2TB | € 59,90 | € 239,60 |
| 1 | Fractal Design Define R3 (Zwart) | € 84,50 | € 84,50 |
| 1 | AMD Athlon II X2 250 Boxed | € 47,90 | € 47,90 |
| 1 | be quiet! Pure Power L7 300W | € 34,85 | € 34,85 |
| 1 | MSI 880GM-E41 | € 54,95 | € 54,95 |
| Bekijk collectie Importeer producten | Totaal | € 461,80 | |
+ Corsair DDR 3 geheugen 2 GB Dual Channel 1333MHz ( Ik kon geen link daarvan vinden in de pricewatch sorry.
Nu is het zo dat ik ben begonnen met 3x 2TB in RAID 5 (Software RAID mdadm) dus ik hield netjes 4TB over. Echter was deze vol gelopen en heb ik de andere schijf van 2TB er bij gestoken. En heb ik vervolgens;
sudo mdadm --add /dev/md0 /dev/sdx
sudo mdadm --grow /dev/md0 --raid-devices=x
getypt om de schijf bij de array te voegen en te growen.Maar nu sinds die tijd (vrijdag avond) is hij nog steeds bezig met reshapen en is hij nu zover met reshapen:
1
2
3
4
5
6
7
| neopatch@iDATASTORE:~$ cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sde[3] sdb[0] sdd[2] sdc[1]
3907026432 blocks super 1.2 level 5, 256k chunk, algorithm 2 [4/4] [UUUU]
[==========>..........] reshape = 53.9% (1054483968/1953513216) finish=9535.9min speed=1571K/sec
unused devices: <none> |
Mijn vraag is. Is er een manier of een instelling die ik moet veranderen waardoor dit proces iets sneller gaat of heb ik zelf iets fout gedaan waardoor dit zo traag gaat? Of is het normaal dat dit zolang duurt met software RAID via mdadm ?
Zo ziet mijn mdadm array status er nu uit:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
| /dev/md0:
Version : 1.2
Creation Time : Sun Aug 28 03:40:07 2011
Raid Level : raid5
Array Size : 3907026432 (3726.03 GiB 4000.80 GB)
Used Dev Size : 1953513216 (1863.02 GiB 2000.40 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Mon Oct 10 10:06:38 2011
State : clean, recovering
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 256K
Reshape Status : 53% complete
Delta Devices : 1, (3->4)
Name : iDATASTORE:0 (local to host iDATASTORE)
UUID : fc899537:7c69c62c:dfe6f879:bc04bc05
Events : 12928
Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
1 8 32 1 active sync /dev/sdc
2 8 48 2 active sync /dev/sdd
3 8 64 3 active sync /dev/sde |
Dit duurt wel erg lang namelijk ik had verwacht dat het hoogstens 2 dagen zou duren. De snelheid is ook gedropt van 11Mb/s naar rondt de 1.5MB/s in het reshape process. Nog ter informatie het OS (ubuntu linux) draait op een IDE schijfje wat ik nog had liggen. Dat ga ik binnenkort wijzigen naar een kleine SSD.
Hulde voor alle mensen voor het delen van alle nuttige informatie in dit topic.
Even niets...
Ik heb zojuist gedaan wat je hebt gezegd;FireDrunk schreef op maandag 10 oktober 2011 @ 11:24:
Je kan de array eens unmounten, misschien is er toch nog een applicatie op bezig.
1
| sudo umount /dev/md0 |
Nu is de cat /proc/mdstat output als volgt;
1
2
3
4
5
| neopatch@iDATASTORE:~$ cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sde[3] sdb[0] sdd[2] sdc[1]
3907026432 blocks super 1.2 level 5, 256k chunk, algorithm 2 [4/4] [UUUU]
[==========>..........] reshape = 54.5% (1065456132/1953513216) finish=6977.3min speed=2121K/sec |
Iets opgeschoten maar nog niet helemaal wat ik gehoopt had. Wat is een beetje de normale snelheid die ik zou moeten verwachten met de configuratie die ik heb en de schijven die ik gebruik ?
Even niets...
Is er nog iets anders wat ik zou kunnen proberen? Of is er bepaalde leesvoer wat ik zou moeten doornemen om tot een oplossing te komen?FireDrunk schreef op maandag 10 oktober 2011 @ 11:50:
Nee, dat is te traag... Ik zou iets van 15-20MB/s verwachten.
Ik ga nog wel even verder google naar een mogelijke oplossing. Wellicht moet ik een instelling aanpassen ofzo iets. Zodra ik een oplossing gevonden heb zal ik dit uiteraard hier delen.
iostat -x 1
top
vmstat 2
[ Voor 12% gewijzigd door FireDrunk op 10-10-2011 11:58 ]
Even niets...
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
| Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await r_await w_await svctm %util
sda 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sdb 0.00 0.00 0.00 0.00 0.00 0.00 0.00 110.00 0.00 0.00 0.00 0.00 100.00
sdd 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sdc 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sde 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
md0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
avg-cpu: %user %nice %system %iowait %steal %idle
0.48 0.00 0.00 0.00 0.00 99.52
Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await r_await w_await svctm %util
sda 0.00 3.00 0.00 24.00 0.00 200.50 16.71 0.08 3.50 0.00 3.50 0.33 0.80
sdb 0.00 0.00 0.00 0.00 0.00 0.00 0.00 110.00 0.00 0.00 0.00 0.00 100.00
sdd 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sdc 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sde 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
md0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
avg-cpu: %user %nice %system %iowait %steal %idle
1.52 0.00 0.00 0.00 0.00 98.48
Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await r_await w_await svctm %util
sda 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sdb 0.00 0.00 0.00 0.00 0.00 0.00 0.00 110.00 0.00 0.00 0.00 0.00 100.00
sdd 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sdc 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sde 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
md0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
avg-cpu: %user %nice %system %iowait %steal %idle
0.00 0.00 0.50 0.00 0.00 99.50
Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await r_await w_await svctm %util
sda 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sdb 0.00 0.00 0.00 0.00 0.00 0.00 0.00 110.00 0.00 0.00 0.00 0.00 100.00
sdd 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sdc 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sde 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
md0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 |
En deze is van top;
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
| neopatch@iDATASTORE:~$ top
top - 12:00:10 up 2 days, 18:44, 2 users, load average: 1.16, 1.24, 1.26
Tasks: 167 total, 1 running, 165 sleeping, 0 stopped, 1 zombie
Cpu(s): 0.7%us, 1.6%sy, 0.0%ni, 97.7%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st
Mem: 1799964k total, 1231684k used, 568280k free, 308k buffers
Swap: 1646624k total, 0k used, 1646624k free, 529996k cached
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
354 root 20 0 0 0 0 D 2 0.0 211:55.29 md0_raid5
1827 neopatch 20 0 10800 5088 2676 S 1 0.3 16:31.38 gvfs-gdu-volume
1829 root 20 0 109m 89m 2792 S 1 5.1 20:21.63 udisks-daemon
1982 neopatch 20 0 21292 8292 5184 S 0 0.5 9:45.02 gdu-notificatio
2621 root 20 0 0 0 0 D 0 0.0 91:03.57 md0_reshape
9986 neopatch 20 0 2632 1156 848 R 0 0.1 0:00.06 top
1 root 20 0 3044 1792 1216 S 0 0.1 0:00.89 init
2 root 20 0 0 0 0 S 0 0.0 0:00.03 kthreadd
3 root 20 0 0 0 0 S 0 0.0 0:01.04 ksoftirqd/0
6 root RT 0 0 0 0 S 0 0.0 0:00.00 migration/0
7 root RT 0 0 0 0 S 0 0.0 0:00.00 migration/1
9 root 20 0 0 0 0 S 0 0.0 0:01.83 ksoftirqd/1
11 root 0 -20 0 0 0 S 0 0.0 0:00.00 cpuset
12 root 0 -20 0 0 0 S 0 0.0 0:00.00 khelper
13 root 0 -20 0 0 0 S 0 0.0 0:00.00 netns
15 root 20 0 0 0 0 S 0 0.0 0:00.83 sync_supers
16 root 20 0 0 0 0 S 0 0.0 0:00.02 bdi-default
17 root 0 -20 0 0 0 S 0 0.0 0:00.00 kintegrityd
18 root 0 -20 0 0 0 S 0 0.0 0:00.00 kblockd
19 root 0 -20 0 0 0 S 0 0.0 0:00.00 kacpid
20 root 0 -20 0 0 0 S 0 0.0 0:00.00 kacpi_notify
21 root 0 -20 0 0 0 S 0 0.0 0:00.00 kacpi_hotplug
22 root 0 -20 0 0 0 S 0 0.0 0:00.00 ata_sff
23 root 20 0 0 0 0 S 0 0.0 0:00.01 khubd
24 root 0 -20 0 0 0 S 0 0.0 0:00.00 md
26 root 20 0 0 0 0 S 0 0.0 0:00.11 khungtaskd
27 root 20 0 0 0 0 S 0 0.0 0:00.00 kswapd0
28 root 25 5 0 0 0 S 0 0.0 0:00.00 ksmd
29 root 20 0 0 0 0 S 0 0.0 0:00.00 fsnotify_mark
30 root 0 -20 0 0 0 S 0 0.0 0:00.00 aio
31 root 20 0 0 0 0 S 0 0.0 0:00.00 ecryptfs-kthrea
32 root 0 -20 0 0 0 S 0 0.0 0:00.00 crypto
36 root 0 -20 0 0 0 S 0 0.0 0:00.00 kthrotld
38 root 0 -20 0 0 0 S 0 0.0 0:00.00 kmpathd
39 root 0 -20 0 0 0 S 0 0.0 0:00.00 kmpath_handlerd
40 root 0 -20 0 0 0 S 0 0.0 0:00.00 kondemand
41 root 0 -20 0 0 0 S 0 0.0 0:00.00 kconservative
264 root 20 0 0 0 0 S 0 0.0 0:00.00 scsi_eh_0
266 root 20 0 0 0 0 S 0 0.0 0:00.00 scsi_eh_1
287 root 20 0 0 0 0 S 0 0.0 0:00.14 kworker/u:3
291 root 20 0 0 0 0 S 0 0.0 0:00.01 scsi_eh_2
292 root 20 0 0 0 0 S 0 0.0 0:00.00 scsi_eh_3
293 root 20 0 0 0 0 S 0 0.0 0:00.00 scsi_eh_4
294 root 20 0 0 0 0 S 0 0.0 0:00.00 scsi_eh_5
295 root 20 0 0 0 0 S 0 0.0 0:00.00 scsi_eh_6
296 root 20 0 0 0 0 S 0 0.0 0:00.00 scsi_eh_7
298 root 20 0 0 0 0 S 0 0.0 0:00.00 kworker/u:5
363 root 0 -20 0 0 0 S 0 0.0 0:00.00 xfs_mru_cache
364 root 0 -20 0 0 0 S 0 0.0 0:00.00 xfslogd
365 root 0 -20 0 0 0 S 0 0.0 0:00.00 xfsdatad
366 root 0 -20 0 0 0 S 0 0.0 0:00.00 xfsconvertd
368 root 20 0 0 0 0 S 0 0.0 0:06.20 xfsbufd/sda1
369 root 20 0 0 0 0 S 0 0.0 0:01.13 xfssyncd/sda1
370 root 20 0 0 0 0 S 0 0.0 0:00.00 xfsaild/sda1
418 root 20 0 2412 612 460 S 0 0.0 0:00.12 upstart-udev-br
434 root 16 -4 3092 1268 360 S 0 0.1 0:00.06 udevd
642 root 18 -2 3140 1352 416 S 0 0.1 0:00.04 udevd |
En de output van vmstat 2
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
| procs -----------memory---------- ---swap-- -----io---- -system-- ----cpu---- r b swpd free buff cache si so bi bo in cs us sy id wa 0 0 0 568308 308 529996 0 0 1 2 19 23 1 4 95 0 0 0 0 568364 308 530020 0 0 0 14 5849 11163 1 19 80 0 0 0 0 568364 308 530020 0 0 0 6 105 117 1 0 99 0 0 0 0 568364 308 530020 0 0 0 0 106 117 1 0 99 0 0 0 0 568364 308 530020 0 0 0 0 109 120 1 0 99 0 0 0 0 568396 308 530020 0 0 0 2 1604 3113 1 2 97 0 0 0 0 568396 308 530020 0 0 0 0 215 332 1 0 99 0 0 0 0 568396 308 530020 0 0 0 0 271 442 1 0 99 0 0 0 0 568396 308 530020 0 0 0 0 219 344 1 0 99 0 0 0 0 568396 308 530020 0 0 0 0 144 194 1 1 99 0 0 0 0 568396 308 530020 0 0 0 5 104 117 1 0 99 0 0 0 0 568396 308 530020 0 0 0 4 104 117 1 0 99 0 0 0 0 568396 308 530020 0 0 0 0 106 124 1 0 99 0 1 0 0 568396 308 530020 0 0 0 0 100 114 1 0 99 0 0 0 0 568396 308 530020 0 0 0 4 104 122 1 0 99 0 0 0 0 568396 308 530020 0 0 0 0 101 115 1 0 99 0 0 0 0 568396 308 530020 0 0 0 2 465 827 0 2 98 0 0 0 0 568364 308 530020 0 0 0 0 88 88 0 0 100 0 0 0 0 568332 308 530020 0 0 0 0 549 879 0 5 95 0 0 0 0 568364 308 530020 0 0 0 1 6442 12303 1 20 79 0 0 0 0 568396 308 530020 0 0 0 6 136 119 1 0 99 0 0 0 0 568396 308 530020 0 0 0 0 104 119 1 0 99 0 1 0 0 568396 308 530020 0 0 0 0 104 115 1 0 99 0 0 0 0 568364 308 530020 0 0 0 0 454 805 0 1 99 0 0 0 0 568364 308 530020 0 0 0 0 106 125 1 0 99 0 |
[ Voor 20% gewijzigd door Neopatch op 10-10-2011 12:03 ]
Even niets...
Zie je wel...ben ik toch niet helemaal lijp..ben nog steeds op zoek naar die build van de tweaker die groene en rode tape in z'n kast heeft geplakt...die 300+ pagina's beginnen toch te nekken zo langzamerhand. (of was het dan toch het 10TB topic ? )thalantis schreef op vrijdag 07 oktober 2011 @ 22:51:
[...]
nee ik was het nietheb alleen grijze mac guyver tape gebruikt omdat ik de fans vervangen heb van de addonics
Daarnaast nog een vraagje. Ik lees nogal wat tegenstrijdige berichten over die 4-in-3 modules van Cooler Master. De schijven zouden nogal "trillerig" worden nadat ze in zo'n case zijn verdwenen. Wat de ervaring bij jullie..? (bron oa: http://forum.highflow.nl/...oolermaster-552/#post5219 )
Member of the Ukraine IT Army
Ik merk weinig van dat trillerige. Ik heb er 4x 2TB samsung in hangen.NIK0 schreef op maandag 10 oktober 2011 @ 16:07:
[...]
Zie je wel...ben ik toch niet helemaal lijp..ben nog steeds op zoek naar die build van de tweaker die groene en rode tape in z'n kast heeft geplakt...die 300+ pagina's beginnen toch te nekken zo langzamerhand. (of was het dan toch het 10TB topic ? )
Daarnaast nog een vraagje. Ik lees nogal wat tegenstrijdige berichten over die 4-in-3 modules van Cooler Master. De schijven zouden nogal "trillerig" worden nadat ze in zo'n case zijn verdwenen. Wat de ervaring bij jullie..? (bron oa: http://forum.highflow.nl/...oolermaster-552/#post5219 )
Dè developers podcast in je moerstaal : CodeKlets Podcast
Ik heb enkel ervaring met het oudere type 4-in-3 device module van CM zonder dat fancy frontje. Ondanks dat ze niet vastgeschroefd zitten in de Stacker ST-101 (maar dmv een glijstrip op de 4-in-3 module en de retentie clips van de kast) heb ik geen last van trillingen, noch van de kast noch van de schijven. ( 3 stuks onder elkaar, 2 modules vol met 2 TiB WD EARS en eentje met 2x een 2TiB EARS en een 36GB WD Raptor ).NIK0 schreef op maandag 10 oktober 2011 @ 16:07:
[...]
Zie je wel...ben ik toch niet helemaal lijp..ben nog steeds op zoek naar die build van de tweaker die groene en rode tape in z'n kast heeft geplakt...die 300+ pagina's beginnen toch te nekken zo langzamerhand. (of was het dan toch het 10TB topic ? )
Daarnaast nog een vraagje. Ik lees nogal wat tegenstrijdige berichten over die 4-in-3 modules van Cooler Master. De schijven zouden nogal "trillerig" worden nadat ze in zo'n case zijn verdwenen. Wat de ervaring bij jullie..? (bron oa: http://forum.highflow.nl/...oolermaster-552/#post5219 )
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Ik heb het volgende commando gedaan op /dev/sdb;FireDrunk schreef op maandag 10 oktober 2011 @ 13:36:
SDB heeft een flinke queue... SMART eens uitlezen van SDB?
1
| sudo smartctl -a /dev/sdb |
En dit is de informatie die daar uit rolde;
1
2
3
4
5
6
7
8
9
10
11
| === START OF INFORMATION SECTION === Device Model: SAMSUNG HD204UI Serial Number: S2H7J90B621218 Firmware Version: 1AQ10001 User Capacity: 2,000,398,934,016 bytes Device is: Not in smartctl database [for details use: -P showall] ATA Version is: 8 ATA Standard is: ATA-8-ACS revision 6 Local Time is: Mon Oct 10 17:27:53 2011 CEST SMART support is: Available - device has SMART capability. SMART support is: Enabled |
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
| SMART Attributes Data Structure revision number: 16 Vendor Specific SMART Attributes with Thresholds: ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x002f 100 100 051 Pre-fail Always - 2749 2 Throughput_Performance 0x0026 252 252 000 Old_age Always - 0 3 Spin_Up_Time 0x0023 068 067 025 Pre-fail Always - 9980 4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 13 5 Reallocated_Sector_Ct 0x0033 252 252 010 Pre-fail Always - 0 7 Seek_Error_Rate 0x002e 252 252 051 Old_age Always - 0 8 Seek_Time_Performance 0x0024 252 252 015 Old_age Offline - 0 9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 1112 10 Spin_Retry_Count 0x0032 252 252 051 Old_age Always - 0 11 Calibration_Retry_Count 0x0032 252 252 000 Old_age Always - 0 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 13 181 Program_Fail_Cnt_Total 0x0022 100 100 000 Old_age Always - 499210 191 G-Sense_Error_Rate 0x0022 252 252 000 Old_age Always - 0 192 Power-Off_Retract_Count 0x0022 252 252 000 Old_age Always - 0 194 Temperature_Celsius 0x0002 059 054 000 Old_age Always - 41 (Lifetime Min/Max 20/47) 195 Hardware_ECC_Recovered 0x003a 100 100 000 Old_age Always - 0 196 Reallocated_Event_Count 0x0032 252 252 000 Old_age Always - 0 197 Current_Pending_Sector 0x0032 252 252 000 Old_age Always - 0 198 Offline_Uncorrectable 0x0030 252 252 000 Old_age Offline - 0 199 UDMA_CRC_Error_Count 0x0036 200 200 000 Old_age Always - 0 200 Multi_Zone_Error_Rate 0x002a 001 001 000 Old_age Always - 216672 223 Load_Retry_Count 0x0032 252 252 000 Old_age Always - 0 225 Load_Cycle_Count 0x0032 100 100 000 Old_age Always - 13 SMART Error Log Version: 1 No Errors Logged |
Ik weet niet of het normaal is dat er old age staat? Ik ben zelf nog niet zo bekend met smartctl. Voordat ik de extra schijf erbij propte leek de array + disks gewoon in orde te zijn. Er wordt ook aangeven dat ze gewoon allemaal werken en dat er geen één schijf gefaald is in de array status check.
Verwijderd
In jouw geval zie ik alleen Multi_Zone_Error_Rate wat relatief hoog is voor zo'n nieuwe schijf. Dat betekent dus 200 schrijffouten per uur dat de schijf draaiend is. Dat is wel erg hoog.
Oke bedankt voor de uitleg. Ik ben mijn rot aan het googlen naar een mogelijke oplossing voor het versnellen van die reshape tijd want het gaat nog steeds met 2Mb/s. Maar denken jullie dat dit een configuratie probleem is of dat het echt aan de hardware ligt waardoor het reshapen zo langzaam gaat?Verwijderd schreef op maandag 10 oktober 2011 @ 17:47:
Old_age of Pre-fail geeft aan wat voor type variabele het om gaat. Old_age is geen directe aanwijzing dat je schijf op sterven ligt maar simpelweg een teken van ouderdom, terwijl Pre-fail een variabele is die aangeeft dat je schijf op sterven ligt. Maar dat is dus het type variabele; pas als de Value onder de Thresh(old) komt dan geeft de variabele een failure aan, en krijg je in "WHEN_FAILED" iets te zien als FAILING NOW.
In jouw geval zie ik alleen Multi_Zone_Error_Rate wat relatief hoog is voor zo'n nieuwe schijf. Dat betekent dus 200 schrijffouten per uur dat de schijf draaiend is. Dat is wel erg hoog.
Verwijderd
Oke. Dus jij zegt eigenlijk;Verwijderd schreef op maandag 10 oktober 2011 @ 18:12:
Zou prima door de Multi_Zone_Error_Rate kunnen komen, als het schrijven van een sector elke keer overnieuw moet gebeuren. Persoonlijk zou ik de schijf RMA'en. Je hebt waarschijnlijk een niet zo lekker exemplaar. Dat gezegd, heb ik nog niet zoveel ervaring met dit type SMART attribuut.
- Reshape afmaken
- array decreasen
- disk RMA sturen
Of begrijp ik dat verkeerd ? Want voordat ik de array dus ging vergroten is mij nog nooit wat opgemerkt. Omdat de status van de array gewoon zei dat alle schijven naar behoren werkten. Dus ik kom er pas nu met het bijplaatsen van die schijf achter dat die eerste schijf schijnbaar niet helemaal lekker is.
Het is inmiddels wat maanden later, ben je er nog achter gekomen wat het probleem was?KennieNL schreef op woensdag 02 maart 2011 @ 10:25:
Ik draai nu al een een tijdje 3 x 1TB in RAID5 op Ubuntu via mdamd.
Nu doe ik af een toe een check op mn raidset (echo check /sys/block/md0/md/sync_action), maar als ik dit doe loopt mn log redelijk vol foutmeldingen:
[...]
etc.
Nu weet ik dat er altijd badblocks etc op een disk zitten, maar toch baat ik me zorgen bij als ik dit soort meldingen zie.
Volgens SMART zijn mn disken nog OK, alleen de Hardware_ECC_Recovered zijn op alle 3 disken erg hoog.
Wat zou ik nog meer kunnen controleren om zeker te weten dat mn RAID set nog goed is?
En is het verstandig om af en toe een repair uit te voeren ipv een check.
Het is in ieder geval niet RAID gerelateerd. Ik heb het nu ook met een niet-RAID disk. Het is een bug die al 5 versies van Ubuntu meegaat die zich voordoet bij bepaalde hardwarecombinaties.
Zie ook deze bug en mijn reactie #87.
Ik zit met mijn handen in het haar, naja niet echt natuurlijk want ik ben deze reactie aan het typen, maar na het lezen over deze meldingen icm datacorruptie kan ik nog steeds mijn htpc/NAS niet gebruiken.
🇪🇺 Buy from EU (GoT)
Damn dat is niet best waar had je 'm besteld..?zzattack schreef op maandag 10 oktober 2011 @ 19:24:
gvd.. Eindelijk, bijna 2 weken te laat, m'n ServeRAID M1015 binnengekregen, issie DOA. Brackets ontbraken ook nog. De plaatsing van de SAS poorten is ook fenomenaal waardeloos; i.t.t. tot vrijwel iedere controller die ik gezien heb heeft deze de poorten bijna helemaal aan de achterkant van de kaart zitten. Mega design fout als je het mij vraagt want m'n SFF8087 kabels zijn gewoon te kort, en als ze al zouden passen moeten ze nog wel een vervelende hoek maken van 90°. Geen aanrader, imho.
Weet je zeker dattie DOA is en niet dat je moederbord 'm misschien niet lust..? (las eerder dat bij het flashen van de kaart ook dit soort zaken naar boven kwamen)
Dat van die plaatsing vd poorten zal afhangen per kast denk ik.
[ Voor 14% gewijzigd door NIK0 op 10-10-2011 20:26 . Reden: vraag toegevoegd ]
Member of the Ukraine IT Army
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Bij Max-ICT. Ik heb de kaart in 2 verschillende pc's geprobeerd. Heb je toevallig een link o.i.d. met info over dat lussen en of daar iets aan is te doen?NIK0 schreef op maandag 10 oktober 2011 @ 20:03:
Damn dat is niet best waar had je 'm besteld..?
Weet je zeker dattie DOA is en niet dat je moederbord 'm misschien niet lust..? (las eerder dat bij het flashen van de kaart ook dit soort zaken naar boven kwamen)
Dat van die plaatsing vd poorten zal afhangen per kast denk ik.
Hmm, dit ging meer over het flashen maar 1-duidig is het dus niet:zzattack schreef op maandag 10 oktober 2011 @ 21:11:
[...]
Bij Max-ICT. Ik heb de kaart in 2 verschillende pc's geprobeerd. Heb je toevallig een link o.i.d. met info over dat lussen en of daar iets aan is te doen?
Pantagruel in "Storage showoff topic - 10+ TB storage systems"
Word je hele kaart niet gezien als je door de POST heen gaat?
In wat voor mobo's heb je 'm gestopt, welke sloten?
Bij DOA neem ik aan dat er ook geen lampjes gaan branden op de kaart?
[ Voor 5% gewijzigd door NIK0 op 10-10-2011 22:24 ]
Member of the Ukraine IT Army
Dat de controller DOA is zuigt, mbt de ontbrekende brackets, even je bestelling na kijken en contact opnemen met de shop (als je via Ebay een server pull koopt kan ik nog wel snappen dat een bracket ontbreekt)zzattack schreef op maandag 10 oktober 2011 @ 19:24:
gvd.. Eindelijk, bijna 2 weken te laat, m'n ServeRAID M1015 binnengekregen, issie DOA. Brackets ontbraken ook nog. De plaatsing van de SAS poorten is ook fenomenaal waardeloos; i.t.t. tot vrijwel iedere controller die ik gezien heb heeft deze de poorten bijna helemaal aan de achterkant van de kaart zitten. Mega design fout als je het mij vraagt want m'n SFF8087 kabels zijn gewoon te kort, en als ze al zouden passen moeten ze nog wel een vervelende hoek maken van 90°. Geen aanrader, imho.
Tja, de lay-out van de M1015 verschilt inderdaad nogal van bijv. de SASUC 8i/ IBM BR10i, maar met alle respect, de irritatie rondom lay-out van de kaart en de plaats van de SFF8087 aansluitingen, was eenvoudig te voorkomen door even de kaart te googlen of Ebay af te struinen of zoek naar wat foto's.
Persoonlijk heb ik geen moeite om tot bovenin m'n Stacker ST-101 te komen met een 50cm SFF8087->4x SATA kabel (X9SCM-F mobo, bovenste PCIe 8x slot). OK, het kabel management in de server is niet echt piekfijn, maar dat streef ik ook niet na in de server.
Vers uit de doos deden de 2 server pulls die ik heb gehad het direct in alle 3 de genoemde moederborden en presenteerde zich als RAID controller en waren volledig benaderbaar (ctrl+c drukken om controller BIOS in te komen). Het flashen was uiteindelijk een stoelendans met een goed einde, maar dit staat los van het initiële functioneren.NIK0 schreef op maandag 10 oktober 2011 @ 22:23:
[...]
Hmm, dit ging meer over het flashen maar 1-duidig is het dus niet:
Pantagruel in "Storage showoff topic - 10+ TB storage systems"
Word je hele kaart niet gezien als je door de POST heen gaat?
In wat voor mobo's heb je 'm gestopt, welke sloten?
Bij DOA neem ik aan dat er ook geen lampjes gaan branden op de kaart?
Dat heeft alle schijn van een dode controller. Max ICT laat op de website eigenlijk niets los over de leveringsomvang van de controller. De foto suggereert dat de controller voorzien zou zijn van een full height bracket.zzattack schreef op maandag 10 oktober 2011 @ 22:50:
Nee, geen lampjes, en tijdens het opstarten ook niets dat duidt op enig teken van leven van de kaart
[ Voor 30% gewijzigd door Pantagruel op 10-10-2011 23:11 . Reden: added info. ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
1
2
3
4
5
6
7
| root@iDATASTORE:/home/neopatch# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sde[3] sdb[0](F) sdd[2] sdc[1]
3907026432 blocks super 1.2 level 5, 256k chunk, algorithm 2 [4/3] [_UUU]
[===============>.....] reshape = 77.8% (1519916288/1953513216) finish=93.1min speed=77576K/sec
unused devices: <none> |
77.5Mb/s per seconden is toch wat fijner reshapen dan 2Mb/s
Dat is nogal een vooruit gang. Ik heb volgende commando uitgevoerd om tot dit resultaat te komen;
1
| echo 50000 > /proc/sys/dev/raid/speed_limit_min |
--UPDATE:
CiPHER had toch gelijk ik kijk nu net mijn raid array na en zie dat er 1 disk gefailed is.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
| Version : 1.2
Creation Time : Sun Aug 28 03:40:07 2011
Raid Level : raid5
Array Size : 3907026432 (3726.03 GiB 4000.80 GB)
Used Dev Size : 1953513216 (1863.02 GiB 2000.40 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Wed Oct 12 19:21:38 2011
State : clean, degraded, recovering
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 256K
Reshape Status : 88% complete
Delta Devices : 1, (3->4)
Name : iDATASTORE:0 (local to host iDATASTORE)
UUID : fc899537:7c69c62c:dfe6f879:bc04bc05
Events : 24358
Number Major Minor RaidDevice State
0 8 16 0 faulty spare rebuilding /dev/sdb
1 8 32 1 active sync /dev/sdc
2 8 48 2 active sync /dev/sdd
3 8 64 3 active sync /dev/sde |
[ Voor 42% gewijzigd door Neopatch op 12-10-2011 19:24 ]
Er zijn er wat bij gekomen, en wat weg. Maar mn realloced sector count blijft 0Sando schreef op maandag 10 oktober 2011 @ 18:52:
[...]
Het is inmiddels wat maanden later, ben je er nog achter gekomen wat het probleem was?
Het is in ieder geval niet RAID gerelateerd. Ik heb het nu ook met een niet-RAID disk. Het is een bug die al 5 versies van Ubuntu meegaat die zich voordoet bij bepaalde hardwarecombinaties.
Zie ook deze bug en mijn reactie #87.
Ik zit met mijn handen in het haar, naja niet echt natuurlijk want ik ben deze reactie aan het typen, maar na het lezen over deze meldingen icm datacorruptie kan ik nog steeds mijn htpc/NAS niet gebruiken.
Dus hoe erg het is, geen idee...
Maar het ergste is dat ik nog 2x2tb heb liggen welke ik al een paar maanden probeer in te zetten, maar er nog niet over uit ben welk FS
Verwijderd
Het is juist de Current Pending Sector die voor problemen kan zorgen, en UDMA CRC Error Count wat een indicatie is voor kabelproblemen. Zoals zovaak bij (vermoede) problemen van de hardeschijf kan het kijken naar de SMART gegevens veel zeggen in welke hoek je de problemen kan zoeken. dus ik raad aan dat je de output post van het commando smartctl -A /dev/....
(hoofdletter A krijg je alleen de relevante data)
Ah, that would be me. Althans, als je QuinFTP Gen 6.5 bedoelt, zoals je hier kunt vinden. De rode en groene tape was om 2 verschillende power paden aan te geven. De hotswap bays (van chieftec) kun je namelijk met 2x molex voeden.NIK0 schreef op maandag 10 oktober 2011 @ 16:07:
[...]
Zie je wel...ben ik toch niet helemaal lijp..ben nog steeds op zoek naar die build van de tweaker die groene en rode tape in z'n kast heeft geplakt...die 300+ pagina's beginnen toch te nekken zo langzamerhand. (of was het dan toch het 10TB topic ? )
Zo had ik dus een rode voedings draad en een groene en 1 volledige draad kon uitvallen zonder dat dit invloed had op de disks.
Beetje show uiteindelijk, aangezien ik een voeding heb met 1 x 12v voedings rail. Maar toch. Kabel fouten heb je op die manier ondervangen en vond het gewoon cool.
Ik zag dat je me inmiddels ook gemailed hebt, daar zal ik nog eventjes naar kijken!
[ Voor 4% gewijzigd door Quindor op 12-10-2011 22:24 ]
Ik heb trouwens mijn goedkope ebay rode satakabel vervangen door een wat duurdere gele met stevige veiligheidsclipjes (ofzo) en nu zijn bij mij die foutmeldingen weg!KennieNL schreef op woensdag 12 oktober 2011 @ 18:43:
[...]
Er zijn er wat bij gekomen, en wat weg. Maar mn realloced sector count blijft 0
Dus hoe erg het is, geen idee...
Maar het ergste is dat ik nog 2x2tb heb liggen welke ik al een paar maanden probeer in te zetten, maar er nog niet over uit ben welk FS
Tenminste.. vooralsnog.
🇪🇺 Buy from EU (GoT)
Heb hier een Fujitsu Siemend HBA liggen wat eigenlijk een rebranded 9240-8i is, welke een LSI2008 bevat.
Ik heb een manual gevonden waarmee je de controller naar IT mode moet kunnen flashen, maar ik blijf hangen bij het flashen van de nieuwe firmware.
http://forums.servethehom...=1896&viewfull=1#post1896
Bij de stap: sas2flash -o -f 2108it.bin -b mptsas.rom zegt de tool dat hij geen controller kan vinden.
Terwijl megarec -adplist wel de controller list.
Iemand een idee?
Even niets...
Staan er nog rare dingen bij de -listall, of ziet sas2flsh hem bijvoorbeeld helemaal niet?
Even niets...
Aah had het idd wel kunnen weten dat jij het moest zijnQuindor schreef op woensdag 12 oktober 2011 @ 22:23:
[...]
Ah, that would be me. Althans, als je QuinFTP Gen 6.5 bedoelt, zoals je hier kunt vinden. De rode en groene tape was om 2 verschillende power paden aan te geven. De hotswap bays (van chieftec) kun je namelijk met 2x molex voeden.
Zo had ik dus een rode voedings draad en een groene en 1 volledige draad kon uitvallen zonder dat dit invloed had op de disks.
Beetje show uiteindelijk, aangezien ik een voeding heb met 1 x 12v voedings rail. Maar toch. Kabel fouten heb je op die manier ondervangen en vond het gewoon cool.Zeker ook omdat ik alles uiteindelijk netjes gelabeld had en het mooi onder de afdek plaat van de case weg viel.
Ik zag dat je me inmiddels ook gemailed hebt, daar zal ik nog eventjes naar kijken!
Heb je net nog even gemaild met nog wat aanvullende zaken..
Member of the Ukraine IT Army
Verwijderd
Twee RAID-Z2 arrays van elk 10 disks is een goede keuze, met name voor 4K sector disks. Ook heb je dan maar 4 disks redundantie maar wel goede bescherming.
Overigens ben ik niet zo'n voorstander van expanders; dat lijkt me geen goede setup. Veel beter is meerdere HBAs; dat moet toch lukken met 24 disks? Ik weet niet welke hardware je al hebt, maar een SuperMicro bord met 14 SATA heb je met één controller dus al 22 SATA poorten. ZFS is juist de oplossing die het meeste performanceverlies kent bij gebruik van expanders en andere technieken die de dedicated pipe naar elke fysieke disk verstoren.
Ik zal thuis een duik nemen in de andere IT firmware (9210-8i als ik me niet vergis) welke ik succesvol in een M1015 heb kunnen flashen, is wellicht ook iets voor de FujSiem HBA.FireDrunk schreef op donderdag 13 oktober 2011 @ 08:48:
Nog mensen die ervaring hebben in het flashen van IT firmware op een Rebranded LSI2008 controller?
Heb hier een Fujitsu Siemend HBA liggen wat eigenlijk een rebranded 9240-8i is, welke een LSI2008 bevat.
Ik heb een manual gevonden waarmee je de controller naar IT mode moet kunnen flashen, maar ik blijf hangen bij het flashen van de nieuwe firmware.
http://forums.servethehom...=1896&viewfull=1#post1896
Bij de stap: sas2flash -o -f 2108it.bin -b mptsas.rom zegt de tool dat hij geen controller kan vinden.
Terwijl megarec -adplist wel de controller list.
Iemand een idee?
Zipped firmware is hier te downen. Google wilde niet zo gauw wat info uitspugen mbt de FujSiem HBA, kom enkel modellen tegen met 2 externe aansluitingen.
[ Voor 11% gewijzigd door Pantagruel op 13-10-2011 20:11 . Reden: firmware ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
No way dat ik zo'n sticker heb
Even niets...
Heb je dat nummer niet overgeschreven nadat je dit in het BIOS van de controller hebt opgezocht??FireDrunk schreef op donderdag 13 oktober 2011 @ 20:23:
Is ook niet echt een duidelijk verhaal... op serverthehome heeft een van de members het over een groene sticker met het sasaddress erop.
No way dat ik zo'n sticker heb
Zo nee, da's handig
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Maar heb wel in de logs een nummer gevonden wat er op leek (onder windows
Ik kom met jouw versie wel iets verder, maar hij zegt:
"Failed to validate MfgPage2!"
Even niets...
Iemand binnen het ServeTheHome forum heeft iets soortgelijks gehad toen hij een Dell h200 direct van LSI IT firmware wilde voorzien. Dit blijkt niet te willen werken, om het uiteindelijk voor elkaar te krijgen heeft hij er eerst de Dell IT firmware in geflashed en daarna de LSI IT firmware. Wellicht is dit ook de te bewandelen weg voor jouw FujSiem HBA.FireDrunk schreef op donderdag 13 oktober 2011 @ 20:48:
Ik heb geen nummer opgeschreven omdat die tool dat niet detecteerd...
Maar heb wel in de logs een nummer gevonden wat er op leek (onder windows)
Ik kom met jouw versie wel iets verder, maar hij zegt:
"Failed to validate MfgPage2!"
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Even proberen
Even niets...
LOL, cross flash van een FujSiem HBA met Dell fw van de H200.FireDrunk schreef op donderdag 13 oktober 2011 @ 21:13:
Heb net de H200i firmware geprobeerd, maar dat lukte ook niet. Heb nu een FujSiem IT image gevonden (lijkt het).
Even proberen
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Maar wel anders success
De controller doet het dus nog...
Nu nog even kijken of ik de H200i image met megarec kan flashen
Even niets...
Als je er inmiddels de FS IT fw in hebt geflashed, kun je een poging wagen om er de LSI IT fw in te branden. Die Dell H200 stond in de forum post waar dezelfde foutmelding de kop op stak en was dus puur illustratief in dit geval.FireDrunk schreef op donderdag 13 oktober 2011 @ 21:30:
Nah, dat lukte ook niet.
Maar wel anders successop de FS site de nieuwste rom gevonden en die via megarec wel kunnen flashen.
De controller doet het dus nog...
Nu nog even kijken of ik de H200i image met megarec kan flashen
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
De search continues...
Even niets...
Mmm prut, zuigt.FireDrunk schreef op donderdag 13 oktober 2011 @ 21:44:
Was helaas geen IT, maar IR firmware, en de controller boot er niet mee (nog geen BIOS volgens mij).
De search continues...
Misschien kun je van de FS IR fw naar LSI IR fw en dan naar LSI IT fw?
[ Voor 12% gewijzigd door Pantagruel op 13-10-2011 21:47 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Ook erg handig topic.
Krijg ook de imr_fw.rom LSI IR image er op, maar booten doet hij niet.
sas2flsh ziet de adapter wel, maar als ik info opvraag krijg ik gaan sas address terug en geen firmware info...
[ Voor 36% gewijzigd door FireDrunk op 13-10-2011 22:17 ]
Even niets...
Veel sterkte ermee in ieder geval
Even niets...
Handige thread en een nette prijs voor de controller, als flashen dan lukt heb je voor een habbekrats een bruikbare IT controller om te gebruiken in een ZFS bak.FireDrunk schreef op donderdag 13 oktober 2011 @ 22:39:
Och, ik vind het leuk, en kon hem voor een prikkie overnemen(<€100 volgens mij)
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Door een goede SBR te flashen...
Heb een screenshot waarin de controller denkt dat hij een PowerEdge Expandable Raid Controller is...
Even niets...
LOL, een controller met een identiteitscrisisFireDrunk schreef op donderdag 13 oktober 2011 @ 22:57:
Weer een stapje verder, ik weet hoe ik de controller weer aan de praat moet krijgen...
Door een goede SBR te flashen...
Heb een screenshot waarin de controller denkt dat hij een PowerEdge Expandable Raid Controller is...
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.