Klopt, en geduld heb ik uiteraard wel.Verwijderd schreef op zondag 03 april 2011 @ 15:47:
dat is de software die je bij je raid kaart kreeg neem ik aan ? .. en even geduld hebben..
Ik vond het toch vreemd dat hij die error gaf en dat ik vervolgens de server opnieuw moest starten, en dat hij dus daarna doodleuk door gaat met het initialiseren.
Verwijderd
Ik ga natuurlijk niet wachten totdat hij 100% aangeeft maar op foto 2 kun je die melding zien die hij aangaf.Verwijderd schreef op zondag 03 april 2011 @ 15:58:
idd vreemd.. wellicht dacht je te snel dat de initialisatie hing .. verder zie ik op dat screenshot een tabje 'diagnostics
Op dat moment van de melding van mijn 'E' partitie ook niet meer aanwezig.
Na de herstart leek alles weer in orde doordat hij doorging met de initialisatie.
Even niets...
Mhm vreemd, maar we gaan door!FireDrunk schreef op zondag 03 april 2011 @ 16:24:
Mjah, ik heb met die kaart dat probleem nooit gehad... Die initialisatie duurt wel tering lang
Ik houd het in me achterhoofd mocht er nog een keer iets gebeuren.
Even niets...
Ik weet dat je de accu bedoeld maar opladen heb ik niet gedaan.. Ik heb de server wel een dag idle laten draaien indien dat ook onder opladen valt.FireDrunk schreef op zondag 03 april 2011 @ 16:35:
Heb je de kaart eerst even laten opladen voor je hem aan het werk zette? En heb je de nieuwste HP Drivers geinstalleerd?
Nieuwste HP drivers zijn wel geinstalleerd.
@DJ-Visto
De volgende maand zal ik dat eens gaan doen. voor nu doe ik het met 3x2TB.
Volgende maand komen er nog 3x2TB schijven bij.
[ Voor 20% gewijzigd door Birdie_NL op 03-04-2011 16:55 ]
Even niets...
Verwijderd
hard aan het zingen ?FireDrunk schreef op zondag 03 april 2011 @ 17:32:
Hmm, ik vraag me af waar dit vandaan komt:
[afbeelding]
waar kijken we naar ?
[ Voor 4% gewijzigd door Verwijderd op 03-04-2011 17:39 ]
[ Voor 52% gewijzigd door FireDrunk op 03-04-2011 17:40 ]
Even niets...
Verwijderd
snappik.. wat is er mis dan ?FireDrunk schreef op zondag 03 april 2011 @ 17:40:
Mijn fileserver... Disk IO in MB/s?
[ Voor 12% gewijzigd door Verwijderd op 03-04-2011 17:41 ]
Hij is idleVerwijderd schreef op zondag 03 april 2011 @ 17:40:
snappik.. wat is er mis dan ? ow idkle .. idd vreemd
Even niets...
Verwijderd
[ Voor 24% gewijzigd door Verwijderd op 03-04-2011 17:43 ]
Even niets...
Verwijderd
ik heb ook gekke dingen hier.
gisteren met 3x 2 tb diskjes een raidz op freenas rcr4..leuk, werkt, daarna dacht ik even de nieuwe ZFSguru te proberen, heb de disk dus niet gewist maar alleen filesysteem vervangen.
dacht maak gewoon een nieuwe pool aan.
klap boem..tik tik tik.. 2 disks overleden alleen de nieuwe 204 heeft het overleefd.
enfin.. disks zijn beide niet meer te formatteren en ik snap er niets van.
Grafiekjes komen trouwens uit Zabbix niet uit MDADM
root@CRAVUFS01:~# mdadm --detail /dev/md0
/dev/md0:
Version : 00.90
Creation Time : Mon Feb 7 13:49:57 2011
Raid Level : raid6
Array Size : 8790830976 (8383.59 GiB 9001.81 GB)
Used Dev Size : 1465138496 (1397.26 GiB 1500.30 GB)
Raid Devices : 8
Total Devices : 8
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Sun Apr 3 18:01:59 2011
State : active, recovering
Active Devices : 8
Working Devices : 8
Failed Devices : 0
Spare Devices : 0
Chunk Size : 64K
Rebuild Status : 33% complete
UUID : 2d4e106f:56fee0d0:7b12f340:0a3ce0fd (local to host CRAVUFS01)
Events : 0.46
Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
1 8 32 1 active sync /dev/sdc
2 8 48 2 active sync /dev/sdd
3 8 64 3 active sync /dev/sde
4 8 80 4 active sync /dev/sdf
5 8 96 5 active sync /dev/sdg
6 8 112 6 active sync /dev/sdh
7 8 128 7 active sync /dev/sdi
root@CRAVUFS01:~#
hmm, dit zou wel eens wat verklaren
[ Voor 84% gewijzigd door FireDrunk op 03-04-2011 18:02 ]
Even niets...
Verwijderd
en idd toevallig dat alleen de 'oude' 203's het begeven hebben.
* idd
maar 'recovering' .. hoe zoek je nu uit waarvan/waarom ect ?
[ Voor 20% gewijzigd door Verwijderd op 03-04-2011 18:07 ]
Volgens de documentatie van MDADM zou elke disk failure in /var/log/messages moeten staan.
cat /var/log/messages* | grep raid levert niets spannends op.
cat /var/log/messages* | grep sync levert niets spannends op.
cat /var/log/messages* | grep dev levert niets spannends op.
WTF, 'degraded' (als mijn array dat al is) haalt hij nog 530MB/s lezen en 313MB/s schrijven
[ Voor 85% gewijzigd door FireDrunk op 03-04-2011 21:43 ]
Even niets...
Verwijderd
ja wrijf het er maar inWTF, 'degraded' (als mijn array dat al is) haalt hij nog 530MB/s lezen en 313MB/s schrijven
Hoi,FireDrunk schreef op zondag 03 april 2011 @ 18:09:
Ja geen idee... Ik ga eens op zoek naar wat logs...
Volgens de documentatie van MDADM zou elke disk failure in /var/log/messages moeten staan.
cat /var/log/messages* | grep raid levert niets spannends op.
cat /var/log/messages* | grep sync levert niets spannends op.
cat /var/log/messages* | grep dev levert niets spannends op.
WTF, 'degraded' (als mijn array dat al is) haalt hij nog 530MB/s lezen en 313MB/s schrijven
Er is niets aan de hand gezien het feit dat alle disks 'active sync' zijn.
Check je /etc/cron.d/mdadm eens. Periodiek loopt een checkarray script.
Dat script start periodiek, eens per maand, een consistency check van je array.
cat /sys/block/md?/md/sync_action
Kan 'idle' of 'check' zijn of anders.
[ Voor 4% gewijzigd door Q op 03-04-2011 22:39 ]
Even niets...
Verwijderd
de reden ligt in de bios en met name de EFI 1.10 specificatie die in de nieuwste moederboarden te vinden is en waar oudere controllers niet mee overweg kunnen.Arnoud1 schreef op donderdag 24 maart 2011 @ 10:38:
Net mijn de bios ge-update van die ASUS E-35M, maar hij start nog steeds niet met die controller
( met dank aan michiel.686 voor het ontdekken/melden hiervan !)
dit probleem kan zich dus ook voordoen op een ander merk mobo en dit verklaart ook waarom die SASUC8I controller op oudere mobo's wel werkt in het 16x slot.((oudere bios zonder uefi)
Ik heb mijn conclusie getrokken en die is dat ASUS deze 'bug' niet zal kunnen oplossen, er zijn immers momenteel ook vergelijkbare controllers die wel werken. (adaptec 3805)
op het net gaan stemmen op om een soort lijst te publiceren welke mobo's nog wel voldoen aan de 'oude' specifikatie en waarop 'non-gpu' hardware werkt in het 16x slot.
Ik heb inmiddels een ander matx mobootje besteld die het wel zou moeten doen met de LSI controller : MSI H55 ED55
vrijdag meer, en voor nu :
TK ASUS E35M1-M PRO - Moederbord
nieuw in doos...alleen op de keukentafel gestaan
[ Voor 69% gewijzigd door Verwijderd op 05-04-2011 10:52 ]
Om er maar even op terug te komen, om 01.00 was het zo ver..eindelijk finished.FireDrunk schreef op zondag 03 april 2011 @ 17:04:
Ik, vaak zat, werkt prima, duurt alleen errug lang
Heerlijk die snelheden.. met de gedachte van wat ik eerst had met een nasje.
Even niets...
Dat doet MDADM regelmatig om te kijken of je bitjes nog allemaal overeind staan (mits er parity/redundancy is natuurlijk). Je kunt je array gewoon blijven gebruiken alsof er niks aan de hand is: hij gebruikt alleen idle bandwidth en je array is niet degraded.
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Even niets...
Voorheen was het vooral geratel
Even niets...
Moeten we hier net als op HardForum anders een hall of fame maken met een lijst van welke DIY RAID NASsen er allemaal gebouwd zijn door tweakers?
Even niets...
Verwijderd
Vind ik geen slecht idee, al is het maar om ideeën op te doen qua hardware/software compatibiliteit.FireDrunk schreef op maandag 04 april 2011 @ 18:56:
Whatever, het zijn hotswap bays
Moeten we hier net als op HardForum anders een hall of fame maken met een lijst van welke DIY RAID NASsen er allemaal gebouwd zijn door tweakers?
Even niets...
Even niets...
Ik zou graag ook benchmarks erbij zien. Liefst iperf en een overdrachtsbenchmark (sequentieel als ook random read & writes)!
Ik ben geheel voldaan, dank u wel!
Even niets...
Ik ben geheel voldaan, dank u wel!
| <servernaam>: | ||
|---|---|---|
| Onderdeel: | Type: | Reden: |
| Moederbord: | <moederbord> | <reden> |
| CPU: | <CPU> | <reden> |
| Geheugen: | <Geheugen> | <reden> |
| Storage: | ||
| Controller: | <Controller> | <reden> |
| Disks: | <Disks> | <reden> |
| RAID: | <RAID> | <reden> |
| Filesystem: | <Filesystem> | <reden> |
| Benchmarks: | Lezen: | Schrijven: |
| Netwerk: | <MB/s> | <MB/s> |
| Disk Sequentieel: | <MB/s> | <MB/s> |
| Disk Random: | <MB/s> | <MB/s> |
| Disk Random: | <IOPS> | <IOPS> |
| Verbruik: | ||
|---|---|---|
| Idle: | <Idle> | |
| Load: | <Load> | |
Zoiets?
[ Voor 18% gewijzigd door FireDrunk op 04-04-2011 20:05 ]
Even niets...
[ Voor 15% gewijzigd door analog_ op 04-04-2011 20:07 ]
Alles standaardiseren is nuttig, maar het moet ook leuk blijven om te posten zonder dat je een legio aan tests moet doen
We willen natuurlijk ook vooral plaatjes zien, als in 'het grote show je DIY RAID NAS topic'
Any intelligent fool can make things bigger, more complex, and more violent. It takes a touch of genius -- and a lot of courage -- to move in the opposite direction.
Verwijderd
VOORBEELD
[ Voor 67% gewijzigd door Verwijderd op 04-04-2011 22:45 ]
Verwijderd

om is te kijken of het wat is heb ik 1 pricewatch: Cooler Master 4-in-3 Device Module besteld en ik moet zeggen, voor 16,- prima
nou vind ik zo'n rebel 9 kastje pricewatch: Sharkoon Rebel9 Aluminium lekker strak en ik vraag mij af of ik er 3 cm cages in kan plaatsen .?
zou je onder de 100,- klaar zijn , die fan van die coolermaster is erg stil.
Geen probleem zo te zien : Naast de specs is er al iemand hier op GoT geweest die hetzelfde heeft gedaanBehuizing bay intern 9x 5.25"
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Verwijderd
ah ok.. ga ik (nog beter) zoeken.. wordt wel een lief 16 tb raidz2 doosje zonero355 schreef op dinsdag 05 april 2011 @ 12:46:
[...]
Geen probleem zo te zien : Naast de specs is er al iemand hier op GoT geweest die hetzelfde heeft gedaan
Verwijderd
kan het echt niet vinden.. had er graag een plaatje van geziennero355 schreef op dinsdag 05 april 2011 @ 12:46:
[...]
Geen probleem zo te zien : Naast de specs is er al iemand hier op GoT geweest die hetzelfde heeft gedaan
Gebruik 1 schijf voor het OS de rest in raid 5 dus er is zo'n 2TB ruimte.
http://www.comix.com.tw/products/RM/st_1041ss/st_1041ss.pdf
Zit eraan te denken de module te kopen die ik hierboven link met daarin 4x 1TB ( 2,5inch ).
Heb ik 3TB ruimte en het is allemaal een stuk kleiner en ziet er gewoon tof uit
Ik weet dat je voor een 1TB 2,5inch net zoveel betaald als voor een 2TB 3,5inch maar ik heb geen zeeën van ruimte nodig.
Waarom wil je persé 2.5" ? Want je kan toch ook gewoon 2 x 2TB in RAID1 doen
Even niets...
Verwijderd
gewoon.. omdat het kanFireDrunk schreef op dinsdag 05 april 2011 @ 13:43:
Je hebt die dingen ook heel goedkoop bij AzertyAddonics maakt ze ook.
Waarom wil je persé 2.5" ? Want je kan toch ook gewoon 2 x 2TB in RAID1 doenzelfde effect en prima veilig...
Verwijderd schreef op dinsdag 05 april 2011 @ 13:08:
kan het echt niet vinden.. had er graag een plaatje van gezien
Ik bedoelde eigenlijk deze denk ik : Ben De Wit in "Het grote DIY RAID NAS topic deel 3"
Maar er was ook nog iemand die het een klein beetje anders had gedaan geloof ik... effe kijken of ik die ook kan vinden
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Maar heb sinds kort 3 x een Addonics 4SA hotswap bay
Even niets...
Verwijderd
tnx.. ja het idee is ongeveer hetzelfde.nero355 schreef op dinsdag 05 april 2011 @ 16:35:
[...]
Ik heb wat dingen door elkaar gehaald
![]()
Ik bedoelde eigenlijk deze denk ik : Ben De Wit in "Het grote DIY RAID NAS topic deel 3"
Maar er was ook nog iemand die het een klein beetje anders had gedaan geloof ik... effe kijken of ik die ook kan vinden
Serieus, heb je al eens naar de prijs gekeken?
-Je betaalt nu 312+ euro voor 4x 1TB op 2.5" voor RAID5, effectief 3TB
-Je betaalt 307+ euro voor 2x 3TB op 3.5" voor RAID1, effectief 3TB (7200 is zelfs fractie goedkoper)
-Je betaalt 192+ euro voor 3x 2TB op 3.5" voor RAID5, effectief 4TB
Nu heeft iedere opstelling een interessant toepassingsgebied, maar als je werkelijk niet zoveel data opslag nodig hebt dan zou ik juist voor de tweede of derde optie kiezen. De snel veranderende data zet je op de schijf van je OS, de 3.5" blijven dan gewoon uit en eens in de zoveel tijd mag de data naar de 3.5" schijven.
Verwijderd
maar als je nou gewoon voor de fun (omdat het kan) zoiets wil bouwen.. en je kijkt niet op een paar honderd, wat maakt het dan uit ? lijkt mij ook wel kicken hoor een nasje met 2.5 diskjes .. coolDadona schreef op dinsdag 05 april 2011 @ 16:59:
[...]
Serieus, heb je al eens naar de prijs gekeken?
-Je betaalt nu 312+ euro voor 4x 1TB op 2.5" voor RAID5, effectief 3TB
-Je betaalt 307+ euro voor 2x 3TB op 3.5" voor RAID1, effectief 3TB (7200 is zelfs fractie goedkoper)
-Je betaalt 192+ euro voor 3x 2TB op 3.5" voor RAID5, effectief 4TB
Nu heeft iedere opstelling een interessant toepassingsgebied, maar als je werkelijk niet zoveel data opslag nodig hebt dan zou ik juist voor de tweede of derde optie kiezen. De snel veranderende data zet je op de schijf van je OS, de 3.5" blijven dan gewoon uit en eens in de zoveel tijd mag de data naar de 3.5" schijven.
Je mag ze gratis op komen halen hoorVerwijderd schreef op dinsdag 05 april 2011 @ 16:57:
[...]
bij mij pcies andersom
jaaaaaren geleden dat addonics spul in mijn eerste 'server' ..en nu (net zo plastic) CoolerMaster .. heb er nog 2 nodig.. verkoop je ze niet ?
[afbeelding]
Even niets...
Verwijderd
hahaha..tnx (maar voor die paar tientjes beter nieuw ivm herrie fannetje )
wat je af en toe moet sjekken is de temp van je middelste 2 diskjes in die addonics case.
ik had op een bepaald moment de sensor van een goedkoop digitaal thermometertje in de addonics behuizing gefrommeld en schrok me rot.
heb toen een extra fan op de achterkant van dat kastje gelijmd.. zag er niet uit maar koelde behoorlijk beter.. maar nogmaals ik spreek over een jaar of 5 geleden, misschien zijn ze inmiddels wat verbeterd.
(zal nog ff zoeken.. weet zeker dat ik daar een plaatje van heb.. ergens)
[ Voor 5% gewijzigd door Verwijderd op 05-04-2011 17:15 ]
Als hij het echt leuk vindt, prima. Maar te vaak zie ik de 'omdat het kan' redenering, om tegenspraak te voorkomen. Dit terwijl je misschien een ander inzicht kunt brengen waardoor het nog veel mooier kan zijn.Verwijderd schreef op dinsdag 05 april 2011 @ 17:02:
[...]
maar als je nou gewoon voor de fun (omdat het kan) zoiets wil bouwen.. en je kijkt niet op een paar honderd, wat maakt het dan uit ? lijkt mij ook wel kicken hoor een nasje met 2.5 diskjes .. cool
Maar gewoon 2.5" diskjes, geschreven vanuit de positie 'traag, verbruikt veel en teveel lawaai'. Ja een 3.5" gaat op de tweede en derde aspecten doorgaans minder scoren. Maar op performance vlak gaat zo'n schijf het wel winnen. Maar ook het verbruik en het lawaai vallen mee, zeker als je voor de 3TB versie kiest.
Maar om even mee te doen, 2.5" diskjes zijn inderaad erg leuk om te zien (meen ik echt
Pics ?? Misschien wel ... geen ideeFireDrunk schreef op dinsdag 05 april 2011 @ 16:38:
Bedoelde je mijn server? Ik had eerst 3 x zo'n Cooler Master 4-in-3 rack in mijn server.
Maar heb sinds kort 3 x een Addonics 4SA hotswap bay
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Verwijderd
ja zo bedoelde ik het ook .. minimini en geruisloosDadona schreef op dinsdag 05 april 2011 @ 17:16:
[...]
..
Maar om even mee te doen, 2.5" diskjes zijn inderaad erg leuk om te zien (meen ik echt). Maar in dat geval zou ik er ook een mini build bij zien, met een ITX of kleiner moederbord. Of zoiets als die casebuild die op Tweakers loopt, daarin is een 'rack' gebouwd met koelvinnen, 2.5" schijfjes, ... mooi. Daarnaast ook een mooie SSD en/of een bak aan RAM voor caching.
Zijn vrij stil hoorVerwijderd schreef op dinsdag 05 april 2011 @ 17:14:
[...]
hahaha..tnx (maar voor die paar tientjes beter nieuw ivm herrie fannetje )
Even niets...
Merci hiervoor. Straks eens nakijken. Ik was nog steeds op zoek. Asus wil niet meer antwoorden op mijn mails. Dom dat zij dergelijke antwoorden niet kunnen geven. De laatste reden dat Asus opgaf was omdat het een PCIe 8x kaartje was en dat werkt niet op een 16x @4x slot. Vraag mij af wie daar werkt, lijken mij geen al te slimme mensen..Verwijderd schreef op maandag 04 april 2011 @ 07:40:
[...]
de reden ligt in de bios en met name de EFI 1.10 specificatie die in de nieuwste moederboarden te vinden is en waar oudere controllers niet mee overweg kunnen.
( met dank aan michiel.686 voor het ontdekken/melden hiervan !)
dit probleem kan zich dus ook voordoen op een ander merk mobo en dit verklaart ook waarom die SASUC8I controller op oudere mobo's wel werkt in het 16x slot.((oudere bios zonder uefi)
Ik heb mijn conclusie getrokken en die is dat ASUS deze 'bug' niet zal kunnen oplossen, er zijn immers momenteel ook vergelijkbare controllers die wel werken. (adaptec 3805)
op het net gaan stemmen op om een soort lijst te publiceren welke mobo's nog wel voldoen aan de 'oude' specifikatie en waarop 'non-gpu' hardware werkt in het 16x slot.
Ik heb inmiddels een ander matx mobootje besteld die het wel zou moeten doen met de LSI controller : MSI H55 ED55
vrijdag meer, en voor nu :
TK ASUS E35M1-M PRO - Moederbord
nieuw in doos...alleen op de keukentafel gestaan
Ondertussen heb dat Intel kaartje op een Asus P5VD2 met Celeron D420 (tdp van 35watt) en dat werkt.
Oude nas net geback-upt (~6TB) en hopelijk binnenkort Free BSD erop...
De kaart die ik ontvangen had was toch een Intel SASUC8I, heb er de laatste Intel firmware op gezet, daarna die van LSI (IT). De firmware maakt bijna niets uit merk ik, en IR is eigenlijk IR/IT (kan dus beide aan) terwijl IT enkel IT aankan... Er was geen verschil tussen de JOBDs bij de 3 firmware's die ik getest heb. SMART werkt trouwens op geen enkele (met windows drivers).
Edit:
Net nagekeken, maar dit is het niet denk ik. EFI wordt gebruikt op vele intel servers waar die sasuc8i perfect op werkt. Er zijn drivers/firmware voor de sasuc8i speciaal voor EFI.
Zie ook:
http://www.intel.com/technology/efi/main_specification.htm
Kan michiel.686 laten weten wat hij precies bedoelt?
[ Voor 6% gewijzigd door Arnoud1 op 05-04-2011 18:18 ]
Overigens een bepaalde reden dat je JBOD doet? Zelf zou ik dat echt nooit doen ivm de afwezigheid van redundantie.
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
JBOD wordt onder andere gebruikt bij raid kaarten om aan te tonen dat er geen enkele vorm van raid benut wordt, maar de schijf/schijven wel geëxporteerd word(en) naar het OS. Dit op zich zegt niets over het al dan niet aanwezig zijn van schijf-redundantie op een ander niveau (e.g. software).HarmoniousVibe schreef op dinsdag 05 april 2011 @ 18:20:
Waar baseer je dat op? Dat de IR-firmware ook losse disks aan kan spreken wil nog niet perse zeggen dat hij ook hetzelfde met die disks omgaat als met de IT-firmware.
Overigens een bepaalde reden dat je JBOD doet? Zelf zou ik dat echt nooit doen ivm de afwezigheid van redundantie.
Je kan ook JBOD schijven in hardware raid zetten btw.
Alle raidkaarten kunnen losse disks aansturen (met export non configured disk to os). Alleen doen ze dit niet standaard. Je OS ziet ze dus niet tenzij je het expliciet zegt. De SASUCI8I doet dit wel perfect zonder onderscheid te maken tussen IR of IT firmware. Ikzelf heb met meerdere 3ware en Vortex hardware raid kaarten gewerkt (PCI-X), die kondit dit allemaal perfect zonder problemen met TLER of wat dan ook.
De reden dat ik afstap van hardware raid is:
a) onafhankelijk van hardware controllers, leverancier, etc... (de raid controller zelf is nooit redundant hé!)
b) tegengaan van bitrotting e.d.
c) snelheid (cpu van raidkaart is traag)
Ik heb jarenlang met hardware raid gewerkt, nu probeer ik het met software
Door software raid maak je net dat je systeem veel redundanter is omdat je niet gebonden bent aan EEN kaart van een bepaald merk/type. Als je raidkaart kapot gaat zal je het wel geweten hebben (en ik heb er zo een setje liggen)
Mijn NAS was een Supermicro dual Opteron met 2gb ECC, 3ware 9650SXU-ML, 7x 1TB sata, 5x 75gb scsi, etc... Hardware is te koop
En nog een 2 tal SAN's met SCSI disks volledig redundant (ook controller) en fiber... ook te koop (kan niet op de post :-) )
[ Voor 3% gewijzigd door Arnoud1 op 05-04-2011 18:47 ]
Ik heb geen sasuc8i, maar je zou dat speciale bios kunnen proberen, wie weet werkt de kaart dan wel. Alleen "op vele intel servers" kan ik niks mee, heb je daar specificaties van? Want een Intel server board is wel wat anders dan een standaard desktop bordje uiteraard.Edit:
Net nagekeken, maar dit is het niet denk ik. EFI wordt gebruikt op vele intel servers waar die sasuc8i perfect op werkt. Er zijn drivers/firmware voor de sasuc8i speciaal voor EFI.
Zie ook:
http://www.intel.com/technology/efi/main_specification.htm
Kan michiel.686 laten weten wat hij precies bedoelt?
Hier vind je alle gegevens:michiel.686 schreef op dinsdag 05 april 2011 @ 18:50:
[...]
Ik heb geen sasuc8i, maar je zou dat speciale bios kunnen proberen, wie weet werkt de kaart dan wel. Alleen "op vele intel servers" kan ik niks mee, heb je daar specificaties van? Want een Intel server board is wel wat anders dan een standaard desktop bordje uiteraard.
http://www.intel.com/technology/efi/index.htm
Dat Asus bordje werkt ook met UEFI, het zou dus compatibel moeten zijn. De bios van de SASUCI8I heeft niets met die EFI te maken, het is wel mogelijk om via een EFI bios de oprom en firmware te updaten.
EFI (nu UEFI) is ook volledig backwards compatible.
Dit type bios wordt al lang gebruikt op Intel server bordjes, en de raid kaart is net bedoeld om op deze mobo's (dus met EFI) te werken.
Zie ook de downloadpage van Intel selectie 'os independent'.
http://downloadcenter.int...9804&ProdId=3053&lang=eng
[ Voor 26% gewijzigd door michiel.686 op 05-04-2011 19:46 ]
Maar dan een bug in de EFI bios van ASUS en niet de bios van de Intel kaart? Dit wil dus zeggen dat het wel op te lossen is met een bios update?michiel.686 schreef op dinsdag 05 april 2011 @ 19:37:
Dus volgens jou zit daar geen bug in? Volgens mij wel!![]()
![]()
Waarom denk jij dat daar een bug in zit? Heb je een link of dergelijke?
Probeer nu een EFI shell aan de praat te krijgen op dat bordje, mogelijks kan ik dan meer te weten komen.
http://communities.intel.com/message/106299#106299
Verklaar?michiel.686 schreef op dinsdag 05 april 2011 @ 20:13:
Reken er maar niet op dat er op korte termijn een oplossing voor komt. Fabrikanten zijn nog te druk met het uitleveren van B3 revisie bordjes, daarnaast is het een kostbare zaak dit op te lossen voor een waarschijnlijk kleine groep gebruikers die een non-gpu kaart in dat slot willen gebruiken.
Die B3 revisie van de Intel SASUC8I slaat op een productiewijziging van LSI, de hardware/software blijft nagenoeg onveranderd.
Het gerbuik van een non-gpu kaart in een PCIe slot (ook x16) is standaard, vanzelfsprekend.
Ligt er maar net aan wat je met JBOD bedoelt. Met JBOD kun je een x aantal losse disks in HBA modus bedoelen. Óf je kunt er concatenated disks mee bedoelen (meerdere fysieke volumes dmv concatenation gepresenteerd als één logisch volume door de raid-kaart).Arnoud1 schreef op dinsdag 05 april 2011 @ 18:40:
[...]
JBOD wordt onder andere gebruikt bij raid kaarten om aan te tonen dat er geen enkele vorm van raid benut wordt, maar de schijf/schijven wel geëxporteerd word(en) naar het OS. Dit op zich zegt niets over het al dan niet aanwezig zijn van schijf-redundantie op een ander niveau (e.g. software).
Je kan ook JBOD schijven in hardware raid zetten btw.
Alle raidkaarten kunnen losse disks aansturen (met export non configured disk to os). Alleen doen ze dit niet standaard. Je OS ziet ze dus niet tenzij je het expliciet zegt. De SASUCI8I doet dit wel perfect zonder onderscheid te maken tussen IR of IT firmware. Ikzelf heb met meerdere 3ware en Vortex hardware raid kaarten gewerkt (PCI-X), die kondit dit allemaal perfect zonder problemen met TLER of wat dan ook.
De reden dat ik afstap van hardware raid is:
a) onafhankelijk van hardware controllers, leverancier, etc... (de raid controller zelf is nooit redundant hé!)
b) tegengaan van bitrotting e.d.
c) snelheid (cpu van raidkaart is traag)
Ik heb jarenlang met hardware raid gewerkt, nu probeer ik het met software
Door software raid maak je net dat je systeem veel redundanter is omdat je niet gebonden bent aan EEN kaart van een bepaald merk/type. Als je raidkaart kapot gaat zal je het wel geweten hebben (en ik heb er zo een setje liggen)
Mijn NAS was een Supermicro dual Opteron met 2gb ECC, 3ware 9650SXU-ML, 7x 1TB sata, 5x 75gb scsi, etc... Hardware is te koop
En nog een 2 tal SAN's met SCSI disks volledig redundant (ook controller) en fiber... ook te koop (kan niet op de post :-) )
Wat je wilt is het eerste, maar het gegeven dat je blijkbaar geen SMART-waardes kunt uitlezen doet mij vermoeden dat je je disks in diverse JBOD-arrays met een grootte van 1 hebt gehangen. SMART uitlezen van direct aangesloten disks zonder tussenlaag zou namelijk altijd moeten werken, mits de disk zelf SMART ondersteunt.
Of het moet een Windows-quirk zijn. Dat is natuurlijk ook niet uit te sluiten (integendeel).
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Ik heb 2 mdadm arrays: /dev/md1 in RAID 1 als boot, en /dev/md0 voor data. Nou is er van md1 een schijf uit het array geraakt, /dev/sdb1 (kabel zat niet goed vast), en staat die nou in de configuratie als spare.
Hoe krijg ik die nou terug in de array, en de array geresynced?
Ik heb flink zitten googelen, maar kan het niet vinden.
Ik heb ook 2 extra schijven gekocht voor het data array (RAID 5), hoe krijg ik die er in?
[ Voor 11% gewijzigd door SymbolicFrank op 05-04-2011 20:31 ]
mdadm --grow /dev/md1 -n N
N = het totaal aantal disks in de raid1-array.
edit: disks toevoegen:
sudo mdadm --add /dev/md0 /dev/sdX /dev/sdY sudo mdadm --grow /dev/md0 -n N
X, Y = identifiers van de nieuwe disks
N = het totaal aantal disks in de raid-array.
[ Voor 59% gewijzigd door HarmoniousVibe op 05-04-2011 20:41 ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Ik heb net sudo mdadm --grow /dev/md1 -n 2 gedaan, geen foutmelding, maar hoe kan ik nu zien wat er gebeurt? In /proc/mdstat zie ik ook niks.
sudo mdadm --examine /dev/sdb1 geeft ook geen duidelijke info.
[ Voor 17% gewijzigd door SymbolicFrank op 05-04-2011 20:41 ]
Wat is de output van /proc/mdstat en `mdadm -D /dev/md1`?SymbolicFrank schreef op dinsdag 05 april 2011 @ 20:38:
Dank je!
Ik heb net sudo mdadm --grow /dev/md1 -n 2 gedaan, geen foutmelding, maar hoe kan ik nu zien wat er gebeurt? In /proc/mdstat zie ik ook niks.
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md1 : active raid1 sdb1[2](F) sda1[0]
244197312 blocks [2/1] [U_]
md0 : active raid5 sdd1[1] sdc1[0] sde1[2] sdf1[3]
4395411264 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
unused devices: <none>
frank@Frank000:~$ sudo mdadm -D /dev/md1
/dev/md1:
Version : 00.90
Creation Time : Fri Dec 31 13:49:46 2010
Raid Level : raid1
Array Size : 244197312 (232.88 GiB 250.06 GB)
Used Dev Size : 244197312 (232.88 GiB 250.06 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 1
Persistence : Superblock is persistent
Update Time : Tue Apr 5 20:45:58 2011
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 1
Spare Devices : 0
UUID : d49ddc13:c5d8d04a:dae9d8fc:e2124867
Events : 0.303588
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 0 0 1 removed
2 8 17 - faulty spare /dev/sdb1
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Don't know. Probeer maar. Je kunt ook proberen om mdadm --grow /dev/md1 -n 2 -x 0 uit te voeren. Of terug te shrinken naar 1 device en dan weer te growen (dmv --add en --grow) naar 2.SymbolicFrank schreef op dinsdag 05 april 2011 @ 20:46:
Dus, eerst sdb1 er uit, dan er terug in en dan gaat hij automatisch resyncen?
[ Voor 13% gewijzigd door HarmoniousVibe op 05-04-2011 20:51 ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Ik heb het over de B3 revisie van de sandy bridge borden. Bovendien is een non gpu kaart helemaal niet vanzelfsprekend, in diverse handleidingen staat daarom ook specifiek dat het x16 slot een gpu slot is.Arnoud1 schreef op dinsdag 05 april 2011 @ 20:23:
[...]
Verklaar?
Die B3 revisie van de Intel SASUC8I slaat op een productiewijziging van LSI, de hardware/software blijft nagenoeg onveranderd.
Het gerbuik van een non-gpu kaart in een PCIe slot (ook x16) is standaard, vanzelfsprekend.
Arnoud, heb je dat efi bios al op het intel kaartje gekregen?
[ Voor 5% gewijzigd door michiel.686 op 05-04-2011 21:28 ]
[ Voor 35% gewijzigd door analog_ op 05-04-2011 21:53 ]
Verwijderd
ja .. daar ben ik ook heel benieuwd naar omdat wij dezelfde hardware hadden aangeschaft.[
Arnoud, heb je dat efi bios al op het intel kaartje gekregen?
EFI vervangt de bios van het moederbord. De opRom/firmware van het raidkaartje heeft niets te maken met EFI.Verwijderd schreef op dinsdag 05 april 2011 @ 22:35:
[...]
ja .. daar ben ik ook heel benieuwd naar omdat wij dezelfde hardware hadden aangeschaft.
Daar waar de opRom normaal met de bios communiceert, communiceert deze nu met de EFI.
Je kan dus geen EFI bios installeren op een raid-kaart. Je kan wel via de EFI de firmware van je raidkaart flashen. Dit is een van de gemakken van EFI. EFI is meer dan enkel bios, het is een soort mini os waar geen drivers voor nodig zijn. Heel ruw gezegd dan wel.
Lees anders eens op wikipedia:
Wikipedia: Extensible Firmware Interface
Een EFI heeft een bootloader waardoor je er dus geen meer moet installeren, gewoon je os op schijf, usb, cd en het boot.
Verder is er ook een EFI Shell, te vergelijken met linux terminal, dos prompt, etc...
Hier kan je dus wat in programmeren. En kan je mogelijks ook de kaart die niet herkend wordt toch aansturen (je programmeert de bios). Maar ik heb hier totaal geen ervaring mee. Als het een hardware probleem is zal het zeker niet werken.
Wat mogelijkheden:
attrib, date, edit, time, break, cls, mode, vol
echo, exit, for, goto, if, Pause
ls, rm, cp, mv, mkdir, type, alias, set, touch
Volgende link vind je al heel wat info over hoe je dit dus moet doen, zeker interessant... voor wie tijd heeft.:
http://download.intel.com.../pdfs/EFI1.10_DWG_0-9.pdf
Hierin staat o.a. hoe je een DMA capable PCI card moet starten en stoppen, aanroepen, etc... p253 en verder
[ Voor 16% gewijzigd door Arnoud1 op 05-04-2011 23:19 ]
[ Voor 6% gewijzigd door michiel.686 op 05-04-2011 23:32 ]
Dit is dezelfde firmware, alleen niet om via SASFLASH.EXE te gebruiken maar via EFI, een .efi extensie in ofzo. Verder helemaal hetzelfde. Echter, je moet eerst zo'n shell aan de praat krijgen en enkel die intels hebben dat ingebouwd. Bij asus heb je dat niet en moet je dus een shell op usb zetten ofzo, die shell moet dan eerst gecompileerd worden met de C compiler. Beetje ingewikkeldmichiel.686 schreef op dinsdag 05 april 2011 @ 23:22:
@Arnoud1: Ok, de firmware op het intel kaartje vervangen dan, die versie waarvan je zei dat die speciaal voor (u)efi was.. Ben benieuwd of het dan werkt..
Verwijderd
vandaar ook de vraag op fora 'stel een lijst samen van mobo's met 16x slots die wel met non-gpu kaartjes werken' .. de fabrikanten werken daar duidelijk niet aan mee..
Ik heb even teruggelezen, maar zie nergens dat Arnoud1 beweert een oplossing te hebben. Wel dat het met een bios-update op te lossen moet zijn, dit kan van Asus komen, maar ook van LSI.michiel.686 schreef op woensdag 06 april 2011 @ 00:24:
Nou, Arnold had toch een oplossing om dat werkend te krijgen?
Als ik 2x 3TB schijfjes koop van Hitachi 7200rpm ben ik 340euro kwijt bij me trouwe hardwareshop.Dadona schreef op dinsdag 05 april 2011 @ 16:59:
[...]
Serieus, heb je al eens naar de prijs gekeken?
-Je betaalt nu 312+ euro voor 4x 1TB op 2.5" voor RAID5, effectief 3TB
-Je betaalt 307+ euro voor 2x 3TB op 3.5" voor RAID1, effectief 3TB (7200 is zelfs fractie goedkoper)
-Je betaalt 192+ euro voor 3x 2TB op 3.5" voor RAID5, effectief 4TB
Nu heeft iedere opstelling een interessant toepassingsgebied, maar als je werkelijk niet zoveel data opslag nodig hebt dan zou ik juist voor de tweede of derde optie kiezen. De snel veranderende data zet je op de schijf van je OS, de 3.5" blijven dan gewoon uit en eens in de zoveel tijd mag de data naar de 3.5" schijven.
4x 1TB 2,5 inch schijfjes kost me daar ook precies 340euro. 2TB schijven is natuurlijk veruit het goedkoopst.
Een raid 1 met 2x 3TB is wel erg mooi. Hou ik ook heel wat sata poorten over. Neem aan dat 4x 1TB 2,5inch beter presteert als de raid 1?
In benchmarks of in de praktijk? Want veel scheelt het niet hoor...DJ-Promo schreef op woensdag 06 april 2011 @ 09:05:
[...]
Als ik 2x 3TB schijfjes koop van Hitachi 7200rpm ben ik 340euro kwijt bij me trouwe hardwareshop.
4x 1TB 2,5 inch schijfjes kost me daar ook precies 340euro. 2TB schijven is natuurlijk veruit het goedkoopst.
Een raid 1 met 2x 3TB is wel erg mooi. Hou ik ook heel wat sata poorten over. Neem aan dat 4x 1TB 2,5inch beter presteert als de raid 1?
Vind ik zo een best interesante post op het LSI forum:
http://kb.lsi.com/KnowledgebaseArticle16395.aspx
Duidelijk dat ik hier dus last van heb...
[ Voor 12% gewijzigd door FireDrunk op 06-04-2011 13:10 ]
Even niets...
Normaal zijn 2,5inch schijven per TB véél zuiniger dan 3,5inch. Met die 3TB schijven ligt dit anders. Deze verbruiken 6Watt per 3TB waar de 2,5inch 1TB schijven 2,5Watt per 1TB verbruiken.DJ-Promo schreef op woensdag 06 april 2011 @ 09:05:
[...]
Als ik 2x 3TB schijfjes koop van Hitachi 7200rpm ben ik 340euro kwijt bij me trouwe hardwareshop.
4x 1TB 2,5 inch schijfjes kost me daar ook precies 340euro. 2TB schijven is natuurlijk veruit het goedkoopst.
Een raid 1 met 2x 3TB is wel erg mooi. Hou ik ook heel wat sata poorten over. Neem aan dat 4x 1TB 2,5inch beter presteert als de raid 1?
Ik begrijp niet dat er nog zoveel personen naar de snelheid van de array kijken (voor thuisgebruik dan). Je snelheid wordt toch bepaald door je netwerk en je desktop pc. Zelfs met 10Gbit heb je nog snelheid genoeg.
Echter, 2x 3TB in raid ? is dit dan een mirror? dan zou ik zeggen neem een backup, dat is beter dan raid.
Als je aan striping denkt dan vergroot je de kans op dataverlies met 200%
Voor raid 5 heb je min 3 schijven nodig hé.
En raid is geen backup!
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.