Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d
Accepteer dat je zon ding niet mee neemr naar een lan party.
Luxe als storage gewoon niet iets is waar je je ooit druk over hoeft te maken
Wie stop er een 4224 vol met 24 x 2 TB?
met de pricewatch heb ik dit nu samengesteld maar ik vroeg mij af dit nog goedkoper kan of iets dergelijks en of het mogelijk is voor een nas op basis van een ion/atom ongeveer de zelfde gebruikers prestatie neer te zetten?
| # | Product | Prijs | Subtotaal |
| 1 | Areca ARC-1220 | € 404,- | € 404,- |
| 8 | Samsung EcoGreen F3 HD105SI, 1TB | € 46,53 | € 372,24 |
| 1 | AMD Athlon II X2 240E | € 53,93 | € 53,93 |
| 2 | Chieftec SST-3141SAS | € 88,67 | € 177,34 |
| 1 | Mini-box PicoPSU 150 | € 40,67 | € 40,67 |
| 1 | OCZ Onyx SATA II 2.5" SSD 32GB | € 53,- | € 53,- |
| 1 | Kingston ValueRAM KVR1066D3D8R7SK2/4G | € 97,- | € 97,- |
| 1 | Asus M4A785T-M | € 60,62 | € 60,62 |
| Bekijk collectie Importeer producten | Totaal | € 1.258,80 | |
Ik kan er ook zelf een weerstandje tussen knutselen. Dat ben ik ook van plan, ik heb nog een paar van die dingen liggen hier. Even de Wet toepassen en kijken waar ik op uit kom.redfoxert schreef op maandag 08 november 2010 @ 00:36:
[...]
Zalman heeft hier ook apparaatjes voor waarmee je door middel van een draaiknopje het toerental verlaagd, en dus de weerstand verhoogd.
Geen plek meer op het mobo. Een weerstand er tussen is ook goed, zoals ik hierboven al schetste. Op 7V laten lopen lijkt me niet zo prettig voor een 5V fannetje.Of je prikt de fan op het moederbord op een beschikbare header en past het vanuit bios of je os aan.
@iederen: dank voor de tips en het meedenken. Ik ga kijken of het voltage verlagen mbv een weerstand iets uitmaakt. Anders knutsel ik een fan in het slot ernaast.
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Om een fan op een 5V te laten draaien dan heb je alleen de rode en zwarte pin uit een molex stekker nodig.mphilipp schreef op maandag 08 november 2010 @ 23:07:
Geen plek meer op het mobo. Een weerstand er tussen is ook goed, zoals ik hierboven al schetste. Op 7V laten lopen lijkt me niet zo prettig voor een 5V fannetje.
@iederen: dank voor de tips en het meedenken. Ik ga kijken of het voltage verlagen mbv een weerstand iets uitmaakt. Anders knutsel ik een fan in het slot ernaast.
Verwijderd
Hey Q, zou je dit eens kunnen toelichten?Q schreef op maandag 08 november 2010 @ 23:09:
Voor usenet kun je beter meerdere losse disks koppelen aan de verschillende nzb werkdirectories.
ben wel geen q, maar ga toch een gooi doenVerwijderd schreef op dinsdag 09 november 2010 @ 08:17:
[...]
Hey Q, zou je dit eens kunnen toelichten?
Het funeste aan sabnzb is de vele losse gelijktijdige io streams die het genereert
De makkelijkste manier om dat te versoepelen/versnellen is
gewoon 1 disk lostrekken voor downloaden, en parren bv, en dan een 2e waar je naar toe extract.
Evt zou je ook nog de bestanden eerst naar een 3e disk kunnen kopieren voor het parren.
En dan nu de toptip, in de opties van sabnzb kun je de Article Cache Limit: aanpassen.
Door dat op bv 250MB te zetten zorg je ervoor dat sabnzb elke keer een compleet 50MB rar bestand wegschrijft, ip continu cache bestandjes van 100kb, om die dan weer allemaal in te lezen en dan het rar bestand weg te schrijven en dan die cachebestanden verwijdert
Scheelt gruwelijk veel disk-io, ten koste van een beetje meer mem-gebruik !
Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d
En waar denk je dat ie nu op draait dan? Lucht? Volgens mij heb je iets gemist uit het verhaal. De fan zit allang in mijn computer, alleen maakt ie een pokkeherrie. Het is een 5V fan, dus zo is ie ook aangesloten. Op 12V had ie door het plafond gegaan denk ik.Dadona schreef op maandag 08 november 2010 @ 23:31:
[...]
Om een fan op een 5V te laten draaien dan heb je alleen de rode en zwarte pin uit een molex stekker nodig.
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Ik kwam er gister ineens achter dat binnen VMware complete PCI-e devices direct aan een VM toe te wijzen zijn. Waardoor de virtualisatielaag word ge-bypassed. De technologie heet DirectPath, en vereist Intels VT-d of AMDs IOMMU.
Meer info is hier en hier onder andere te vinden
Binnenkort maar eens mee gaan testen
Als je raid5 schrijft moet ie veel berekenen, als je niks doet, hoeft hij ook niks te doen
maar meer dan 5 a 10 wat geloof ik echt niet dat ie zal gebruiken. kwa fan, hou wel in de gaten dat het maar een hele kleine chip is die die warmte kwijt moet.
En zeker in de server-omgeving (waar ze eigenlijk voor ontworpen zijn) kijken ze niet op een fannetje meer of minder
Maar gezien wat je dat je HD's nas-proc mobo's ED gebruiken, zal die controller niet zoveel invloed hebben
Hmmm klinkt interessant. Precies wat ik nodig heb om unraid toch naast mijn windows te draaienExtera schreef op dinsdag 09 november 2010 @ 09:48:
Ik weet dat er hier meer mensen zijn die ook hun NAS graag virtueel willen draaien, en nog opzoek waren naar een goede oplossing.
Ik kwam er gister ineens achter dat binnen VMware complete PCI-e devices direct aan een VM toe te wijzen zijn. Waardoor de virtualisatielaag word ge-bypassed. De technologie heet DirectPath, en vereist Intels VT-d of AMDs IOMMU.
Meer info is hier en hier onder andere te vinden
Binnenkort maar eens mee gaan testen
Alleen heb ik nog nooit van dat IOMMU gehoord, dus dat zal me pc wel niet ondersteunen
Toch eens ff in verdiepen
Hmmm snel uitgelezen. alleen de AMD 890 FX chipset ondersteunt dat voor een amd, en die ondersteund mijn proc en geheugen weer niet
[ Voor 62% gewijzigd door heuveltje op 09-11-2010 22:27 ]
Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d
Verwijderd
Als ik het goed begrijp kom je dan op 1 OS disk, 1 Download/Par Disk, 1 Extract disk en vervolgens gaat alles naar de software Raid?heuveltje schreef op dinsdag 09 november 2010 @ 08:28:
[...]
De makkelijkste manier om dat te versoepelen/versnellen is
gewoon 1 disk lostrekken voor downloaden, en parren bv, en dan een 2e waar je naar toe extract.
Klinkt logisch maar wel een beetje omslachtig
Zelf heb ik in gedachten het downloaden en parren op een SSD (waar ook het OS op draait) te laten plaatsvinden en daarna het extracten richting de storage. De SSD kan makkelijk op volle snelheid blijven downloaden en toch het parren niet vertragen. Extracten op dezelfde hdd geeft een slechte performance. Het gaat veel sneller als het extracten gebeurt van de ene schijf naar de andere. Door te extracten naar de storage staat het gelijk op de goede plek. Een tussenstap zoals jij voorstelt lijkt me onnodig.Verwijderd schreef op dinsdag 09 november 2010 @ 22:57:
Als ik het goed begrijp kom je dan op 1 OS disk, 1 Download/Par Disk, 1 Extract disk en vervolgens gaat alles naar de software Raid?
Klinkt logisch maar wel een beetje omslachtig
Als ik een goede RAID controller ga gebruiken zal het voor RAID5 (+ hot spare) zijn (RAID 6 is voor mij niet nodig). Voor Raid 0 en 1 kan ik net zo goed de RAID-functionaliteit van het mobo gebruiken. Bedoel je overigens dat dat fannetje nog weleens een herrie zou kunnen maken? Ik heb plannen om de server zo stil mogelijk te maken door hdd's in elastieken te hangen en de kast van binnen te bekleden met geluidabsorberend materiaal. Het is uiteraard niet de bedoeling dat een klein snertfannetje van de Areca roet in het eten gaat gooien. Ik heb ook Areca kaarten gezien die alleen een heatsink hebben. Helaas de ARC-1220 niet.heuveltje schreef op dinsdag 09 november 2010 @ 22:16:
Ligt er helemaal aan wat ie doet denk ik.
Als je raid5 schrijft moet ie veel berekenen, als je niks doet, hoeft hij ook niks te doen
maar meer dan 5 a 10 wat geloof ik echt niet dat ie zal gebruiken. kwa fan, hou wel in de gaten dat het maar een hele kleine chip is die die warmte kwijt moet.
En zeker in de server-omgeving (waar ze eigenlijk voor ontworpen zijn) kijken ze niet op een fannetje meer of minder
Maar gezien wat je dat je HD's nas-proc mobo's ED gebruiken, zal die controller niet zoveel invloed hebben
Das idd de strekking van het verhaalVerwijderd schreef op dinsdag 09 november 2010 @ 22:57:
[...]
Zelf heb ik in gedachten het downloaden en parren op een SSD (waar ook het OS op draait) te laten plaatsvinden en daarna het extracten richting de storage. De SSD kan makkelijk op volle snelheid blijven downloaden en toch het parren niet vertragen. Extracten op dezelfde hdd geeft een slechte performance. Het gaat veel sneller als het extracten gebeurt van de ene schijf naar de andere. Door te extracten naar de storage staat het gelijk op de goede plek. Een tussenstap zoals jij voorstelt lijkt me onnodig.
Alleen ik gebruik nu een oude 60GB laptophd speciaal voor het downloaden en parren, om te voorkomen dat het het systeem teveel vertraagd als ik een spelletje speel onder het downloaden.
Zat er ook aan te denken een nieuwe 120GB ssd te kopen en dan 3/4 als systeemdisk, en het andere kwart als download buffer. Alleen ben ik een beetje bang dat de vele wis en schrijf acties de levensduur van de ssd stevig zouden benadelen.
Dat idee word versterkt door het feit dat ik eens ooit een flashkaart als download hd voor mijn popcornhour heb gebruikt, dat ding hield het nog geen maand uit
Natuurlijk een beetje kromme vergelijking, maar het zet je wel aan het denken.
Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d
8 disks van 2TB zou ik in RAID6 hangen ivm de hoeveelheid data die eventueel rebuild moet worden bij een failure.aegis schreef op dinsdag 09 november 2010 @ 23:53:
voor 8 HD's van 1 of 2 TB zou je dan raid 6 aan raden of raid 5? en uit bovenstaande discussie maak ik op dat je het beste voor nzb de downloads en parren op 1 HD te doen zoals en die dan naar een raid array te laten extracten?
Downloads en par/unrar acties doe ik nu al op losse SAS schijven en worden naar een raid array gemoved zodra ik het gecontroleerd heb.
Een flashkaartje en een SSD zijn inderdaad totaal niet meer met elkaar te vergelijken. Er zijn tests en berekeningen geweest waarbij als een SSD continu met data beschreven zou worden dat deze dan pas na een x-aantal jaar aan de schrijf limiet zou zitten. Ik denk dat het wel los loopt met de aanname dat daardoor je SSD onevenredig snel zou slijten.heuveltje schreef op woensdag 10 november 2010 @ 00:00:
[...]
Zat er ook aan te denken een nieuwe 120GB ssd te kopen en dan 3/4 als systeemdisk, en het andere kwart als download buffer. Alleen ben ik een beetje bang dat de vele wis en schrijf acties de levensduur van de ssd stevig zouden benadelen.
Dat idee word versterkt door het feit dat ik eens ooit een flashkaart als download hd voor mijn popcornhour heb gebruikt, dat ding hield het nog geen maand uit![]()
Natuurlijk een beetje kromme vergelijking, maar het zet je wel aan het denken.
[ Voor 44% gewijzigd door redfoxert op 10-11-2010 00:10 ]
Je download zeker niet zoveel bluray rips?heuveltje schreef op woensdag 10 november 2010 @ 00:00:
[...]
Zat er ook aan te denken een nieuwe 120GB ssd te kopen en dan 3/4 als systeemdisk, en het andere kwart als download buffer.
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Zat, maar die zijn dan wel allemaal max 12GB, Dus dat past makkelijkmphilipp schreef op woensdag 10 november 2010 @ 00:34:
[...]
Je download zeker niet zoveel bluray rips?
Je extract naar een andere disk he
Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d
Een volledige bluray rip is 25-50G ..... dat ga je met 25% van 120G dus niet reddenheuveltje schreef op woensdag 10 november 2010 @ 00:38:
[...]
Zat, maar die zijn dan wel allemaal max 12GB, Dus dat past makkelijk
Je extract naar een andere disk he
Sommige download sets heb ik nu al moeite mee met mn 60G download partitie.
Die laatste actie kan je ook automatisch doen, unrarren naar die Raid array (in een door jou bepaalde map). Hoef je ook niet meer te "moven".redfoxert schreef op woensdag 10 november 2010 @ 00:08:
[...]
8 disks van 2TB zou ik in RAID6 hangen ivm de hoeveelheid data die eventueel rebuild moet worden bij een failure.
Downloads en par/unrar acties doe ik nu al op losse SAS schijven en worden naar een raid array gemoved zodra ik het gecontroleerd heb.
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Die areca kaart heeft tevens een losse heatsink meegeleverd zonder fan. Hoewel je dan wel een goede airflow nodig zult hebben in je kast.[message=,noline]-Moondust- schreef op dinsdag 09 november 2010 @ 23:34[/message]:
[...]
Het is uiteraard niet de bedoeling dat een klein snertfannetje van de Areca roet in het eten gaat gooien. Ik heb ook Areca kaarten gezien die alleen een heatsink hebben. Helaas de ARC-1220 niet.
Verwijderd
Is dat een functionaliteit van SABNZBD? Bijvoorbeeld Downloaden en Parren op Disk A en die vervolgens Extracten naar de RAID array in de juiste map?Madrox schreef op woensdag 10 november 2010 @ 04:56:
[...]
Die laatste actie kan je ook automatisch doen, unrarren naar die Raid array (in een door jou bepaalde map). Hoef je ook niet meer te "moven".
In de praktijk (bij mij tenminste) doe ik die laatste stap toch altijd met de hand omdat ik die gruwelijke bestandsnamen wil fatsoeneren en de boel (in geval van muziek zeker) netjes in hun eigen foldertje wil zetten. Je kunt natuurlijk alles (willen) automatiseren, maar soms ben je dan te lang bezig om dat voor elkaar te krijgen dat je het net zo goed met de hand kunt doen. Tenzij je hele dagen aan het downloaden bent, maar ja...wanneer kijk je dan?Madrox schreef op woensdag 10 november 2010 @ 04:56:
[...]
Die laatste actie kan je ook automatisch doen, unrarren naar die Raid array (in een door jou bepaalde map). Hoef je ook niet meer te "moven".
@Snos: je kunt allerlei eigen scripts in sabnzb hangen die van alles uitspoken. Je eigen fantasie is de limiet volgens mij.
[ Voor 8% gewijzigd door mphilipp op 10-11-2010 09:15 ]
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Vind 12gb MKV'tjes al prima, verschil zie ik nietredfoxert schreef op woensdag 10 november 2010 @ 00:41:
[...]
Een volledige bluray rip is 25-50G ..... dat ga je met 25% van 120G dus niet redden
Sommige download sets heb ik nu al moeite mee met mn 60G download partitie.
Ja. Of iig de juiste drive. mappen kan ook maar word wat ingewikkelderVerwijderd schreef op woensdag 10 november 2010 @ 08:56:
[...]
Is dat een functionaliteit van SABNZBD? Bijvoorbeeld Downloaden en Parren op Disk A en die vervolgens Extracten naar de RAID array in de juiste map?
Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d
dirscan_dir
log_dir
admin_dir
nzb_backup_dir
download_dir
cache_dir
complete_dir
Dus als je de cache_dir en download_dir op een snelle schijf zet en complete_dir op je RAID-array heb je het gewenste resultaat
Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done
Ik heb ook gedacht aan een 120GB SSD alleen dan 1/4 voor het OS en 3/4 als downloadbuffer, maar als een gedownloade blurayimage van 45GB voor 9,9% kapot is en je hebt 10% PAR2, dan kan het best even duren voordat de image is gerepareerd. Ondertussen gaat het downloaden wel vol door en loop je wellicht de kans dat de SSD vol raakt. Ook als er onvoldoende PAR2 is en de boel dus niet gerepareerd kan worden, blijven de bestanden staan op de SSD. En ik monitor niet elke 5 minuten of het allemaal goed gaat. Kortom, ik denk dat 120GB te weinig is. Het zou beter zijn als 200+GB SSD's betaalbaar zouden zijn.heuveltje schreef op woensdag 10 november 2010 @ 00:00:
Zat er ook aan te denken een nieuwe 120GB ssd te kopen en dan 3/4 als systeemdisk, en het andere kwart als download buffer. Alleen ben ik een beetje bang dat de vele wis en schrijf acties de levensduur van de ssd stevig zouden benadelen.
Ok, dus je kan als het ware kiezen? Dat zou wel mooi zijn, want dan regel ik liever een goede airflow met casefans dan zo'n klein snertfannetje 6000rpm te laten maken.rachez schreef op woensdag 10 november 2010 @ 06:29:
Die areca kaart heeft tevens een losse heatsink meegeleverd zonder fan. Hoewel je dan wel een goede airflow nodig zult hebben in je kast.
Zijn er ook nog mensen die op hun server uTorrent i.c.m. de WebGUI gebruiken? Was ik van plan, omdat ik goed bekend ben met uTorrent, maar misschien ga ik dan voorbij aan veel betere software.Verwijderd schreef op woensdag 10 november 2010 @ 08:56:
Is dat een functionaliteit van SABNZBD? Bijvoorbeeld Downloaden en Parren op Disk A en die vervolgens Extracten naar de RAID array in de juiste map?
De airflow in mijn kast is volgens mij prima. Alleen waait er natuurlijk geen wind door de kast. Ik vind de heatsink op de cpu toch erg warm worden. Op meerdere plaatsen heb ik bij gebruikerservaringen van diverse raid controllers met passief gekoelde cpu's vernomen dat ze er toch maar een fan op hebben gemonteerd. Sommigen hadden last van crashes, anderen deden het preventief. Ik ben van het laatste kamp. Misschien is alles binnen specs, maar ik vind 'm nét ietsje te heet. Misschien zou er ook een betere heatsink op kunnen.-Moondust- schreef op woensdag 10 november 2010 @ 11:55:
[...]
Ok, dus je kan als het ware kiezen? Dat zou wel mooi zijn, want dan regel ik liever een goede airflow met casefans dan zo'n klein snertfannetje 6000rpm te laten maken.
Ik ga overigens de mini-F16 vervangen door een iets grotere fan die ik in een slot ernaast aan een lepeltje ga monteren. Dat maakt een stuk minder herrie en zorgt iig voor een directe luchtstroom op die heatsink. Kan nooit kwaad.
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Yup, ik gebruik het hier onder een 2008 R2 omgeving; tweakblog-Moondust- schreef op woensdag 10 november 2010 @ 11:55:
Zijn er ook nog mensen die op hun server uTorrent i.c.m. de WebGUI gebruiken? Was ik van plan, omdat ik goed bekend ben met uTorrent, maar misschien ga ik dan voorbij aan veel betere software.
[ Voor 49% gewijzigd door Weiman op 10-11-2010 12:49 ]
Ik heb daar ooit ook naar gezocht en kwam op het volgende. Helaas is die website niet meer te bereiken maar heb de tekst gelukkig wel nog. Helaas zat de 1220 daar niet bij maarja misschien heb je er wat aan-Moondust- schreef op dinsdag 09 november 2010 @ 22:08:
Ik ben al enige tijd heel enthousiast over de aankoop van een Areca RAID controller voor mijn te bouwen thuisserver, maar vandaag ging ik me ineens afvragen of zo'n controller eigenlijk wel zuinig is. Immers, een van de redenen om een thuisserver te bouwen is om energie te besparen doordat de energieverslindende hoofdpc 's avonds uit kan. Dat wil ik natuurlijk niet te niet doen door onzuinige hardware in de server te stoppen. Ik heb uitgebreid gegoogled op het stroomverbruik van RAID controllers als de Areca ARC-1220, maar ik kan er niets over vinden. De Areca website geeft aan: Power Requirements: 4.95W - 6.22W. Mijn vermoeden is dat ze toch wel wat meer verstoken, want er zit niet voor niets een fannetje op de RAID-processor. Bij het stroomverbruik reken ik de hdd's niet mee. Het gaat me puur om het verbruik van de controller (ook controllers van andere merken met vergelijkbare prestaties), zodat ik beter de afweging kan maken of een RAID-controller wel de goede weg is voor mij. Wie kan mij meer inzicht geven hierin?
http://www.amug.org/amug-.../articles/areca/1680ix12/
Energy Usage
According to the Kill-a-Watt electricity usage monitor, the Areca ARC-1680ix-12 controller utilizes approximately 21 watts while idle when installed in the Apple Mac Pro 2.8 GHz model. This was determined by measuring the energy usage with and without the card installed while the computer was idle for at least 10 minutes. The difference between the two readings was 21 watts. Once the hard disks mounted on the controller are actively copying data the energy usage increases to approximately 32-40 watts. This high performance controller utilizes the 1200MHz Intel IOP348 I/O processor which requires a little more power than RAID 6 controllers with a 800MHz or a 500MHz processor.
andere quote
By the same token a hardware raid card consumes between 12 to 20 watts right out the gate for 500-800mhz of the XOR onboard.
According to the Kill-a-Watt electricity usage monitor, the HighPoint RocketRAID 4322 requires approximately 20 watts to operate while idle when installed in the Mac Pro 2.8 GHz model. This was determined by measuring the energy usage with and without the card installed while the computer was idle for at least 10 minutes. The difference between the two readings is 20 watts. The majority of the energy usage is required to power the Intel IOP 348 1.2GHz (1200MHz) processor.
According to the Kill-a-Watt electricity usage monitor, the HighPoint RocketRAID 2314 requires approximately 2.5 watts to operate while idle and installed in the Mac Pro 2.66 GHz model. This was determined by measuring the energy usage with and without the card installed while the computer was idle for at least 10 minutes. The difference between the two readings is 2.5 watts.
Energy Usage
According to the Kill-a-Watt electricity usage monitor, the HighPoint RocketRAID 3522 requires approximately 10 watts to operate while idle when installed in the Mac Pro 2.8 GHz model. This was determined by measuring the energy usage with and without the card installed while the computer was idle for at least 10 minutes. The difference between the two readings is 10 watts.
the Intel IOP 348 1.2GHz (1200MHz) processor.
8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)
Weet ik maar dat wil ik nietMadrox schreef op woensdag 10 november 2010 @ 04:56:
[...]
Die laatste actie kan je ook automatisch doen, unrarren naar die Raid array (in een door jou bepaalde map). Hoef je ook niet meer te "moven".
Je hebt gelijk, ik heb me er ook in verdiept, en er zijn erg weinig moederborden welke het ondersteunen.heuveltje schreef op dinsdag 09 november 2010 @ 22:16:
Hmmm klinkt interessant. Precies wat ik nodig heb om unraid toch naast mijn windows te draaien
Alleen heb ik nog nooit van dat IOMMU gehoord, dus dat zal me pc wel niet ondersteunen
Toch eens ff in verdiepen
Hmmm snel uitgelezen. alleen de AMD 890 FX chipset ondersteunt dat voor een amd, en die ondersteund mijn proc en geheugen weer niet
Behalve ondersteuning in het chipset, moet er ook ondersteuning in het BIOS ziiten.
Voor AMD heb ik de Asus Crosshair IX gevonden. Die heeft in ieder geval de optie in het BIOS.
Het schijnt alleen dat het wat meer omvat dan enkel de optie in het BIOS hebben, dat gaat me alleen te diep.
De Asus P6X58D-E (Socket 1366)werkt 100% zeker Degene uit de link heeft het draaien binnen VMware, en heeft DDRdrive X1 als ZIL draaien binnen een virtuele opensolaris server.
Ik gebruik mijn werkstation (i7 920) minder en minder.... en zit er aan te denken om die om te bouwen tot krachtige server... Met VT-d kan ik dan mijn Rocketraid 2340 direct aan een VM koppelen, en een FreeBSD / ZFS Viruele NAS bouwen.
Klein minpuntje voor de P6X58D-E, zoals de meeste i7 borden, geen ECC ondersteuning, die de Crosshair IV dan wel weer heeft
Mocht ik aan de slag gaan, dan post ik natuurlijk hier mijn bevindingen
[ Voor 11% gewijzigd door Extera op 10-11-2010 17:40 ]
Na mijn onverwachte interne power failure waardoor 5 van de 10 schijven zonder stroom kwamen te zitten draait de raid 6 array ondertussen terug lekker alsof er niets gebeurd is. Het spreekt natuurlijk voor zich dat ik geluk heb gehad dat er geen enkele schrijfactiviteit bezig was naar de raid array tijdens de failure, anders had er zeer makkelijk filesystem corruption kunnen optreden van de gehele raid array.
root@darkstar2:~# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md0 : active raid6 sdj1[8] sdh1[6] sdi1[7] sdk1[9] sdd1[2] sdg1[5] sde1[3] sdf1[4] sdc1[1] sdb1[0]
15628115456 blocks level 6, 64k chunk, algorithm 2 [10/10] [UUUUUUUUUU]
unused devices: <none>
root@darkstar2:~# fsck.ext4 /dev/md0
e2fsck 1.41.11 (14-Mar-2010)
/dev/md0: clean, 123998/976764928 files, 1352199741/3907028864 blocks
root@darkstar2:~# mdadm -D /dev/md0
/dev/md0:
Version : 0.90
Creation Time : Sat Oct 9 07:53:36 2010
Raid Level : raid6
Array Size : 15628115456 (14904.13 GiB 16003.19 GB)
Used Dev Size : 1953514432 (1863.02 GiB 2000.40 GB)
Raid Devices : 10
Total Devices : 10
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Wed Nov 10 19:41:48 2010
State : clean
Active Devices : 10
Working Devices : 10
Failed Devices : 0
Spare Devices : 0
Chunk Size : 64K
UUID : f512d680:c6458956:fbe53745:38f0c41a
Events : 0.20079
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
2 8 49 2 active sync /dev/sdd1
3 8 65 3 active sync /dev/sde1
4 8 81 4 active sync /dev/sdf1
5 8 97 5 active sync /dev/sdg1
6 8 113 6 active sync /dev/sdh1
7 8 129 7 active sync /dev/sdi1
8 8 145 8 active sync /dev/sdj1
9 8 161 9 active sync /dev/sdk1
root@darkstar2:~# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/root 457G 8.5G 425G 2% /
/dev/md0 15T 4.9T 8.8T 36% /data
tmpfs 501M 0 501M 0% /dev/shm
root@darkstar2:~# De rebuild van de 2 schijven die niet in de raid 6 wilden gaan is succesvol afgerond na een 52 uren durende rebuild. Ik ga de health van de disks wat nader in het oog houden de komende dagen maar initiële tests and the S.M.A.R.T info ziet er healthy uit.
Ik heb zonet nog een APC UPS besteld om de elektriciteitstoevoer te kunnen stabiliseren waarna ik in principe voldoende redundancy heb.
En Q, ik neem regelmatig back-ups van mijn meest kritieke bestanden zoals foto's, documenten en vooral mijn lossless muziekcollectie op een externe disk, maar toch bedankt voor de tip.
Ik ben nog steeds tevreden met de set-up van mijn fileserver zonder de nood van dure hardware controllers. Ik heb gedurende 7 jaar verschillende soorten fileservers gebouwd, allen gebaseerd op Slackware en Linux software raid (enkel raid 5 en raid 6) en het verbaast me telkens hoe stabiel en vlot dit alles werkt.
De fan zit aan de onderkant zo te zien. Dat is wel jammer, want dat maakt het moeilijker er met een grotere fan op te blazen als alleen de heatsink erop zit. Maar goed, daar valt vast wel iets voor te verzinnen.mphilipp schreef op woensdag 10 november 2010 @ 12:15:
De airflow in mijn kast is volgens mij prima. Alleen waait er natuurlijk geen wind door de kast. Ik vind de heatsink op de cpu toch erg warm worden. Op meerdere plaatsen heb ik bij gebruikerservaringen van diverse raid controllers met passief gekoelde cpu's vernomen dat ze er toch maar een fan op hebben gemonteerd. Sommigen hadden last van crashes, anderen deden het preventief. Ik ben van het laatste kamp. Misschien is alles binnen specs, maar ik vind 'm nét ietsje te heet. Misschien zou er ook een betere heatsink op kunnen.
Ik ga overigens de mini-F16 vervangen door een iets grotere fan die ik in een slot ernaast aan een lepeltje ga monteren. Dat maakt een stuk minder herrie en zorgt iig voor een directe luchtstroom op die heatsink. Kan nooit kwaad.
ThanksWeiman schreef op woensdag 10 november 2010 @ 12:49:
Yup, ik gebruik het hier onder een 2008 R2 omgeving; tweakblog
Hmmm, 20 Watt vind ik nog best flink. Maar goed, performance komt niet uit de lucht vallen natuurlijk, het kost nu eenmaal stroom.psy schreef op woensdag 10 november 2010 @ 13:05:
By the same token a hardware raid card consumes between 12 to 20 watts right out the gate for 500-800mhz of the XOR onboard.
Daar zit ik dus ook even mee. Stel dat mijn Areca ARC-1220 lekker staat te stampen en de stroom valt uit. Loop ik dan een grote kans dat al mijn data naar de grootjes is? Ik weet dat Areca zo'n stroom backup unit verkoopt, maar is dat ook echt nodig?Ashe schreef op woensdag 10 november 2010 @ 20:01:
Na mijn onverwachte interne power failure waardoor 5 van de 10 schijven zonder stroom kwamen te zitten draait de raid 6 array ondertussen terug lekker alsof er niets gebeurd is. Het spreekt natuurlijk voor zich dat ik geluk heb gehad dat er geen enkele schrijfactiviteit bezig was naar de raid array tijdens de failure, anders had er zeer makkelijk filesystem corruption kunnen optreden van de gehele raid array.
Je kan inderdaad kiezen om de arc-1220 eventueel passief te koelen of niet. Moet zeggen dat ik van de passieve heatsink die men er bijlevert niet echt onder de indruk ben. Het ís maar een kleine heatsink.mphilipp schreef op woensdag 10 november 2010 @ 12:15:
[...]
Op meerdere plaatsen heb ik bij gebruikerservaringen van diverse raid controllers met passief gekoelde cpu's vernomen dat ze er toch maar een fan op hebben gemonteerd. Sommigen hadden last van crashes, anderen deden het preventief. Ik ben van het laatste kamp.
Ik ben wel van plan op termijn die passieve heatsink te gaan gebruiken, maar ik ga dan een slotcooler of een Scythe Kama Stay met fan eroverheen laten blazen. Anders vertrouw ik het niet.
Indien dit puur leesactiviteit is zou het op zich geen corruptie mogen veroorzaken. Wel is het zoals bij elke harde schijf of raid set-up dat als er schrijfactiviteit bezig is en de stroom uitvalt, er een zekere kans bestaat tot filesystem corruptie.Daar zit ik dus ook even mee. Stel dat mijn Areca ARC-1220 lekker staat te stampen en de stroom valt uit. Loop ik dan een grote kans dat al mijn data naar de grootjes is? Ik weet dat Areca zo'n stroom backup unit verkoopt, maar is dat ook echt nodig?
Zelfs al heeft je areca controller een backup battery unit, dan nog zullen de schijven zonder stroom vallen.
Een goede UPS zou dit risico toch al drastisch moeten verminderen.
De backup batterij is ook alleen maar bedoeld om write acties die nog in de cache van de controller staan te bewaren totdat het systeem weer stroom heeft. Zodra dat het geval is worden deze write acties alsnog uitgevoerd, mits de array dan nog intact is.Ashe schreef op woensdag 10 november 2010 @ 21:18:
[...]
Zelfs al heeft je areca controller een backup battery unit, dan nog zullen de schijven zonder stroom vallen.
Een goede UPS zou dit risico toch al drastisch moeten verminderen.
Een UPS zou hier inderdaad een helpende hand kunnen zijn. Het hoeft niet eens voor lang te zijn, 15-30 minuten is meestal al genoeg om grotere schade aan je filesystems/disk arrays te voorkomen.
Het nadeel is wel dat de cache maar voor 24 - 48 uur bewaard wordt, dus als je een weekend weg bent kun je alsnog de klos zijn.
Een email laten sturen, en een SMS.. Dan iemand het gewoon laten fixen voor je!rachez schreef op woensdag 10 november 2010 @ 22:22:
Mits je de write cache van je schijven ook uitschakelt zou een BBU een corrupt array moeten voorkomen bij stroomuitval. Althans dat lijkt mij, of zie ik dan nog wat over het hoofd?
Het nadeel is wel dat de cache maar voor 24 - 48 uur bewaard wordt, dus als je een weekend weg bent kun je alsnog de klos zijn.
igg, email werkt bij mn UPS wel zodra er iets gebeurt krijg ik een email, SMS kan evt. bij criticial, alleen ik heb nog geen oude nokia mobiel met usb kabel zodat die voor mij kan smsen naar mij zelf
Bij de Dells kun je write back zonder bbu forceren (bad idea, maar handig voor een grote temp-schijf), bij de HP's die ik gezien heb niet.
Als je een bbu hebt, en de prik valt uit, heb je meestal een dag of 2 dat de batterij het volhoudt. Zodra de machine weer aan gaat schrijft de raid controller dan de data uit cache weg naar de disks, en is er op diskniveau niets mis.
Je filesystem kan natuurlijk alsnog problemen hebben, maar met een journaled filesystem zou je geen problemen moeten hebben (is makkelijk te fixen met fsck als er iets mis is) en met een transactioneel filesystem zoals ZFS is er uberhaupt niets aan de hand (de open transactie is nog niet gecommit).
Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!
Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done
Hoe bedoel je dat? Lucht heeft toch geen last van Newton?-Moondust- schreef op woensdag 10 november 2010 @ 20:51:
[...]
De fan zit aan de onderkant zo te zien. Dat is wel jammer, want dat maakt het moeilijker er met een grotere fan op te blazen als alleen de heatsink erop zit. Maar goed, daar valt vast wel iets voor te verzinnen.
Als ik aan een lepeltje een fan kan prutsen, blaast ie precies op de heatsink volgens mij.
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Warme lucht wil naar boven. Als de fan aan de bovenkant had gezeten, had ik de cpu-fan aan de kant van de Areca-kaart aan de cpu-heatsink kunnen monteren zodat deze naast het koelen van de cpu tegelijkertijd de warme lucht van de Areca-kaart wegzuigt. De casefan die in de bovenkant van mijn serverkast zit blaast vervolgens de warme lucht de kast uit. De luchtstroming zou dan in één natuurlijke rechte lijn de kast uitgewerkt worden. Met de fan aan de onderkant van de Areca-kaart gaat dit niet op.mphilipp schreef op woensdag 10 november 2010 @ 23:10:
Hoe bedoel je dat? Lucht heeft toch geen last van Newton?
Als ik aan een lepeltje een fan kan prutsen, blaast ie precies op de heatsink volgens mij.
Natuurlijk zijn die er. Een beetje UPS heeft nagenoeg altijd een serieele danwel USB poort, waarmee je een verbinding hebt met een computer die m.b.v. een deamon een bepaalde actie kan doen. Is redelijk standaard functionaliteit. Hoe denk je dat dat anders gaat bij het gemiddelde bedrijf waar niet 24/7 een systeembeheerder rondloopt?-Moondust- schreef op donderdag 11 november 2010 @ 09:40:
Zijn er UPS'en die bij een stroomonderbreking de server netjes kunnen uitzetten? Lijkt me voor mij de beste oplossing. Geen corrupte data en dat mijn server dan ff 2 dagen offline is omdat ik een weekendje weg ben hindert niet. Als ik voor langere tijd op vakantie ga zet ik de server toch uit.
Onder Linux wordt apcupsd veel gebruikt; APC maakt echter zelf ook software.
Google anders even op "ups usb", of "ups serial".
Kweenie hoe het tegenwoordig zit maar wellicht een puntje van aandacht
Alternatief onder linux kun je ook gebruik maken van nut, staan redelijk veel tutorials online hiervoor.tricksel schreef op donderdag 11 november 2010 @ 11:46:
[...]
Natuurlijk zijn die er. Een beetje UPS heeft nagenoeg altijd een serieele danwel USB poort, waarmee je een verbinding hebt met een computer die m.b.v. een deamon een bepaalde actie kan doen. Is redelijk standaard functionaliteit. Hoe denk je dat dat anders gaat bij het gemiddelde bedrijf waar niet 24/7 een systeembeheerder rondloopt?
Onder Linux wordt apcupsd veel gebruikt; APC maakt echter zelf ook software.
Google anders even op "ups usb", of "ups serial".
Gebruik het zelf ook tot grote tevredenheid.
Zoals ik al zei, ligt aan het filesystem. Als je disk al aan het schrijven is tijdens de power outage zal waarschijnlijk alleen de file waarin geschreven wordt stukgaan. Er bestaat echter een kleine kans dat je systeem net aan het schrijven is naar de MFT (of superblock heet dat ofzo bij ext2/ext3?), en dat je gigantische problemen krijgt. Volgens mij hebben ze dit bij ext3 opgelost door ergens anders op de schijf nog een tweede superblock te plaatsen als backup. Hoe dit precies werkt, of hoe het bij andere filesystems werkt, weet ik niet.-Moondust- schreef op donderdag 11 november 2010 @ 14:53:
Toch nog even terug naar het 'probleem' waar de UPS uitkomst voor zou kunnen bieden, nl. mogelijk dataverlies. Mijn pc (non-RAID) is in het verleden al menig maal op brute wijze van prik afgesloten terwijl hij lekker stond te draaien. Ik heb echter nog nooit problemen met corrupte data. Hooguit dat ik een keer het bestand wat newsleecher (usenet) aan het te downloaden was opnieuw moest downloaden. Maar goed, dat vind ik geen enkel bezwaar. Wat ik WEL een bezwaar vind is dat ik na een stroomonderbreking AL mijn data kwijt ben. Is er kans dat dat uberhaupt gebeurt of blijft het altijd bij hooguit corrupte data die op dat moment weggeschreven werd? Ik wil gewoon voorkomen er een kans bestaat dat ik door een stroomstoring alle data van mijn toekomstige 12TB RAID5/6 config kwijt ben. In dat geval wil ik hier maatregelen voor treffen. De kans dat ik een beetje corrupte data krijg doordat bestanden waarnaar op het moment van de stroomstoring wordt geschreven niet meer leesbaar zijn, vind ik niet erg.
Ik weet dat het bij een transactioneel filesystem zoals ZFS niet uit maakt, omdat dat juist het hele idee is van transacties, die worden gecommit, of niet. Niet half. Daarom heeft ZFS ook geen fsck.
Ik denk dat de kans op dataverlies heel erg klein is, maar als je het heel erg op safe wilt spelen, en je hebt geen transactioneel filesystem, en je wil je indekken tegen een langere downtime dan je bbu batterij vol kan houden, neem dan een UPS..
UPS is sowieso handig om te hebben. Nu kan ik thuis gewoon even de stroom uitzetten, of als de aardlekschakelaar omslaat hoef ik ook niet te wachten tot mijn servers allemaal weer 1-voor-1 in de juiste volgorde aangaan, alles blijft gewoon draaien.
Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!
Vooralsnog laat ik de power dus op maximum performance/maximum verbruik, maar dan gaan ze helemaal niet standby. Doe ik iets fout? Mis ik een bepaalde instelling?
Tevens vraag ik me af of het mogelijk is om de hele server na bijvoorbeeld 60 minuten inactiviteit op standby / hibernate te laten gaan, en dan bij een aanvraag via het netwerk weer te laten starten? (Wake on LAN). Ik vind hier nergens settings voor.
Oh?-Moondust- schreef op donderdag 11 november 2010 @ 09:40:
Warme lucht wil naar boven.
Op die fiets.Ach, 1 fan meer of minder maakt (bij mij dan) niet zo gek veel uit. De fans van de CoolerMaster drivecages maken toch meer herrie dan een extra fan.Als de fan aan de bovenkant had gezeten, had ik de cpu-fan aan de kant van de Areca-kaart aan de cpu-heatsink kunnen monteren zodat deze naast het koelen van de cpu tegelijkertijd de warme lucht van de Areca-kaart wegzuigt. De casefan die in de bovenkant van mijn serverkast zit blaast vervolgens de warme lucht de kast uit. De luchtstroming zou dan in één natuurlijke rechte lijn de kast uitgewerkt worden. Met de fan aan de onderkant van de Areca-kaart gaat dit niet op.
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Wake On Lan is niet hetzelfde als "bij een aanvraag via het netwerk weer te laten starten"Goku33 schreef op donderdag 11 november 2010 @ 16:25:
Tevens vraag ik me af of het mogelijk is om de hele server na bijvoorbeeld 60 minuten inactiviteit op standby / hibernate te laten gaan, en dan bij een aanvraag via het netwerk weer te laten starten? (Wake on LAN). Ik vind hier nergens settings voor.
Voor WOL moet je een speciaal data-pakketje versturen
Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d
Een collega-tweaker had deze al gespot. Lijkt me een goeie.Dadona schreef op donderdag 11 november 2010 @ 17:46:
Je kunt natuurlijk ook voor een slot-fan gaan.
Wel handig als je dan ook een naam vermeld-Moondust- schreef op donderdag 11 november 2010 @ 19:00:
[...]
Een collega-tweaker had deze al gespot. Lijkt me een goeie.
[afbeelding]
Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Aan het logo te zien is het een product van scythe.heuveltje schreef op donderdag 11 november 2010 @ 19:33:
[...]
Wel handig als je dan ook een naam vermeld
Even zoeken en presto: http://www.scythe-usa.com...071/sckst1000_detail.html
Verwijderd
448,34 euro (577 dollar) voor norco (4224 kast + 120mm fan wall + reverse SAS breakout cable + verzending)heuveltje schreef op maandag 08 november 2010 @ 12:59:
Wat was je nou in totaal kwijt. dus incl verzend en inklaringskosten ?
* heuveltje die nog steeds loopt te twijfelen.
Ik kijk nu nog naar een andere bigtower (ala stacker) zodat ik die af en toe naar een lanparty kan sjouwen,
en daarvoor is zin norco gewoon echt te lomp lijkt me.
Van de andere kant lijken 20 hotswaps me verdomd handig
92 euro en nog wat inklaring.
Dat maakt 541 euro totaal
Het gaat trouwens wel om 24 hotswaps, niet 'slechts' 20 ;-)
Heb nu overigens wat problemen met m'n 1880ix-24 die niet helemaal lekker met m'n mamaplank werkt. Gelukkig heeft Areca hetzelfde bord liggen met hetzelfde probleem; ze zijn het aan het uitzoeken.
[ Voor 3% gewijzigd door steve2507 op 11-11-2010 20:51 ]
24 x 2 TB in RAID 6 dat lijkt me wel wat. Effectief 44 TB capaciteit. Punt is dat ik nog maar amper 8 TB gebruik op mijn huidige NAS, dus heb geen goede reden om zo iets op te gaan zetten.
Alsof je er een reden voor zou moeten hebben, goed punt, het is cool maar het is niet gratis.
Gaat deze doos meteen vol met 2 TB schijven of anders?
[ Voor 91% gewijzigd door Q op 12-11-2010 00:33 ]
Kan je de kast voor dat geld niet beter gewoon halen bij ri-vier.nl? Is 410,- euro voor de kast; nog 130,- te spenderen. Ik heb mijn RPC-3116 daar ook opgehaald en moet ook zeggen dat de 'nazorg' prima was: 1 van mijn SAS connectors was gaar en kon direct een nieuwe krijgen.steve2507 schreef op donderdag 11 november 2010 @ 20:49:
[...]
448,34 euro (577 dollar) voor norco (4224 kast + 120mm fan wall + reverse SAS breakout cable + verzending)
92 euro en nog wat inklaring.
Dat maakt 541 euro totaal
Het gaat trouwens wel om 24 hotswaps, niet 'slechts' 20 ;-)
Heb nu overigens wat problemen met m'n 1880ix-24 die niet helemaal lekker met m'n mamaplank werkt. Gelukkig heeft Areca hetzelfde bord liggen met hetzelfde probleem; ze zijn het aan het uitzoeken.
Iets anders: ik ben nog op zoek naar een upgrade (mobo+cpu+mem) voor mijn NAS en kwam deze 'review' over het Supermicro X8SI6-F mobo tegen (en ook deze X8ST3-F).
Na wat verder zoeken blijkt dat Supermicro dus een aantal 1156/1366 mobos mét onboard SAS aansluiting via een LSI SAS 2008 / LSI SAS1068E. Die hebben doorgaans uitstekende driver support. Tel daarbij op de kwaliteit van Supermicro: goede support, (vaak dubbele) intel onboard nics, een dedicated management interface (over ethernet) en er kan naast een Xeon ook een core-i in.
Kortom: ga denk ik voor een Supermicro X8STi-3F / Supermicro X8ST3-F, waarmee ik met mijn Intel SASUC8I op 4 SAS poorten uitkom (+6x SATA).
Nog wel een andere backplate voor de RPC-3116 halen want die kan nu enkel mini ATX aan.
Iemand toevallig ervaring mee?
Das de versie met "maar" 20 traysvargo schreef op vrijdag 12 november 2010 @ 09:02:
[...]
Kan je de kast voor dat geld niet beter gewoon halen bij ri-vier.nl? Is 410,- euro voor de kast; nog 130,- te spenderen. Ik heb mijn RPC-3116 daar ook opgehaald en moet ook zeggen dat de 'nazorg' prima was: 1 van mijn SAS connectors was gaar en kon direct een nieuwe krijgen.
De 24 disk versie is duurder en vooralsnog niet leverbaar
Maar idd prijsverschil is wel vrij klein. al zitten bij bovenstaande nog geen kabels en die zijn ook vrij prijzig.
* heuveltje twijfelt nog vrolijk verder !
[ Voor 3% gewijzigd door heuveltje op 12-11-2010 10:47 ]
Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d
En hoe ga je dat doen?Extera schreef op woensdag 10 november 2010 @ 17:31:
*knip*
Met VT-d kan ik dan mijn Rocketraid 2340 direct aan een VM koppelen, en een FreeBSD / ZFS Viruele NAS bouwen.
*knip*
Even niets...
Ik vermoed dat het aan de brakke driver ligt. Ik draai op Ubuntu 10 64bits op een AMD Athlon X4. Ik heb die driver al zelf moeten compileren wat gelukt is en de boel draait op zich ook prima. Lezen kan ik zonder problemen. Alleen als ik ga schrijven, houdt ie na een poosje ineens op. En de ene keer kan ik 10 files van 10Gb erheen sturen en dan ineens kapt ie er weer mee.
Aangezien het steeds andere disks zijn die 'eruit' vallen en ze ook naderhand doen alsof hun neus bloedt, denk ik niet dat het aan de disks zelf ligt. Als ze incompatible zouden zijn, waarom dan steeds een andere disk en waarom pas na een hele vracht data? Ik heb allerlei zaken getest: NCQ uit en aan, cache aan en uit, maar het maakt niet uit.
Ook heb ik die fan geprobeerd omdat ik vreesde dat de cpu te heet zou worden en daardoor instabiel, maar dat maakt dus ook niet uit. Afgelopen nacht is ie aan het rebuilden geweest, maar dat heeft dus ook niet geholpen.
Nou heb ik 'ergens' iets gelezen dat de HighPoint driver wel werkt (onder Ubuntu) maar dat bepaalde Linux tools een crash zouden veroorzaken. Ik kan dat alleen niet meer vinden. Maar dan nog, als ik niets doe, komen die dingen ook niet in actie, dus tenzij er een of ander proces draait dat af en toe een bepaalde disktool start die vervolgens de driver laat crashen ofzo...ik gok ook maar. Heeft iemand hier een idee over?
Wat ik nu wil gaan doen, is de array afbreken en er 6 losse disks van maken en volledig software raid draaien. Ik neem de performance drop dan wel voor lief. Zo erg is dat volgens mij toch niet. Volgens mijn theorie hoeft die driver dan niets meer te doen dan de drives toegankelijk maken voor het OS, en zou dat kunnen helpen.
Heeft iemand verder nog tips? De data die erop staat kan ik nu nog wel even parkeren; ik heb bewust nog niet iets erop gezet dat onvervangbaar is, mede door de problemen.
Ik heb toch nog gevonden welke tools een crash zouden veroorzaken: hdparm, hddtemp, en smartctl. Echter...ik heb van die 3 alleen hdparm op mijn systeem staan en die geeft gewoon een antwoord terug als ik 'm loslaat op de array. Geen probleem. Dat is het dus niet.
[ Voor 5% gewijzigd door mphilipp op 12-11-2010 16:50 ]
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Alle drives worden losse JBODS. Pak dan 1 drive en ga daar gewoon aso veel data naar toe pompen en kijk of de boel vast loopt. Doe dat met alle disks tegelijk en wachten.
Als dit wel goed gaat, is er iets mis met de RAID driver van hpt, mogelijk in combinatie met de specifieke hardware.
Zijn er geen kernel meldingen in de logs als de boel crasht?
1 drive of allemaal, maakt niet zoveel uit. Ik moet hoe dan ook de huidige array afbreken.Q schreef op vrijdag 12 november 2010 @ 16:43:
Hmm. het RAID deel kan dan wel door software raid gedaan worden, de schijven benader je nog wel via driver van HPT, maar het is toch de moeite waard om te proberen.
Alle drives worden losse JBODS. Pak dan 1 drive en ga daar gewoon aso veel data naar toe pompen en kijk of de boel vast loopt. Doe dat met alle disks tegelijk en wachten.
De RAID driver is de open source variant. Die moet je zelf compileren. De versies voor specifieke linux distro's zijn hopeloos verouderd. Eigenlijk een slechte beurt van HighPoint, het zou voor hen toch niet zoveel moeite moeten zijn om de boel onder een iets courantere versie van Ubuntu te compileren. Maar ja, het zou ook zomaar iets kunnen zijn met mijn moederbord of CPU waar ie een probleem mee heeft. Eerst dacht ik dat de kaart, die PCI-e x4 is maar in een x16 slot zit, het probleem zou zijn. Maar PCI-e zou volledig backwards compatible moeten zijn. Zolang ie er maar goed in zit.Als dit wel goed gaat, is er iets mis met de RAID driver van hpt, mogelijk in combinatie met de specifieke hardware.
Zijn er geen kernel meldingen in de logs als de boel crasht?
Ik zie niet altijd meldingen in syslog of kernel log. Ook deze keer niet. Soms zit ik meldingen dat ie een bepaalde disk niet meer kan benaderen. Dat is dan steeds een andere disk, dus daar zit ook geen lijn in. Ik heb wel het vermoeden dat na de laatste kernel update (toen heb ik ook de driver weer opnieuw gecompileerd) er helemaal nooit meer meldingen komen. Eerst zag ik vaak nog wel een fout ergens voor ie sneuvelde, maar nu helemaal niet meer.
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Maar dat is met een 2.6.28 kernel, dus oude meuk.
Maar voor een NAS draai ik zelf liever oude meuk. Oude meuk heeft zich meestal bewezen. Ubuntu is nieuwer, maar misschien 'te nieuw'. Ik weet niet welke kernel er in zit.
Pak tijdelijk een andere disk voor het OS, flikker daar een kale Debian op met de driver en test dat eens? Als dat ook niet stabiel is, dan wordt het spannender.
Probleem kan zijn dat debian jouw mobo qua componenten niet (volledig) ondersteund.
Ik heb 10.4.1 LTS, dus dat is volgens mij nooit bleeding edge. Kernel versie is 2.6.32-25. Het verbaast mij ook dat het fout gaat. Ik heb toch niet echt obscure hardware gekozen, mobo is een Asus M4A78LT-M LE. Echt heel veel hoeft ie niet te ondersteunen, het is een server. Ik gebruik de grafische meuk niet en audio ook niet. Misschien is het een optie. Maar ik zie er tegenop om een ander os te gaan gebruiken, want dan kan ik alles weer opnieuw gaan installeren... Ik zal eens in de voorraadkast kijken of ik niet nog een disk heb liggen voor een experiment met Debian.Q schreef op vrijdag 12 november 2010 @ 17:22:
Onder Debian heb ik nooit problemen gehad om de highpoint 'opensource' driver te compileren.
Maar dat is met een 2.6.28 kernel, dus oude meuk.
Maar voor een NAS draai ik zelf liever oude meuk. Oude meuk heeft zich meestal bewezen. Ubuntu is nieuwer, maar misschien 'te nieuw'. Ik weet niet welke kernel er in zit.
Pak tijdelijk een andere disk voor het OS, flikker daar een kale Debian op met de driver en test dat eens? Als dat ook niet stabiel is, dan wordt het spannender.
Probleem kan zijn dat debian jouw mobo qua componenten niet (volledig) ondersteund.
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Hmm, klinkt als een al oud probleem wat RAID kaarten in combinatie met bepaalde disks (en firmware) al tijden hebben. Probeer maar eens zonder de write cache van je disk te gaan werken of zelfs volledig zonder cache, waarschijnlijk zijn je problemen dan over.mphilipp schreef op vrijdag 12 november 2010 @ 16:23:
Ik heb toch een ernstig probleem met mijn NAS. Tot nu toe heb ik het er niet over gehad omdat ik nog steeds aan het zoeken was naar mogelijke oorzaken en probeerde andere zaken te elimineren. Wat gebeurt er namelijk: het systeem loopt af en toe gierend vast. Als ik dan kijk naar logs op het systeem of op de HighPoint (RocketRaid 2680 met 6 Samsung 2Tb in RAID5 via de kaart) kaart, zie ik dat er steeds een andere disk uit de array valt (soms staat er overigens ook helemaal niets van een error in de logs). Het systeem is dan niet meer te benaderen en ik moet 'm hardhandig uit zetten.
Moet zeggen dat ik die problemen wel alleen ooit op mijn highpoint kaarten heb gezien, sinds ik naar Adaptec geswitched ben is alles in orde.
Dit probleem ook ooit gehad en de enige methode om het toen te fixen was met allemaal losse disken te gaan werken op de controller en software RAID in het OS. Niet echt bepaald een geweldige oplossing, maar toch.
Welke disken heb je precies? Ik heb zelf 2TB Samsung F3EG disken in R5 en R6 via een adaptec 5805.
Ik ben ook een tijdje weggeweest van dit topic. Drukte op het werk wat me teveel tijd opslokte om mijn config uit te zoeken. Maar nu is mijn zelfbouw NAS een feit. Ik heb de spullen besteld en ga ze straks ophalen.
Het ding gaat OSCAR heten (groene vuilnisbakbeest van Sesamstraat
OSCAR:
Cooler Master CM 690 II Lite met een extra 4 in 3 module
Cooler Master Extreme Power Plus 460W
Gigabyte GA-890GPA-UD3H (8 x SATA onboard).
AMD Athlon II X2 250
4gb DDR3 1333 GeIL geheugen (had liever Corsair gehad maar dat was nergens op voorraad)
8 x Western Digital Caviar GreenPower WD20EARS. 2TB
1 x el cheapo PATA schijfje voor het OS
De reden dat ik niet voor een controller ga is dat ik veel problemen tegenkom met de supermicro kaartjes en Debian (Lenny) waarbij disks uitvallen bij smart commands. Dat is ALS de drivers al werken. Een highpoint kaartje vind ik op dit moment teveel van het goede voor thuis. Omdat ik dus geen controller gebruik moet ik wel een PATA schijfje gebruiken voor het OS.
Ik ben ook afgestapt van het hele hotswap gebeuren omdat ik niet aan een fatsoenlijke tweedehands case kan komen. Nieuw idemdito voor het kostenplaatje niet gedaan. Zovaak hoop ik toch niet dat ik mijn schijven ga wisselen
Er komt Debian (Lenny) op te draaien. De 8 x 2TB schijfjes komen in RAID 6 te draaien. Er zal dagelijks in de nacht een back-up plaatsvinden van mijn PC en Mac (foto's e.d.) naar de NAS toe. Deze stuurt maakt ook nog een back-up naar een Externe HDD (misschien dat ik dit nog in een Raid 1 constructie knutsel) en naar een online storage provider.
De NAS zal dienstdoen voor downloads / FTP en eventueel dat ik er nog een DC++ client op ga draaien.
Ik zal kijken of ik wat kiekjes kan maken vanmiddag
Nope. En voor zover ik weet is dat bij Samsungs niet het geval. WD bouwt - om ons geld af te troggelen - dingen in waardoor we gedwongen worden om 'enterprise' disks te kopen. Pure oplichterij.Quindor schreef op zaterdag 13 november 2010 @ 11:15:
[...]
Hmm, klinkt als een al oud probleem wat RAID kaarten in combinatie met bepaalde disks (en firmware) al tijden hebben. Probeer maar eens zonder de write cache van je disk te gaan werken of zelfs volledig zonder cache, waarschijnlijk zijn je problemen dan over.
Bovendien (en dat schreef ik al in mijn verhaal) heb ik al die opties al een keer uit gehad. NCQ, cache, alles. Maakt niets uit. Het duurt alleen langer voor het gebeurt omdat ie er langzamer van wordt...
Ik heb trouwens dezelfde disks als jij.
[ Voor 10% gewijzigd door mphilipp op 14-11-2010 21:39 ]
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Verwijderd
Je gebruikt hardware RAID icm. disks die geen ondersteuning voor TLER hebben; dan krijg je dus al snel drive dropouts. Dat komt omdat de disks langer dan x seconden aan recovery doen, en de controller dan denkt dat die schijf uitgevallen is.mphilipp schreef op vrijdag 12 november 2010 @ 16:23:
Ik heb toch een ernstig probleem met mijn NAS. Tot nu toe heb ik het er niet over gehad omdat ik nog steeds aan het zoeken was naar mogelijke oorzaken en probeerde andere zaken te elimineren. Wat gebeurt er namelijk: het systeem loopt af en toe gierend vast. Als ik dan kijk naar logs op het systeem of op de HighPoint (RocketRaid 2680 met 6 Samsung 2Tb in RAID5 via de kaart) kaart, zie ik dat er steeds een andere disk uit de array valt (soms staat er overigens ook helemaal niets van een error in de logs). Het systeem is dan niet meer te benaderen en ik moet 'm hardhandig uit zetten.
Dus ik denk dat het advies hier is om óf TLER-enabled disks gebruiken, óf software RAID onder Linux of ZFS gebruiken. Bij dat laatste heb je dit probleem niet en kun je dus goedkopere desktop edition schijven gebruiken
In je smart-INFO zou je kunnen kijken naar: reallocated sector count, current pending sectors (dit veroorzaakt de drive-dropouts, maar wordt na een zero-write or rebuild weer 0) en udma crc error count, wat problemen met de kabels aanduid.
Hopelijk kun je hier wat mee?
Op zich kan ik hier wat mee, want na wat zoekwerk blijkt dat er een methode is om die TLER/CCTL aan te schakelen op oa de Samsung. link. Nu alleen nog even puzzelen of dat ook onder linux werkt en of ik dat op een of andere manier automatisch kan laten uitvoeren (het gaat op de Samsung verloren na een power cycle).Verwijderd schreef op zondag 14 november 2010 @ 23:24:
[...]
Je gebruikt hardware RAID icm. disks die geen ondersteuning voor TLER hebben; dan krijg je dus al snel drive dropouts. Dat komt omdat de disks langer dan x seconden aan recovery doen, en de controller dan denkt dat die schijf uitgevallen is.
Dus ik denk dat het advies hier is om óf TLER-enabled disks gebruiken, óf software RAID onder Linux of ZFS gebruiken. Bij dat laatste heb je dit probleem niet en kun je dus goedkopere desktop edition schijven gebruiken
In je smart-INFO zou je kunnen kijken naar: reallocated sector count, current pending sectors (dit veroorzaakt de drive-dropouts, maar wordt na een zero-write or rebuild weer 0) en udma crc error count, wat problemen met de kabels aanduid.
Hopelijk kun je hier wat mee?
Inmiddels heb ik de smartctl package geinstalleerd en ik kan ook de disks aanspreken door de Highpoint kaart heen, alleen accepteert ie het commando dat ze in thread op Storagereview noemen niet. Het zou in principe moeten kunnen werken op die Samsung, kunst is nu alleen om dat op een fijne manier door de raid controller te krijgen. En dan kan ik weer testen.
[ Voor 13% gewijzigd door mphilipp op 15-11-2010 01:08 ]
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
nee.... ik kan de onderdelen vanmiddag pas gaan ophalen....Na het ontvangen van het afhaal bericht (waarin overigens stond dat ik het zaterdag kon ophalen) in enthousiasme naar de winkel gereden, om er vervolgens achter te komen dat ze gesloten zijn op zaterdagQ schreef op zondag 14 november 2010 @ 20:51:
Nette setup, al pics?
alleen even kijken of ze nog een ander PATA schijfje op voorraad hebben. Die ik besteld heb is inmiddels niet meer leverbaar. Misschien dat ik wel een USB-stickje pak om het OS op te draaien.
Je kan ook een crapy sata controller nemen.. Goed genoeg voor een boot disk (evt RAID1 software)DJ-NaRRa schreef op maandag 15 november 2010 @ 10:56:
[...]
nee.... ik kan de onderdelen vanmiddag pas gaan ophalen....Na het ontvangen van het afhaal bericht (waarin overigens stond dat ik het zaterdag kon ophalen) in enthousiasme naar de winkel gereden, om er vervolgens achter te komen dat ze gesloten zijn op zaterdag![]()
![]()
alleen even kijken of ze nog een ander PATA schijfje op voorraad hebben. Die ik besteld heb is inmiddels niet meer leverbaar. Misschien dat ik wel een USB-stickje pak om het OS op te draaien.
Daar heb ik ook naar gekeken... alleen kom ik veel problemen tegen met dit soort controllers en compatibiliteit onder linux(zie ook de reden waarom ik voor het gebruikte moederbord ben gegaan versus een Sata / SAS controller). Aangezien mijn linux kennis beperkt is zie ik het niet zo zitten om zelf drivers / kernel te moeten gaan compilen.DJ-Visto schreef op maandag 15 november 2010 @ 10:57:
[...]
Je kan ook een crapy sata controller nemen.. Goed genoeg voor een boot disk (evt RAID1 software)
Ja ok, je hebt ze wel.. Alleen het kost altijd watDJ-NaRRa schreef op maandag 15 november 2010 @ 11:13:
[...]
Daar heb ik ook naar gekeken... alleen kom ik veel problemen tegen met dit soort controllers en compatibiliteit onder linux(zie ook de reden waarom ik voor het gebruikte moederbord ben gegaan versus een Sata / SAS controller). Aangezien mijn linux kennis beperkt is zie ik het niet zo zitten om zelf drivers / kernel te moeten gaan compilen.
Verwijderd
Zal denk ik niet werken op een SCSI/RAID controller zoals Highpoint; sluit je disks eventjes op een normale IDE/AHCI SATA aansluiting, zoals de onboard SATA poorten. Dan kun je TLER/CCTL inschakelen (7 seconden is een goede instelling) en daarna je setup weer in originele staat terugbrengen.mphilipp schreef op maandag 15 november 2010 @ 00:52:
[...]
Op zich kan ik hier wat mee, want na wat zoekwerk blijkt dat er een methode is om die TLER/CCTL aan te schakelen op oa de Samsung. link. Nu alleen nog even puzzelen of dat ook onder linux werkt en of ik dat op een of andere manier automatisch kan laten uitvoeren (het gaat op de Samsung verloren na een power cycle).
Hebben een van je disks al gerepareerde sectors? Reallocated sector count; smartctl -A /dev/.... is het handigst.
Smartctl werkt wél door een controller als de Highpoint, dat heb ik inmiddels al getest:Verwijderd schreef op maandag 15 november 2010 @ 13:59:
[...]
Zal denk ik niet werken op een SCSI/RAID controller zoals Highpoint; sluit je disks eventjes op een normale IDE/AHCI SATA aansluiting, zoals de onboard SATA poorten. Dan kun je TLER/CCTL inschakelen (7 seconden is een goede instelling) en daarna je setup weer in originele staat terugbrengen.
Hebben een van je disks al gerepareerde sectors? Reallocated sector count; smartctl -A /dev/.... is het handigst.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
| smartctl -a -d hpt,1/1 /dev/sdd
smartctl 5.40 2010-02-03 r3060 [x86_64-unknown-linux-gnu] (local build)
Copyright (C) 2002-10 by Bruce Allen, http://smartmontools.sourceforge.net
=== START OF INFORMATION SECTION ===
Device Model: SAMSUNG HD203WI
Serial Number: S1UYJ1YZ601160
Firmware Version: 1AN10003
User Capacity: 2,000,398,934,016 bytes
Device is: Not in smartctl database [for details use: -P showall]
ATA Version is: 8
ATA Standard is: ATA-8-ACS revision 6
Local Time is: Mon Nov 15 00:40:34 2010 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
{CUT}
SCT capabilities: (0x003f) SCT Status supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 100 100 051 Pre-fail Always - 5
2 Throughput_Performance 0x0026 252 252 000 Old_age Always - 0
3 Spin_Up_Time 0x0023 060 060 025 Pre-fail Always - 12156
4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 36
5 Reallocated_Sector_Ct 0x0033 252 252 010 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 252 252 051 Old_age Always - 0
8 Seek_Time_Performance 0x0024 252 252 015 Old_age Offline - 0
9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 885
10 Spin_Retry_Count 0x0032 252 252 051 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 252 252 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 58
191 G-Sense_Error_Rate 0x0022 252 252 000 Old_age Always - 0
192 Power-Off_Retract_Count 0x0022 252 252 000 Old_age Always - 0
194 Temperature_Celsius 0x0002 064 064 000 Old_age Always - 28 (Lifetime Min/Max 19/32)
195 Hardware_ECC_Recovered 0x003a 100 100 000 Old_age Always - 0
196 Reallocated_Event_Count 0x0032 252 252 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 252 252 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 252 252 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0036 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x002a 100 100 000 Old_age Always - 0
223 Load_Retry_Count 0x0032 252 252 000 Old_age Always - 0
225 Load_Cycle_Count 0x0032 100 100 000 Old_age Always - 3634
SMART Error Log Version: 1
No Errors Logged
{CUT} |
Alleen als ik dan de SCE parameter probeer uit te lezen, zoals in het storagereview forum staat, accepteert ie dat niet:
1
2
3
4
5
6
7
8
| sudo smartctl -d sat -l scterc -a -d hpt,1/1 /dev/sdd smartctl 5.40 2010-02-03 r3060 [x86_64-unknown-linux-gnu] (local build) Copyright (C) 2002-10 by Bruce Allen, http://smartmontools.sourceforge.net =======> INVALID ARGUMENT TO -l: scterc =======> VALID ARGUMENTS ARE: error, selftest, selective, directory[,g|s], background, scttemp[sts|hist], sasphy[,reset], sataphy[,reset], gplog,N[,RANGE], smartlog,N[,RANGE], xerror[,N][,error], xselftest[,N][,selftest] <======= Use smartctl -h to get a usage summary |
Wat op zich vreemd is, want dit commando zou moeten werken. Of het eraan ligt dat er een RAID controller tussen zit weet ik niet. In principe werkt smartctl er wel doorheen, maar goed...dat vogelen we wel uit.
De drive op een andere controller prikken gaat niet werken, want de waarde blijft niet behouden na een power cycle. Dus ik zou de disk dus live moeten houden terwijl de controller omprik...lijkt me niet zo gezond.
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
klopt. Bij de duurdere kaarten zag ik een betere compatibiliteit met drivers en in mijn geval debian. echter was ik voor nu nog niet van plan om veel geld uit te geven aan een hardware raid kaartje terwijl ik het alleen als gewone controller gebruik.DJ-Visto schreef op maandag 15 november 2010 @ 12:16:
[...]
Ja ok, je hebt ze wel.. Alleen het kost altijd watIgg succes met je build!
Bij de goedkopere kaartjes zoals die van Supermicro kwam ik veel topics tegen zoals het probleem waar mphillip nu last van heeft. Dat is voor mij ook een afweging geweest om niet voor die kaarten te gaan
Ik ga dadelijk (ja nu echt) de spulletjes ophalen
[ Voor 152% gewijzigd door DJ-NaRRa op 15-11-2010 15:50 ]
Jammer, maar helaas...
Het terugkopieren van de content is straks de ultieme test. Er stond al iets van 500Gb op, dus als dat zonder problemen teruggeplaatst kan worden, is ie goed.
[ Voor 14% gewijzigd door mphilipp op 15-11-2010 17:05 ]
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Het is lastig om te zeggen waar het aan ligt. Ik verdenk zelf die WD disks, gebaseerd op eerdere topics hierzo. Ik verwacht dat de JBOD setup met mdadm je zal verlossen van de problemen.
Die tools van HP vind ik zelf niet heel tof, met mdadm heb je zelfs nog wat makkelijker de controle en zicht op je array. Zelf heb ik altijd zo gedraaid.
Tsjaa...nu ik gerichter kan zoeken, vind ik ineens meer mensen met dit probleem. Alleen hebben ze dan net weer een andere raid kaart, waarbij zij wel die optie kunnen verzetten via smartctl. Ik snap niet dat het bij mij niet lukt (ik kan alles doen via smartctl, behalve die ene optie verzetten). Misschien een te lage versie van smartctl (5.39.1, 5.40.1 is de allernieuwste) maar die hogere is niet voor AMD64. Nou ja...ik ga wel over naar JBOD. Ik ben niet zo gecharmeerd van die Mr.Bean oplossingen. Daar krijg je vroeg of laat toch weer problemen mee.Q schreef op maandag 15 november 2010 @ 18:32:
Ik heb zelf de beruchte samsung F1 disks nu als test via raid op de controller zelf,dus waar jij nu problemen mee hebt. Geen vuiltje aam de lucht. Op de 2420 dus.
Het is lastig om te zeggen waar het aan ligt. Ik verdenk zelf die WD disks, gebaseerd op eerdere topics hierzo. Ik verwacht dat de JBOD setup met mdadm je zal verlossen van de problemen.
Die tools van HP vind ik zelf niet heel tof, met mdadm heb je zelfs nog wat makkelijker de controle en zicht op je array. Zelf heb ik altijd zo gedraaid.
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Verwijderd
Ja, dat dacht ik all! Dit is geen échte SMART ondersteuning, maar een soort SMART proxy; als jij SMART info opvraagt doe je dat aan de RAID controller, en die gaat SMART-requests naar de disks sturen en parsed het en stuurt het in zijn eigen formaat terug. Dat is geen échte SMART ondersteuning, want dat zou met -d sat werken.mphilipp schreef op maandag 15 november 2010 @ 14:43:
[...]
Smartctl werkt wél door een controller als de Highpoint, dat heb ik inmiddels al getest:
...
smartctl -a -d hpt,1/1 /dev/sdd
Je kunt dus wel normale SMART informatie zien via die proxy, maar niet direct SMART-requests sturen; je mag niet direct met de disks communiceren.
Ik wil je niet de put in praten, maar ook met zo'n JBOD + software RAID op een hardware RAID controller, betekent nog steeds dat je disks uit kunnen vallen. Al gebruik je het beste software RAID; de hardware zal keihard disks detachen waar je software niks aan kunt doen.mphilipp schreef op maandag 15 november 2010 @ 17:04:
Ik heb toch maar besloten dat ik van het gezeik af wil zijn en de boel maar ga omkatten naar softraid. Momenteel ben ik de boel even aan het parkeren op mijn staging area en dan maak ik er maar 6 JBOD's van en maak er een software raid array van.
Wil je software RAID onder een non-Windows OS dan wil je een échte SAS/SATA controller, oftewel een HBA. LSI 1068E zijn erg populair voor ZFS home-fileservers, en werken bijvoorbeeld ook prima met FreeNAS; bijna alle OS denk ik.
Als je echt betrouwbaar storage wilt is ZFS een aanrader. Maarja dan zit je nu met een highpoint controller waar je op dat vlak weinig aan hebt, en je hebt dan ook veel geheugen nodig; 8 gig bijvoorbeeld. Als je daar voor gaat, ben je wel van het gezeik van uitvallende disks af!
Ik snap je niet? 'om te krijgen' ?Het is blijkbaar op een of andere manier erg lastig om dat bitje op die Samsungs om te krijgen en aangezien ik het zal moeten scripten om het na reboots weer te activeren, vind ik het toch een beetje een Mr.Bean oplossing. Liever iets dat gegarandeerd werkt.
smartctl -a -d ata /dev/sd?Verwijderd schreef op maandag 15 november 2010 @ 21:36:
[...]
Ja, dat dacht ik all! Dit is geen échte SMART ondersteuning, maar een soort SMART proxy; als jij SMART info opvraagt doe je dat aan de RAID controller, en die gaat SMART-requests naar de disks sturen en parsed het en stuurt het in zijn eigen formaat terug. Dat is geen échte SMART ondersteuning, want dat zou met -d sat werken.
Je kunt dus wel normale SMART informatie zien via die proxy, maar niet direct SMART-requests sturen; je mag niet direct met de disks communiceren.
Werkt prima op mijn highpoint 2320 en 2340.
De vraag is of de RAID logica (driver) besluit om een disk te ontkoppelen en of dat ook/niet gebeurt in JBOD mode.Ik wil je niet de put in praten, maar ook met zo'n JBOD + software RAID op een hardware RAID controller, betekent nog steeds dat je disks uit kunnen vallen. Al gebruik je het beste software RAID; de hardware zal keihard disks detachen waar je software niks aan kunt doen.
Ik ben vooral benieuwd wat de tests met JBOD gaan uitwijzen, ik geloof niet dat het hele TLER bla bla verhaal ook maar enig effect zal hebben omdat MDADM er iig niets mee doet naar mijn weten.
Dat uit arrays knikkeren van HD's wordt niet door de hardware gedaan zover ik weet.
ZFS heeft niets te maken met de issues die hier worden beschreven en lossen het probleem niet op. Een andere controller of andere disks misschien, maar wat heeft hij daar nu aan? Dat is wel het laatste wat je wilt.Als je echt betrouwbaar storage wilt is ZFS een aanrader. Maarja dan zit je nu met een highpoint controller waar je op dat vlak weinig aan hebt, en je hebt dan ook veel geheugen nodig; 8 gig bijvoorbeeld. Als je daar voor gaat, ben je wel van het gezeik van uitvallende disks af!
Laten we de tests met JBOD maar afwachten, ik heb er wel vertrouwen in. Ik denk dat de 'hogere logica' in de HPT driver de disks er uit gooit, iets wat bij MDADM niet gebeurt. Bij JBOD zou je die 'raid logica' van de HPT driver niet gebruiken, dus zou deze shit niet meer voor moeten komen.
Ik heb geen idee wat je allemaal zegt, maar op andere controllers werkt dit gewoon. Dus hoe het precies zit weet ik niet en wil ik niet weten, maar het kán gewoon. De fout die ik krijg lijkt imho meer op een soort syntax fout omdat ie me precies verteld wat ie wél kan. Het is geen antwoord van de controller of disk, maar van de software:Verwijderd schreef op maandag 15 november 2010 @ 21:36:
[...]
Ja, dat dacht ik all! Dit is geen échte SMART ondersteuning, maar een soort SMART proxy; als jij SMART info opvraagt doe je dat aan de RAID controller, en die gaat SMART-requests naar de disks sturen en parsed het en stuurt het in zijn eigen formaat terug. Dat is geen échte SMART ondersteuning, want dat zou met -d sat werken.
1
2
3
4
| =======> INVALID ARGUMENT TO -l: scterc =======> VALID ARGUMENTS ARE: error, selftest, selective, directory[,g|s], background, scttemp[sts|hist], sasphy[,reset], sataphy[,reset], gplog,N[,RANGE], smartlog,N[,RANGE], xerror[,N][,error], xselftest[,N][,selftest] <======= Use smartctl -h to get a usage summary |
Ik vermoed dat ik een nieuwere of andere versie van die software nodig heb. Verder werken gewoon alles commando's die ik naar die disk stuur. De -d hpt,1/1 /dev/sdd betekent dat ik (Highpoint) controller 1, disk 1 wil benaderen, die op het OS bekend is als /dev/sdd. Lees anders aub de site van die smartctl lui maar, want je gaat nu een conclusie ophangen aan mijn verhaal en ik ben absoluut geen raid techneut en dat wil ik niet worden ook.
Ik deel je conclusie dan ook niet over dat ik eigenlijk een HBA nodig heb. Ik zou volgens mij de enige zijn die zoiets gebruikt, want er zijn talloze NASsen gebouwd met de spullen die ik heb, dus al die theoretische verhalen hecht ik niet zoveel waarde aan. Van mij mag jij het allemaal kopen, inclusief een paar hele dure disks, maar ik begin daar niet aan. Deze setup moet gewoon werken.
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Had ooit beloofd om een keer een verbruiks meter op m'n nasje te hangen en kwam er toevallig 1 tegen
| # | Product | Prijs | Subtotaal |
| 1 | Intel Gigabit CT Desktop Adapter | € 24,60 | € 24,60 |
| 1 | D-Link DGS-1005D | € 26,- | € 26,- |
| 5 | Samsung EcoGreen F2 EG HD154UI, 1.5TB | € 59,20 | € 296,- |
| 1 | Sharkoon Rebel9 Pro Value | € 60,07 | € 60,07 |
| 1 | Arctic Cooling Freezer 7 Pro Rev. 2 | € 17,90 | € 17,90 |
| 1 | AMD Athlon II X2 235e | € 56,17 | € 56,17 |
| 2 | Cooler Master 4-in-3 Device Module | € 14,09 | € 28,18 |
| 1 | Antec Earthwatts EA-380D Green | € 40,13 | € 40,13 |
| 2 | Kingston ValueRAM KVR1066D3N7/1G | € 13,97 | € 27,94 |
| 1 | Asus M4A78LT-M LE | € 43,32 | € 43,32 |
| Bekijk collectie Importeer producten | Totaal | € 620,31 | |
Cpu wordt netjes op 800Mhz geclockt(idle), onboard GPU staat op minimale MHz
Bij opstarten is de piek +- 155W
Daarna idle +- 75W, disks down +- 65W
Met downloaden blijft het ongeveer 77W en bij het parren en rarren +- 100W
Filmpje of spelen via m'n mediacenter is ongeveer 80W
Er vanuit gaande dat het gemiddeld rond de 75W uitkomt kost het dus ongeveer €150,- p/j om hem 24/7 aan te hebben.
Het is jammer dat er niet echt 200W ATX voedingen zijn met voldoende Sata power aansluitingen, met een belasting van 20% a 25% is de voeding niet echt efficient
Hopelijk een waardevolle leer-ervaring voor anderen. Het leek in eerste instantie goed te gaan. Op zich wel jammer, want andere RAID controllers staan weer wel dat aanpassen van die TLER/CCTL waarde toe door de controller heen. Nou ja...als het zo werkt, ben ik ook tevreden. Performance lijkt wel ok, dus het is geen verloren zaak.
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Verwijderd
Bij mijn Areca controller onder ZFS wel, ook in JBOD mode of passthrough disks; elke bad sector die je disks tegenkomen worden ze eruit gedonderd. Dit is geen theorie, maar eigen ervaring. Ik heb jarenlang gestoeid met dit probleem, en tot de conclusie gekomen dat alle Hardware RAID en alle Windows onboard driver RAID niet tegen hoge timeouts van schijven kunnen, en daardoor de schijven uit de array gooien (detachen).Q schreef op maandag 15 november 2010 @ 22:15:
[...]
De vraag is of de RAID logica (driver) besluit om een disk te ontkoppelen en of dat ook/niet gebeurt in JBOD mode.
Alleen software RAID onder non-Windows OS met een normale SATA/SAS controller kan je hierbij helpen. En natuurlijk het aanschaffen van TLER/CCTL disks, maar dat komt ook met een prijs, behave in financiële zin kan dit je in problemen brengen als je een degraded array aan het rebuilden bent en een bad sector krijgt door TLER niet de kans om lang genoeg recovered te worden, en je zit met een failed array. Doordat de huidige schijven met enorme capaciteit een relatief hoge 'Bit-Error-Rate' heeft, krijgen steeds meer mensen last van dit probleem.
Als je een stabiele en veilige storage-oplossing wilt hebben, is ZFS zeker een oplossing. En dan in het bijzonder het feit dat er nooit meer disks uit je array gedonderd worden, en je hebt juist geen dure TLER disks nodig maar je kunt goedkope Samsung F4 enzo gebruiken.ZFS heeft niets te maken met de issues die hier worden beschreven en lossen het probleem niet op. Een andere controller of andere disks misschien, maar wat heeft hij daar nu aan? Dat is wel het laatste wat je wilt.
Het feit dat je iets gekocht hebt waarvan je later erachter komt dat het eigenlijk helemaal niet zo nuttig is voor voor wat je ermee wilt, is vervelend. Dat soort pijnlijke lessen heb ik genoeg gehad, en wilde na zelfs met Areca herzelfde gedonder te hebben nu eens wat stabiels. En ZFS heeft hier echt wel een streepje voor. Maar ieder moet zijn eigen afweging maken natuurlijk.
[ Voor 11% gewijzigd door Verwijderd op 16-11-2010 00:44 ]
Thanx!
Snelheid is alleszins goed te noemen. Hij staat nu een paar mappen van mijn Windows PC te onvangen (+/- 50Gb) en dat doet ie met bijna 90MB/s. SMB pakt dan 50% cpu op de host, dus hij heeft genoeg puf over voor andere dingen.
Snelheid is dus ok. Als het dan ook nog stabiel en betrouwbaar is, ben ik helemaal blij!
@Cypher: ZFS heb ik naar gekeken, maar dat vind ik geen optie onder Ubuntu. Klaar. Je kunt wel steeds het ZFS reclamefilmpje af blijven draaien, maar ik alles welbewust afgewogen en een beslissing genomen voor een opstelling die voor mij werkt. En dat doet ie nog steeds, afgezien dan dat ik nu niet de hardware raid kan gebruiken. Da's jammer, maar geen hek van de dam. Ik had nu eenmaal een controller nodig die al die disks aan kon, maar ik had dus ook een goedkopere kunnen nemen. Nou ja...jammer. Het maakt verder niet heel veel uit in de plannen.
[ Voor 36% gewijzigd door mphilipp op 16-11-2010 00:47 ]
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Daarnaast zit je met een lastigere uitbreiding, nu is ZFS daar momenteel, bij FreeBSD en afgeleiden, al nog niet erg vriendelijk in, maar in een virtuele omgeving is dat helemaal een draak. Als je namelijk met een tool als VMware Server gaat werken dan zit je met een beperkte capaciteit van 2TB. Virtualbox heeft die niet, maar de laatste keer dat ik ermee werkte voor een (backup-)NAS had ik teveel last van dropped packages.
[ Voor 55% gewijzigd door Dadona op 16-11-2010 12:15 ]
Ik zit er over te denken om mijn hardware raid controller eruit te knikkeren en over te stappen op software raid.
In eerste instantie had ik Hardware RAID voor de snelheid, maar omdat ik nu een SSD als boot/vm schijf heb, is die behoefte ook niet meer zo groot.
Ik zie het nut van ZFS zeker wel in, alleen gebruik ik persoonlijk erg graag windows... Niet zozeer omdat ik geen linux/freebsd kan, maar meer omdat het gewoon net ff wat makkelijker aansluit op mijn huidige netwerk (Windows 7 desktop, laptop en HTPC).
Voor mijn situatie zou ik dan een FreeBSD ZFS installatie moeten maken. Maar aangezien ZFS nogal geheugen en cpu hongerig is, vraag ik me af of als ik daar Samba bij aan hang, of het nog wel performt...
Ik wil toch nog wel een beetje het gevoel van snelheid hebben...
Iemand die mijn ideeen in de praktijk heeft meegemaakt?
Even niets...
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.