• heuveltje
  • Registratie: Februari 2000
  • Laatst online: 22-12 11:35

heuveltje

KoelkastFilosoof

Wat was je nou in totaal kwijt. dus incl verzend en inklaringskosten ?

* heuveltje die nog steeds loopt te twijfelen.
Ik kijk nu nog naar een andere bigtower (ala stacker) zodat ik die af en toe naar een lanparty kan sjouwen,
en daarvoor is zin norco gewoon echt te lomp lijkt me.
Van de andere kant lijken 20 hotswaps me verdomd handig :)

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


  • Q
  • Registratie: November 1999
  • Laatst online: 12:05
De oude rpc-4020 was met belasting en verzendkosten 400 euro, ben ook wel bienieud was de 4224 doet.

Accepteer dat je zon ding niet mee neemr naar een lan party.

Luxe als storage gewoon niet iets is waar je je ooit druk over hoeft te maken :)

Wie stop er een 4224 vol met 24 x 2 TB? :)

  • aegis
  • Registratie: Augustus 2002
  • Laatst online: 22-12 12:25
ik zag eerder in dit topic dat ISaFeeliN een nas heeft gebouwd op basis van een Super Micro X7SPA-H met een d510 maar dat als hij 2 hd films streamde en tegelijk aan het paren/unrarren is dat het dan toch wel begint te hakelen het beeld en alles. zou dit op gelost kunnen worden door een hardware raid kaart of snoept z'n ding ook teveel van de proc af? heb zelf alleen maar ervaring met software raid 5 op freenas. en daar val de prestaties zeer tegen. en ben nu opzoek naar een DIY nas met zoveel mogelijk bang for a buck en ook nog eens low power.

met de pricewatch heb ik dit nu samengesteld maar ik vroeg mij af dit nog goedkoper kan of iets dergelijks en of het mogelijk is voor een nas op basis van een ion/atom ongeveer de zelfde gebruikers prestatie neer te zetten?
#ProductPrijsSubtotaal
1Areca ARC-1220€ 404,-€ 404,-
8Samsung EcoGreen F3 HD105SI, 1TB€ 46,53€ 372,24
1AMD Athlon II X2 240E€ 53,93€ 53,93
2Chieftec SST-3141SAS€ 88,67€ 177,34
1Mini-box PicoPSU 150€ 40,67€ 40,67
1OCZ Onyx SATA II 2.5" SSD 32GB€ 53,-€ 53,-
1Kingston ValueRAM KVR1066D3D8R7SK2/4G€ 97,-€ 97,-
1Asus M4A785T-M€ 60,62€ 60,62
Bekijk collectie
Importeer producten
Totaal€ 1.258,80

https://bettyskitchen.nl


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

redfoxert schreef op maandag 08 november 2010 @ 00:36:
[...]
Zalman heeft hier ook apparaatjes voor waarmee je door middel van een draaiknopje het toerental verlaagd, en dus de weerstand verhoogd.
Ik kan er ook zelf een weerstandje tussen knutselen. Dat ben ik ook van plan, ik heb nog een paar van die dingen liggen hier. Even de Wet toepassen en kijken waar ik op uit kom.
Of je prikt de fan op het moederbord op een beschikbare header en past het vanuit bios of je os aan.
Geen plek meer op het mobo. Een weerstand er tussen is ook goed, zoals ik hierboven al schetste. Op 7V laten lopen lijkt me niet zo prettig voor een 5V fannetje.

@iederen: dank voor de tips en het meedenken. Ik ga kijken of het voltage verlagen mbv een weerstand iets uitmaakt. Anders knutsel ik een fan in het slot ernaast.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • Q
  • Registratie: November 1999
  • Laatst online: 12:05
Je bottleneck is waarschijnlijk de random io throughput van de schijven. Ecogreens zijn al niet super qua random io. Sequentieen is er niets mis met die dingen. Voor usenet kun je beter meerdere losse disks koppelen aan de verschillende nzb werkdirectories.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
mphilipp schreef op maandag 08 november 2010 @ 23:07:
Geen plek meer op het mobo. Een weerstand er tussen is ook goed, zoals ik hierboven al schetste. Op 7V laten lopen lijkt me niet zo prettig voor een 5V fannetje.

@iederen: dank voor de tips en het meedenken. Ik ga kijken of het voltage verlagen mbv een weerstand iets uitmaakt. Anders knutsel ik een fan in het slot ernaast.
Om een fan op een 5V te laten draaien dan heb je alleen de rode en zwarte pin uit een molex stekker nodig. :)

De CSL/OT kroeg !


Verwijderd

Q schreef op maandag 08 november 2010 @ 23:09:
Voor usenet kun je beter meerdere losse disks koppelen aan de verschillende nzb werkdirectories.
Hey Q, zou je dit eens kunnen toelichten?

  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 22-12 11:35

heuveltje

KoelkastFilosoof

Verwijderd schreef op dinsdag 09 november 2010 @ 08:17:
[...]


Hey Q, zou je dit eens kunnen toelichten?
ben wel geen q, maar ga toch een gooi doen :)

Het funeste aan sabnzb is de vele losse gelijktijdige io streams die het genereert
De makkelijkste manier om dat te versoepelen/versnellen is
gewoon 1 disk lostrekken voor downloaden, en parren bv, en dan een 2e waar je naar toe extract.
Evt zou je ook nog de bestanden eerst naar een 3e disk kunnen kopieren voor het parren.

En dan nu de toptip, in de opties van sabnzb kun je de Article Cache Limit: aanpassen.
Door dat op bv 250MB te zetten zorg je ervoor dat sabnzb elke keer een compleet 50MB rar bestand wegschrijft, ip continu cache bestandjes van 100kb, om die dan weer allemaal in te lezen en dan het rar bestand weg te schrijven en dan die cachebestanden verwijdert :)

Scheelt gruwelijk veel disk-io, ten koste van een beetje meer mem-gebruik !

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

Dadona schreef op maandag 08 november 2010 @ 23:31:
[...]
Om een fan op een 5V te laten draaien dan heb je alleen de rode en zwarte pin uit een molex stekker nodig. :)
En waar denk je dat ie nu op draait dan? Lucht? Volgens mij heb je iets gemist uit het verhaal. De fan zit allang in mijn computer, alleen maakt ie een pokkeherrie. Het is een 5V fan, dus zo is ie ook aangesloten. Op 12V had ie door het plafond gegaan denk ik.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • Extera
  • Registratie: Augustus 2004
  • Laatst online: 05-05 16:02
Ik weet dat er hier meer mensen zijn die ook hun NAS graag virtueel willen draaien, en nog opzoek waren naar een goede oplossing.

Ik kwam er gister ineens achter dat binnen VMware complete PCI-e devices direct aan een VM toe te wijzen zijn. Waardoor de virtualisatielaag word ge-bypassed. De technologie heet DirectPath, en vereist Intels VT-d of AMDs IOMMU.

Meer info is hier en hier onder andere te vinden :)

Binnenkort maar eens mee gaan testen 8)

Mijn Serverrack - iRacing Profiel


  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 20-12 23:39
Ik ben al enige tijd heel enthousiast over de aankoop van een Areca RAID controller voor mijn te bouwen thuisserver, maar vandaag ging ik me ineens afvragen of zo'n controller eigenlijk wel zuinig is. Immers, een van de redenen om een thuisserver te bouwen is om energie te besparen doordat de energieverslindende hoofdpc 's avonds uit kan. Dat wil ik natuurlijk niet te niet doen door onzuinige hardware in de server te stoppen. Ik heb uitgebreid gegoogled op het stroomverbruik van RAID controllers als de Areca ARC-1220, maar ik kan er niets over vinden. De Areca website geeft aan: Power Requirements: 4.95W - 6.22W. Mijn vermoeden is dat ze toch wel wat meer verstoken, want er zit niet voor niets een fannetje op de RAID-processor. Bij het stroomverbruik reken ik de hdd's niet mee. Het gaat me puur om het verbruik van de controller (ook controllers van andere merken met vergelijkbare prestaties), zodat ik beter de afweging kan maken of een RAID-controller wel de goede weg is voor mij. Wie kan mij meer inzicht geven hierin?

  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 22-12 11:35

heuveltje

KoelkastFilosoof

Ligt er helemaal aan wat ie doet denk ik.
Als je raid5 schrijft moet ie veel berekenen, als je niks doet, hoeft hij ook niks te doen :)
maar meer dan 5 a 10 wat geloof ik echt niet dat ie zal gebruiken. kwa fan, hou wel in de gaten dat het maar een hele kleine chip is die die warmte kwijt moet.
En zeker in de server-omgeving (waar ze eigenlijk voor ontworpen zijn) kijken ze niet op een fannetje meer of minder :)

Maar gezien wat je dat je HD's nas-proc mobo's ED gebruiken, zal die controller niet zoveel invloed hebben :)
Extera schreef op dinsdag 09 november 2010 @ 09:48:
Ik weet dat er hier meer mensen zijn die ook hun NAS graag virtueel willen draaien, en nog opzoek waren naar een goede oplossing.

Ik kwam er gister ineens achter dat binnen VMware complete PCI-e devices direct aan een VM toe te wijzen zijn. Waardoor de virtualisatielaag word ge-bypassed. De technologie heet DirectPath, en vereist Intels VT-d of AMDs IOMMU.

Meer info is hier en hier onder andere te vinden :)

Binnenkort maar eens mee gaan testen 8)
Hmmm klinkt interessant. Precies wat ik nodig heb om unraid toch naast mijn windows te draaien :)
Alleen heb ik nog nooit van dat IOMMU gehoord, dus dat zal me pc wel niet ondersteunen :(
Toch eens ff in verdiepen :)

Hmmm snel uitgelezen. alleen de AMD 890 FX chipset ondersteunt dat voor een amd, en die ondersteund mijn proc en geheugen weer niet :)

[ Voor 62% gewijzigd door heuveltje op 09-11-2010 22:27 ]

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


Verwijderd

heuveltje schreef op dinsdag 09 november 2010 @ 08:28:
[...]
De makkelijkste manier om dat te versoepelen/versnellen is
gewoon 1 disk lostrekken voor downloaden, en parren bv, en dan een 2e waar je naar toe extract.
Als ik het goed begrijp kom je dan op 1 OS disk, 1 Download/Par Disk, 1 Extract disk en vervolgens gaat alles naar de software Raid?

Klinkt logisch maar wel een beetje omslachtig 8)7

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 20-12 23:39
Verwijderd schreef op dinsdag 09 november 2010 @ 22:57:
Als ik het goed begrijp kom je dan op 1 OS disk, 1 Download/Par Disk, 1 Extract disk en vervolgens gaat alles naar de software Raid?

Klinkt logisch maar wel een beetje omslachtig 8)7
Zelf heb ik in gedachten het downloaden en parren op een SSD (waar ook het OS op draait) te laten plaatsvinden en daarna het extracten richting de storage. De SSD kan makkelijk op volle snelheid blijven downloaden en toch het parren niet vertragen. Extracten op dezelfde hdd geeft een slechte performance. Het gaat veel sneller als het extracten gebeurt van de ene schijf naar de andere. Door te extracten naar de storage staat het gelijk op de goede plek. Een tussenstap zoals jij voorstelt lijkt me onnodig.

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 20-12 23:39
heuveltje schreef op dinsdag 09 november 2010 @ 22:16:
Ligt er helemaal aan wat ie doet denk ik.
Als je raid5 schrijft moet ie veel berekenen, als je niks doet, hoeft hij ook niks te doen :)
maar meer dan 5 a 10 wat geloof ik echt niet dat ie zal gebruiken. kwa fan, hou wel in de gaten dat het maar een hele kleine chip is die die warmte kwijt moet.
En zeker in de server-omgeving (waar ze eigenlijk voor ontworpen zijn) kijken ze niet op een fannetje meer of minder :)

Maar gezien wat je dat je HD's nas-proc mobo's ED gebruiken, zal die controller niet zoveel invloed hebben :)
Als ik een goede RAID controller ga gebruiken zal het voor RAID5 (+ hot spare) zijn (RAID 6 is voor mij niet nodig). Voor Raid 0 en 1 kan ik net zo goed de RAID-functionaliteit van het mobo gebruiken. Bedoel je overigens dat dat fannetje nog weleens een herrie zou kunnen maken? Ik heb plannen om de server zo stil mogelijk te maken door hdd's in elastieken te hangen en de kast van binnen te bekleden met geluidabsorberend materiaal. Het is uiteraard niet de bedoeling dat een klein snertfannetje van de Areca roet in het eten gaat gooien. Ik heb ook Areca kaarten gezien die alleen een heatsink hebben. Helaas de ARC-1220 niet.

  • aegis
  • Registratie: Augustus 2002
  • Laatst online: 22-12 12:25
voor 8 HD's van 1 of 2 TB zou je dan raid 6 aan raden of raid 5? en uit bovenstaande discussie maak ik op dat je het beste voor nzb de downloads en parren op 1 HD te doen zoals en die dan naar een raid array te laten extracten?

https://bettyskitchen.nl


  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 22-12 11:35

heuveltje

KoelkastFilosoof

Verwijderd schreef op dinsdag 09 november 2010 @ 22:57:
[...]

Zelf heb ik in gedachten het downloaden en parren op een SSD (waar ook het OS op draait) te laten plaatsvinden en daarna het extracten richting de storage. De SSD kan makkelijk op volle snelheid blijven downloaden en toch het parren niet vertragen. Extracten op dezelfde hdd geeft een slechte performance. Het gaat veel sneller als het extracten gebeurt van de ene schijf naar de andere. Door te extracten naar de storage staat het gelijk op de goede plek. Een tussenstap zoals jij voorstelt lijkt me onnodig.
Das idd de strekking van het verhaal :)
Alleen ik gebruik nu een oude 60GB laptophd speciaal voor het downloaden en parren, om te voorkomen dat het het systeem teveel vertraagd als ik een spelletje speel onder het downloaden.

Zat er ook aan te denken een nieuwe 120GB ssd te kopen en dan 3/4 als systeemdisk, en het andere kwart als download buffer. Alleen ben ik een beetje bang dat de vele wis en schrijf acties de levensduur van de ssd stevig zouden benadelen.

Dat idee word versterkt door het feit dat ik eens ooit een flashkaart als download hd voor mijn popcornhour heb gebruikt, dat ding hield het nog geen maand uit :(
Natuurlijk een beetje kromme vergelijking, maar het zet je wel aan het denken.

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


  • redfoxert
  • Registratie: December 2000
  • Niet online
aegis schreef op dinsdag 09 november 2010 @ 23:53:
voor 8 HD's van 1 of 2 TB zou je dan raid 6 aan raden of raid 5? en uit bovenstaande discussie maak ik op dat je het beste voor nzb de downloads en parren op 1 HD te doen zoals en die dan naar een raid array te laten extracten?
8 disks van 2TB zou ik in RAID6 hangen ivm de hoeveelheid data die eventueel rebuild moet worden bij een failure.

Downloads en par/unrar acties doe ik nu al op losse SAS schijven en worden naar een raid array gemoved zodra ik het gecontroleerd heb.
heuveltje schreef op woensdag 10 november 2010 @ 00:00:
[...]
Zat er ook aan te denken een nieuwe 120GB ssd te kopen en dan 3/4 als systeemdisk, en het andere kwart als download buffer. Alleen ben ik een beetje bang dat de vele wis en schrijf acties de levensduur van de ssd stevig zouden benadelen.

Dat idee word versterkt door het feit dat ik eens ooit een flashkaart als download hd voor mijn popcornhour heb gebruikt, dat ding hield het nog geen maand uit :(
Natuurlijk een beetje kromme vergelijking, maar het zet je wel aan het denken.
Een flashkaartje en een SSD zijn inderdaad totaal niet meer met elkaar te vergelijken. Er zijn tests en berekeningen geweest waarbij als een SSD continu met data beschreven zou worden dat deze dan pas na een x-aantal jaar aan de schrijf limiet zou zitten. Ik denk dat het wel los loopt met de aanname dat daardoor je SSD onevenredig snel zou slijten.

[ Voor 44% gewijzigd door redfoxert op 10-11-2010 00:10 ]

https://discord.com/invite/tweakers


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

heuveltje schreef op woensdag 10 november 2010 @ 00:00:
[...]
Zat er ook aan te denken een nieuwe 120GB ssd te kopen en dan 3/4 als systeemdisk, en het andere kwart als download buffer.
Je download zeker niet zoveel bluray rips? :+

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 22-12 11:35

heuveltje

KoelkastFilosoof

mphilipp schreef op woensdag 10 november 2010 @ 00:34:
[...]

Je download zeker niet zoveel bluray rips? :+
Zat, maar die zijn dan wel allemaal max 12GB, Dus dat past makkelijk :)
Je extract naar een andere disk he :)

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


  • redfoxert
  • Registratie: December 2000
  • Niet online
heuveltje schreef op woensdag 10 november 2010 @ 00:38:
[...]


Zat, maar die zijn dan wel allemaal max 12GB, Dus dat past makkelijk :)
Je extract naar een andere disk he :)
Een volledige bluray rip is 25-50G ..... dat ga je met 25% van 120G dus niet redden :P

Sommige download sets heb ik nu al moeite mee met mn 60G download partitie.

https://discord.com/invite/tweakers


  • Madrox
  • Registratie: Mei 2002
  • Laatst online: 19-12 16:46

Madrox

Oh, Pharaoh!

redfoxert schreef op woensdag 10 november 2010 @ 00:08:
[...]


8 disks van 2TB zou ik in RAID6 hangen ivm de hoeveelheid data die eventueel rebuild moet worden bij een failure.

Downloads en par/unrar acties doe ik nu al op losse SAS schijven en worden naar een raid array gemoved zodra ik het gecontroleerd heb.
Die laatste actie kan je ook automatisch doen, unrarren naar die Raid array (in een door jou bepaalde map). Hoef je ook niet meer te "moven".

Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!


  • rachez
  • Registratie: Januari 2003
  • Laatst online: 22-12 20:02
[message=,noline]-Moondust- schreef op dinsdag 09 november 2010 @ 23:34[/message]:
[...]

Het is uiteraard niet de bedoeling dat een klein snertfannetje van de Areca roet in het eten gaat gooien. Ik heb ook Areca kaarten gezien die alleen een heatsink hebben. Helaas de ARC-1220 niet.
Die areca kaart heeft tevens een losse heatsink meegeleverd zonder fan. Hoewel je dan wel een goede airflow nodig zult hebben in je kast.

Verwijderd

Madrox schreef op woensdag 10 november 2010 @ 04:56:
[...]

Die laatste actie kan je ook automatisch doen, unrarren naar die Raid array (in een door jou bepaalde map). Hoef je ook niet meer te "moven".
Is dat een functionaliteit van SABNZBD? Bijvoorbeeld Downloaden en Parren op Disk A en die vervolgens Extracten naar de RAID array in de juiste map?

  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

Madrox schreef op woensdag 10 november 2010 @ 04:56:
[...]
Die laatste actie kan je ook automatisch doen, unrarren naar die Raid array (in een door jou bepaalde map). Hoef je ook niet meer te "moven".
In de praktijk (bij mij tenminste) doe ik die laatste stap toch altijd met de hand omdat ik die gruwelijke bestandsnamen wil fatsoeneren en de boel (in geval van muziek zeker) netjes in hun eigen foldertje wil zetten. Je kunt natuurlijk alles (willen) automatiseren, maar soms ben je dan te lang bezig om dat voor elkaar te krijgen dat je het net zo goed met de hand kunt doen. Tenzij je hele dagen aan het downloaden bent, maar ja...wanneer kijk je dan?

@Snos: je kunt allerlei eigen scripts in sabnzb hangen die van alles uitspoken. Je eigen fantasie is de limiet volgens mij.

[ Voor 8% gewijzigd door mphilipp op 10-11-2010 09:15 ]

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 22-12 11:35

heuveltje

KoelkastFilosoof

redfoxert schreef op woensdag 10 november 2010 @ 00:41:
[...]


Een volledige bluray rip is 25-50G ..... dat ga je met 25% van 120G dus niet redden :P

Sommige download sets heb ik nu al moeite mee met mn 60G download partitie.
Vind 12gb MKV'tjes al prima, verschil zie ik niet :)
Verwijderd schreef op woensdag 10 november 2010 @ 08:56:
[...]


Is dat een functionaliteit van SABNZBD? Bijvoorbeeld Downloaden en Parren op Disk A en die vervolgens Extracten naar de RAID array in de juiste map?
Ja. Of iig de juiste drive. mappen kan ook maar word wat ingewikkelder :)

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


  • Demo
  • Registratie: Juni 2000
  • Laatst online: 22-12 08:23

Demo

Probleemschietende Tovenaar

In sabnzbd.ini staan de volgende configuratie-opties:
dirscan_dir
log_dir
admin_dir
nzb_backup_dir
download_dir
cache_dir
complete_dir

Dus als je de cache_dir en download_dir op een snelle schijf zet en complete_dir op je RAID-array heb je het gewenste resultaat :)

Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done


  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 20-12 23:39
heuveltje schreef op woensdag 10 november 2010 @ 00:00:
Zat er ook aan te denken een nieuwe 120GB ssd te kopen en dan 3/4 als systeemdisk, en het andere kwart als download buffer. Alleen ben ik een beetje bang dat de vele wis en schrijf acties de levensduur van de ssd stevig zouden benadelen.
Ik heb ook gedacht aan een 120GB SSD alleen dan 1/4 voor het OS en 3/4 als downloadbuffer, maar als een gedownloade blurayimage van 45GB voor 9,9% kapot is en je hebt 10% PAR2, dan kan het best even duren voordat de image is gerepareerd. Ondertussen gaat het downloaden wel vol door en loop je wellicht de kans dat de SSD vol raakt. Ook als er onvoldoende PAR2 is en de boel dus niet gerepareerd kan worden, blijven de bestanden staan op de SSD. En ik monitor niet elke 5 minuten of het allemaal goed gaat. Kortom, ik denk dat 120GB te weinig is. Het zou beter zijn als 200+GB SSD's betaalbaar zouden zijn.
rachez schreef op woensdag 10 november 2010 @ 06:29:
Die areca kaart heeft tevens een losse heatsink meegeleverd zonder fan. Hoewel je dan wel een goede airflow nodig zult hebben in je kast.
Ok, dus je kan als het ware kiezen? Dat zou wel mooi zijn, want dan regel ik liever een goede airflow met casefans dan zo'n klein snertfannetje 6000rpm te laten maken.
Verwijderd schreef op woensdag 10 november 2010 @ 08:56:
Is dat een functionaliteit van SABNZBD? Bijvoorbeeld Downloaden en Parren op Disk A en die vervolgens Extracten naar de RAID array in de juiste map?
Zijn er ook nog mensen die op hun server uTorrent i.c.m. de WebGUI gebruiken? Was ik van plan, omdat ik goed bekend ben met uTorrent, maar misschien ga ik dan voorbij aan veel betere software.

  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

-Moondust- schreef op woensdag 10 november 2010 @ 11:55:
[...]
Ok, dus je kan als het ware kiezen? Dat zou wel mooi zijn, want dan regel ik liever een goede airflow met casefans dan zo'n klein snertfannetje 6000rpm te laten maken.
De airflow in mijn kast is volgens mij prima. Alleen waait er natuurlijk geen wind door de kast. Ik vind de heatsink op de cpu toch erg warm worden. Op meerdere plaatsen heb ik bij gebruikerservaringen van diverse raid controllers met passief gekoelde cpu's vernomen dat ze er toch maar een fan op hebben gemonteerd. Sommigen hadden last van crashes, anderen deden het preventief. Ik ben van het laatste kamp. Misschien is alles binnen specs, maar ik vind 'm nét ietsje te heet. Misschien zou er ook een betere heatsink op kunnen.

Ik ga overigens de mini-F16 vervangen door een iets grotere fan die ik in een slot ernaast aan een lepeltje ga monteren. Dat maakt een stuk minder herrie en zorgt iig voor een directe luchtstroom op die heatsink. Kan nooit kwaad.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • Weiman
  • Registratie: September 2007
  • Laatst online: 21-09 17:46
-Moondust- schreef op woensdag 10 november 2010 @ 11:55:
Zijn er ook nog mensen die op hun server uTorrent i.c.m. de WebGUI gebruiken? Was ik van plan, omdat ik goed bekend ben met uTorrent, maar misschien ga ik dan voorbij aan veel betere software.
Yup, ik gebruik het hier onder een 2008 R2 omgeving; tweakblog

[ Voor 49% gewijzigd door Weiman op 10-11-2010 12:49 ]


  • psy
  • Registratie: Oktober 1999
  • Laatst online: 17-12 17:14

psy

-Moondust- schreef op dinsdag 09 november 2010 @ 22:08:
Ik ben al enige tijd heel enthousiast over de aankoop van een Areca RAID controller voor mijn te bouwen thuisserver, maar vandaag ging ik me ineens afvragen of zo'n controller eigenlijk wel zuinig is. Immers, een van de redenen om een thuisserver te bouwen is om energie te besparen doordat de energieverslindende hoofdpc 's avonds uit kan. Dat wil ik natuurlijk niet te niet doen door onzuinige hardware in de server te stoppen. Ik heb uitgebreid gegoogled op het stroomverbruik van RAID controllers als de Areca ARC-1220, maar ik kan er niets over vinden. De Areca website geeft aan: Power Requirements: 4.95W - 6.22W. Mijn vermoeden is dat ze toch wel wat meer verstoken, want er zit niet voor niets een fannetje op de RAID-processor. Bij het stroomverbruik reken ik de hdd's niet mee. Het gaat me puur om het verbruik van de controller (ook controllers van andere merken met vergelijkbare prestaties), zodat ik beter de afweging kan maken of een RAID-controller wel de goede weg is voor mij. Wie kan mij meer inzicht geven hierin?
Ik heb daar ooit ook naar gezocht en kwam op het volgende. Helaas is die website niet meer te bereiken maar heb de tekst gelukkig wel nog. Helaas zat de 1220 daar niet bij maarja misschien heb je er wat aan
http://www.amug.org/amug-.../articles/areca/1680ix12/

Energy Usage
According to the Kill-a-Watt electricity usage monitor, the Areca ARC-1680ix-12 controller utilizes approximately 21 watts while idle when installed in the Apple Mac Pro 2.8 GHz model. This was determined by measuring the energy usage with and without the card installed while the computer was idle for at least 10 minutes. The difference between the two readings was 21 watts. Once the hard disks mounted on the controller are actively copying data the energy usage increases to approximately 32-40 watts. This high performance controller utilizes the 1200MHz Intel IOP348 I/O processor which requires a little more power than RAID 6 controllers with a 800MHz or a 500MHz processor.

andere quote

By the same token a hardware raid card consumes between 12 to 20 watts right out the gate for 500-800mhz of the XOR onboard.

According to the Kill-a-Watt electricity usage monitor, the HighPoint RocketRAID 4322 requires approximately 20 watts to operate while idle when installed in the Mac Pro 2.8 GHz model. This was determined by measuring the energy usage with and without the card installed while the computer was idle for at least 10 minutes. The difference between the two readings is 20 watts. The majority of the energy usage is required to power the Intel IOP 348 1.2GHz (1200MHz) processor.

According to the Kill-a-Watt electricity usage monitor, the HighPoint RocketRAID 2314 requires approximately 2.5 watts to operate while idle and installed in the Mac Pro 2.66 GHz model. This was determined by measuring the energy usage with and without the card installed while the computer was idle for at least 10 minutes. The difference between the two readings is 2.5 watts.
Energy Usage
According to the Kill-a-Watt electricity usage monitor, the HighPoint RocketRAID 3522 requires approximately 10 watts to operate while idle when installed in the Mac Pro 2.8 GHz model. This was determined by measuring the energy usage with and without the card installed while the computer was idle for at least 10 minutes. The difference between the two readings is 10 watts.
the Intel IOP 348 1.2GHz (1200MHz) processor.

8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)


  • redfoxert
  • Registratie: December 2000
  • Niet online
Madrox schreef op woensdag 10 november 2010 @ 04:56:
[...]

Die laatste actie kan je ook automatisch doen, unrarren naar die Raid array (in een door jou bepaalde map). Hoef je ook niet meer te "moven".
Weet ik maar dat wil ik niet :) Dan heb ik helemaal geen controle meer over wat er binnenkomt. Er komt namelijk al een hoop vanzelf binnen dmv RSS feeds uit nzbmatrix

https://discord.com/invite/tweakers


  • Extera
  • Registratie: Augustus 2004
  • Laatst online: 05-05 16:02
heuveltje schreef op dinsdag 09 november 2010 @ 22:16:
Hmmm klinkt interessant. Precies wat ik nodig heb om unraid toch naast mijn windows te draaien :)
Alleen heb ik nog nooit van dat IOMMU gehoord, dus dat zal me pc wel niet ondersteunen :(
Toch eens ff in verdiepen :)

Hmmm snel uitgelezen. alleen de AMD 890 FX chipset ondersteunt dat voor een amd, en die ondersteund mijn proc en geheugen weer niet :)
Je hebt gelijk, ik heb me er ook in verdiept, en er zijn erg weinig moederborden welke het ondersteunen.
Behalve ondersteuning in het chipset, moet er ook ondersteuning in het BIOS ziiten.
Voor AMD heb ik de Asus Crosshair IX gevonden. Die heeft in ieder geval de optie in het BIOS.
Het schijnt alleen dat het wat meer omvat dan enkel de optie in het BIOS hebben, dat gaat me alleen te diep.

De Asus P6X58D-E (Socket 1366)werkt 100% zeker Degene uit de link heeft het draaien binnen VMware, en heeft DDRdrive X1 als ZIL draaien binnen een virtuele opensolaris server.

Ik gebruik mijn werkstation (i7 920) minder en minder.... en zit er aan te denken om die om te bouwen tot krachtige server... Met VT-d kan ik dan mijn Rocketraid 2340 direct aan een VM koppelen, en een FreeBSD / ZFS Viruele NAS bouwen.

Klein minpuntje voor de P6X58D-E, zoals de meeste i7 borden, geen ECC ondersteuning, die de Crosshair IV dan wel weer heeft :)
Mocht ik aan de slag gaan, dan post ik natuurlijk hier mijn bevindingen :)

[ Voor 11% gewijzigd door Extera op 10-11-2010 17:40 ]

Mijn Serverrack - iRacing Profiel


  • Ashe
  • Registratie: November 2001
  • Laatst online: 25-11 08:54
Ik ben tevreden.

Na mijn onverwachte interne power failure waardoor 5 van de 10 schijven zonder stroom kwamen te zitten draait de raid 6 array ondertussen terug lekker alsof er niets gebeurd is. Het spreekt natuurlijk voor zich dat ik geluk heb gehad dat er geen enkele schrijfactiviteit bezig was naar de raid array tijdens de failure, anders had er zeer makkelijk filesystem corruption kunnen optreden van de gehele raid array.
root@darkstar2:~# cat /proc/mdstat 
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] 
md0 : active raid6 sdj1[8] sdh1[6] sdi1[7] sdk1[9] sdd1[2] sdg1[5] sde1[3] sdf1[4] sdc1[1] sdb1[0]
      15628115456 blocks level 6, 64k chunk, algorithm 2 [10/10] [UUUUUUUUUU]
      
unused devices: <none>
root@darkstar2:~# fsck.ext4 /dev/md0
e2fsck 1.41.11 (14-Mar-2010)
/dev/md0: clean, 123998/976764928 files, 1352199741/3907028864 blocks
root@darkstar2:~# mdadm -D /dev/md0
/dev/md0:
        Version : 0.90
  Creation Time : Sat Oct  9 07:53:36 2010
     Raid Level : raid6
     Array Size : 15628115456 (14904.13 GiB 16003.19 GB)
  Used Dev Size : 1953514432 (1863.02 GiB 2000.40 GB)
   Raid Devices : 10
  Total Devices : 10
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Wed Nov 10 19:41:48 2010
          State : clean
 Active Devices : 10
Working Devices : 10
 Failed Devices : 0
  Spare Devices : 0

     Chunk Size : 64K

           UUID : f512d680:c6458956:fbe53745:38f0c41a
         Events : 0.20079

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
       2       8       49        2      active sync   /dev/sdd1
       3       8       65        3      active sync   /dev/sde1
       4       8       81        4      active sync   /dev/sdf1
       5       8       97        5      active sync   /dev/sdg1
       6       8      113        6      active sync   /dev/sdh1
       7       8      129        7      active sync   /dev/sdi1
       8       8      145        8      active sync   /dev/sdj1
       9       8      161        9      active sync   /dev/sdk1
root@darkstar2:~# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/root             457G  8.5G  425G   2% /
/dev/md0               15T  4.9T  8.8T  36% /data
tmpfs                 501M     0  501M   0% /dev/shm
root@darkstar2:~# 

De rebuild van de 2 schijven die niet in de raid 6 wilden gaan is succesvol afgerond na een 52 uren durende rebuild. Ik ga de health van de disks wat nader in het oog houden de komende dagen maar initiële tests and the S.M.A.R.T info ziet er healthy uit.

Ik heb zonet nog een APC UPS besteld om de elektriciteitstoevoer te kunnen stabiliseren waarna ik in principe voldoende redundancy heb.

En Q, ik neem regelmatig back-ups van mijn meest kritieke bestanden zoals foto's, documenten en vooral mijn lossless muziekcollectie op een externe disk, maar toch bedankt voor de tip. :)

Ik ben nog steeds tevreden met de set-up van mijn fileserver zonder de nood van dure hardware controllers. Ik heb gedurende 7 jaar verschillende soorten fileservers gebouwd, allen gebaseerd op Slackware en Linux software raid (enkel raid 5 en raid 6) en het verbaast me telkens hoe stabiel en vlot dit alles werkt.

  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 20-12 23:39
mphilipp schreef op woensdag 10 november 2010 @ 12:15:
De airflow in mijn kast is volgens mij prima. Alleen waait er natuurlijk geen wind door de kast. Ik vind de heatsink op de cpu toch erg warm worden. Op meerdere plaatsen heb ik bij gebruikerservaringen van diverse raid controllers met passief gekoelde cpu's vernomen dat ze er toch maar een fan op hebben gemonteerd. Sommigen hadden last van crashes, anderen deden het preventief. Ik ben van het laatste kamp. Misschien is alles binnen specs, maar ik vind 'm nét ietsje te heet. Misschien zou er ook een betere heatsink op kunnen.

Ik ga overigens de mini-F16 vervangen door een iets grotere fan die ik in een slot ernaast aan een lepeltje ga monteren. Dat maakt een stuk minder herrie en zorgt iig voor een directe luchtstroom op die heatsink. Kan nooit kwaad.
De fan zit aan de onderkant zo te zien. Dat is wel jammer, want dat maakt het moeilijker er met een grotere fan op te blazen als alleen de heatsink erop zit. Maar goed, daar valt vast wel iets voor te verzinnen.
Weiman schreef op woensdag 10 november 2010 @ 12:49:
Yup, ik gebruik het hier onder een 2008 R2 omgeving; tweakblog
Thanks
psy schreef op woensdag 10 november 2010 @ 13:05:
By the same token a hardware raid card consumes between 12 to 20 watts right out the gate for 500-800mhz of the XOR onboard.
Hmmm, 20 Watt vind ik nog best flink. Maar goed, performance komt niet uit de lucht vallen natuurlijk, het kost nu eenmaal stroom.
Ashe schreef op woensdag 10 november 2010 @ 20:01:
Na mijn onverwachte interne power failure waardoor 5 van de 10 schijven zonder stroom kwamen te zitten draait de raid 6 array ondertussen terug lekker alsof er niets gebeurd is. Het spreekt natuurlijk voor zich dat ik geluk heb gehad dat er geen enkele schrijfactiviteit bezig was naar de raid array tijdens de failure, anders had er zeer makkelijk filesystem corruption kunnen optreden van de gehele raid array.
Daar zit ik dus ook even mee. Stel dat mijn Areca ARC-1220 lekker staat te stampen en de stroom valt uit. Loop ik dan een grote kans dat al mijn data naar de grootjes is? Ik weet dat Areca zo'n stroom backup unit verkoopt, maar is dat ook echt nodig?

  • rachez
  • Registratie: Januari 2003
  • Laatst online: 22-12 20:02
mphilipp schreef op woensdag 10 november 2010 @ 12:15:
[...]

Op meerdere plaatsen heb ik bij gebruikerservaringen van diverse raid controllers met passief gekoelde cpu's vernomen dat ze er toch maar een fan op hebben gemonteerd. Sommigen hadden last van crashes, anderen deden het preventief. Ik ben van het laatste kamp.
Je kan inderdaad kiezen om de arc-1220 eventueel passief te koelen of niet. Moet zeggen dat ik van de passieve heatsink die men er bijlevert niet echt onder de indruk ben. Het ís maar een kleine heatsink.

Ik ben wel van plan op termijn die passieve heatsink te gaan gebruiken, maar ik ga dan een slotcooler of een Scythe Kama Stay met fan eroverheen laten blazen. Anders vertrouw ik het niet.

  • Ashe
  • Registratie: November 2001
  • Laatst online: 25-11 08:54
Daar zit ik dus ook even mee. Stel dat mijn Areca ARC-1220 lekker staat te stampen en de stroom valt uit. Loop ik dan een grote kans dat al mijn data naar de grootjes is? Ik weet dat Areca zo'n stroom backup unit verkoopt, maar is dat ook echt nodig?
Indien dit puur leesactiviteit is zou het op zich geen corruptie mogen veroorzaken. Wel is het zoals bij elke harde schijf of raid set-up dat als er schrijfactiviteit bezig is en de stroom uitvalt, er een zekere kans bestaat tot filesystem corruptie.

Zelfs al heeft je areca controller een backup battery unit, dan nog zullen de schijven zonder stroom vallen.

Een goede UPS zou dit risico toch al drastisch moeten verminderen.

  • redfoxert
  • Registratie: December 2000
  • Niet online
Ashe schreef op woensdag 10 november 2010 @ 21:18:
[...]
Zelfs al heeft je areca controller een backup battery unit, dan nog zullen de schijven zonder stroom vallen.

Een goede UPS zou dit risico toch al drastisch moeten verminderen.
De backup batterij is ook alleen maar bedoeld om write acties die nog in de cache van de controller staan te bewaren totdat het systeem weer stroom heeft. Zodra dat het geval is worden deze write acties alsnog uitgevoerd, mits de array dan nog intact is.

Een UPS zou hier inderdaad een helpende hand kunnen zijn. Het hoeft niet eens voor lang te zijn, 15-30 minuten is meestal al genoeg om grotere schade aan je filesystems/disk arrays te voorkomen.

https://discord.com/invite/tweakers


  • rachez
  • Registratie: Januari 2003
  • Laatst online: 22-12 20:02
Mits je de write cache van je schijven ook uitschakelt zou een BBU een corrupt array moeten voorkomen bij stroomuitval. Althans dat lijkt mij, of zie ik dan nog wat over het hoofd?

Het nadeel is wel dat de cache maar voor 24 - 48 uur bewaard wordt, dus als je een weekend weg bent kun je alsnog de klos zijn.

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12 11:37

DJ-Visto

Aye aye, sir!

rachez schreef op woensdag 10 november 2010 @ 22:22:
Mits je de write cache van je schijven ook uitschakelt zou een BBU een corrupt array moeten voorkomen bij stroomuitval. Althans dat lijkt mij, of zie ik dan nog wat over het hoofd?

Het nadeel is wel dat de cache maar voor 24 - 48 uur bewaard wordt, dus als je een weekend weg bent kun je alsnog de klos zijn.
Een email laten sturen, en een SMS.. Dan iemand het gewoon laten fixen voor je! :+

igg, email werkt bij mn UPS wel zodra er iets gebeurt krijg ik een email, SMS kan evt. bij criticial, alleen ik heb nog geen oude nokia mobiel met usb kabel zodat die voor mij kan smsen naar mij zelf ;)

  • Q
  • Registratie: November 1999
  • Laatst online: 12:05
Als je NAS niet op een UPS is aangesloten met functie voor automatisch afsluiten kun je net zogoed je data meteen zelf maar wissen. Is gewoon vragen om array corruptie. Aka Russische roulette spelen met een pistool.

  • rachez
  • Registratie: Januari 2003
  • Laatst online: 22-12 20:02
Ook als je een bbu gebruikt om de data in cache op te vangen? Leg eens uit, waarom gaat dat dan sowieso mis?

  • axis
  • Registratie: Juni 2000
  • Laatst online: 26-01-2023
Controllers zoals de HP's en de Dell's gebruiken standaard 'write through' zonder BBU. Dus elke bitje wordt op disk weggeschreven, en pas dan vertelt ie het OS dat het gelukt is. Met BBU doen ze 'write back'. Hierbij worden de bitjes gequeued in de cache van de raid controller, en ondertussen vertelt de raid controller het OS dat ie al klaar is. De raid controller gaat dan later op een intelligente manier die bitjes wegschrijven naar disk. Onder slechte omstandigheden kan write trough erg traag zijn, heb wel eens 10% van de performance van write back gezien.

Bij de Dells kun je write back zonder bbu forceren (bad idea, maar handig voor een grote temp-schijf), bij de HP's die ik gezien heb niet.

Als je een bbu hebt, en de prik valt uit, heb je meestal een dag of 2 dat de batterij het volhoudt. Zodra de machine weer aan gaat schrijft de raid controller dan de data uit cache weg naar de disks, en is er op diskniveau niets mis.

Je filesystem kan natuurlijk alsnog problemen hebben, maar met een journaled filesystem zou je geen problemen moeten hebben (is makkelijk te fixen met fsck als er iets mis is) en met een transactioneel filesystem zoals ZFS is er uberhaupt niets aan de hand (de open transactie is nog niet gecommit).

Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!


  • Demo
  • Registratie: Juni 2000
  • Laatst online: 22-12 08:23

Demo

Probleemschietende Tovenaar

Zo.. vandaag 4 x 2 TB binnen gekregen. Inmiddels RAID-arrays aangemaakt, LVM2 Volume Group / Logical Volumes aangemaakt en daar XFS-filesystems op gemaakt. Nu staat rsync de data van de oude naar de nieuwe disks te kopiëren :)

Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

-Moondust- schreef op woensdag 10 november 2010 @ 20:51:
[...]
De fan zit aan de onderkant zo te zien. Dat is wel jammer, want dat maakt het moeilijker er met een grotere fan op te blazen als alleen de heatsink erop zit. Maar goed, daar valt vast wel iets voor te verzinnen.
Hoe bedoel je dat? Lucht heeft toch geen last van Newton? ;)
Als ik aan een lepeltje een fan kan prutsen, blaast ie precies op de heatsink volgens mij.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 20-12 23:39
Zijn er UPS'en die bij een stroomonderbreking de server netjes kunnen uitzetten? Lijkt me voor mij de beste oplossing. Geen corrupte data en dat mijn server dan ff 2 dagen offline is omdat ik een weekendje weg ben hindert niet. Als ik voor langere tijd op vakantie ga zet ik de server toch uit.
mphilipp schreef op woensdag 10 november 2010 @ 23:10:
Hoe bedoel je dat? Lucht heeft toch geen last van Newton? ;)
Als ik aan een lepeltje een fan kan prutsen, blaast ie precies op de heatsink volgens mij.
Warme lucht wil naar boven. Als de fan aan de bovenkant had gezeten, had ik de cpu-fan aan de kant van de Areca-kaart aan de cpu-heatsink kunnen monteren zodat deze naast het koelen van de cpu tegelijkertijd de warme lucht van de Areca-kaart wegzuigt. De casefan die in de bovenkant van mijn serverkast zit blaast vervolgens de warme lucht de kast uit. De luchtstroming zou dan in één natuurlijke rechte lijn de kast uitgewerkt worden. Met de fan aan de onderkant van de Areca-kaart gaat dit niet op.

  • tricksel
  • Registratie: Oktober 2002
  • Laatst online: 21-12 17:39
-Moondust- schreef op donderdag 11 november 2010 @ 09:40:
Zijn er UPS'en die bij een stroomonderbreking de server netjes kunnen uitzetten? Lijkt me voor mij de beste oplossing. Geen corrupte data en dat mijn server dan ff 2 dagen offline is omdat ik een weekendje weg ben hindert niet. Als ik voor langere tijd op vakantie ga zet ik de server toch uit.
Natuurlijk zijn die er. Een beetje UPS heeft nagenoeg altijd een serieele danwel USB poort, waarmee je een verbinding hebt met een computer die m.b.v. een deamon een bepaalde actie kan doen. Is redelijk standaard functionaliteit. Hoe denk je dat dat anders gaat bij het gemiddelde bedrijf waar niet 24/7 een systeembeheerder rondloopt?
Onder Linux wordt apcupsd veel gebruikt; APC maakt echter zelf ook software.
Google anders even op "ups usb", of "ups serial".

  • redfoxert
  • Registratie: December 2000
  • Niet online
In het verleden was de APC software nogal een draak. Helemaal als je vergat een maximum size in de logging opties in te stellen. Dan gingen er ineens servers onderuit vanwege te weinig harddisk space omdat die APC rotzooi de system partition helemaal volgekrast had. Erg fijn :/

Kweenie hoe het tegenwoordig zit maar wellicht een puntje van aandacht :D

https://discord.com/invite/tweakers


  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 20-12 23:39
Toch nog even terug naar het 'probleem' waar de UPS uitkomst voor zou kunnen bieden, nl. mogelijk dataverlies. Mijn pc (non-RAID) is in het verleden al menig maal op brute wijze van prik afgesloten terwijl hij lekker stond te draaien. Ik heb echter nog nooit problemen met corrupte data. Hooguit dat ik een keer het bestand wat newsleecher (usenet) aan het te downloaden was opnieuw moest downloaden. Maar goed, dat vind ik geen enkel bezwaar. Wat ik WEL een bezwaar vind is dat ik na een stroomonderbreking AL mijn data kwijt ben. Is er kans dat dat uberhaupt gebeurt of blijft het altijd bij hooguit corrupte data die op dat moment weggeschreven werd? Ik wil gewoon voorkomen er een kans bestaat dat ik door een stroomstoring alle data van mijn toekomstige 12TB RAID5/6 config kwijt ben. In dat geval wil ik hier maatregelen voor treffen. De kans dat ik een beetje corrupte data krijg doordat bestanden waarnaar op het moment van de stroomstoring wordt geschreven niet meer leesbaar zijn, vind ik niet erg.

  • fikkie_84
  • Registratie: Januari 2004
  • Laatst online: 21-12 14:40
tricksel schreef op donderdag 11 november 2010 @ 11:46:
[...]


Natuurlijk zijn die er. Een beetje UPS heeft nagenoeg altijd een serieele danwel USB poort, waarmee je een verbinding hebt met een computer die m.b.v. een deamon een bepaalde actie kan doen. Is redelijk standaard functionaliteit. Hoe denk je dat dat anders gaat bij het gemiddelde bedrijf waar niet 24/7 een systeembeheerder rondloopt?
Onder Linux wordt apcupsd veel gebruikt; APC maakt echter zelf ook software.
Google anders even op "ups usb", of "ups serial".
Alternatief onder linux kun je ook gebruik maken van nut, staan redelijk veel tutorials online hiervoor.
Gebruik het zelf ook tot grote tevredenheid.

  • axis
  • Registratie: Juni 2000
  • Laatst online: 26-01-2023
-Moondust- schreef op donderdag 11 november 2010 @ 14:53:
Toch nog even terug naar het 'probleem' waar de UPS uitkomst voor zou kunnen bieden, nl. mogelijk dataverlies. Mijn pc (non-RAID) is in het verleden al menig maal op brute wijze van prik afgesloten terwijl hij lekker stond te draaien. Ik heb echter nog nooit problemen met corrupte data. Hooguit dat ik een keer het bestand wat newsleecher (usenet) aan het te downloaden was opnieuw moest downloaden. Maar goed, dat vind ik geen enkel bezwaar. Wat ik WEL een bezwaar vind is dat ik na een stroomonderbreking AL mijn data kwijt ben. Is er kans dat dat uberhaupt gebeurt of blijft het altijd bij hooguit corrupte data die op dat moment weggeschreven werd? Ik wil gewoon voorkomen er een kans bestaat dat ik door een stroomstoring alle data van mijn toekomstige 12TB RAID5/6 config kwijt ben. In dat geval wil ik hier maatregelen voor treffen. De kans dat ik een beetje corrupte data krijg doordat bestanden waarnaar op het moment van de stroomstoring wordt geschreven niet meer leesbaar zijn, vind ik niet erg.
Zoals ik al zei, ligt aan het filesystem. Als je disk al aan het schrijven is tijdens de power outage zal waarschijnlijk alleen de file waarin geschreven wordt stukgaan. Er bestaat echter een kleine kans dat je systeem net aan het schrijven is naar de MFT (of superblock heet dat ofzo bij ext2/ext3?), en dat je gigantische problemen krijgt. Volgens mij hebben ze dit bij ext3 opgelost door ergens anders op de schijf nog een tweede superblock te plaatsen als backup. Hoe dit precies werkt, of hoe het bij andere filesystems werkt, weet ik niet.

Ik weet dat het bij een transactioneel filesystem zoals ZFS niet uit maakt, omdat dat juist het hele idee is van transacties, die worden gecommit, of niet. Niet half. Daarom heeft ZFS ook geen fsck.

Ik denk dat de kans op dataverlies heel erg klein is, maar als je het heel erg op safe wilt spelen, en je hebt geen transactioneel filesystem, en je wil je indekken tegen een langere downtime dan je bbu batterij vol kan houden, neem dan een UPS..

UPS is sowieso handig om te hebben. Nu kan ik thuis gewoon even de stroom uitzetten, of als de aardlekschakelaar omslaat hoef ik ook niet te wachten tot mijn servers allemaal weer 1-voor-1 in de juiste volgorde aangaan, alles blijft gewoon draaien.

Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!


  • Goku33
  • Registratie: Oktober 2002
  • Laatst online: 08-12 17:32

Goku33

Ownage!

Ik probeer op mijn FreeNAS server met 4x 2TB Samsung F4's in software raid 5 het energieverbruik wat terug te dringen. Ik wil de schijven graag na 20 minuten op standby laten gaan. Echter, als ik op alle schijven het energieverbruik (advanced power management) omlaag zet, hoor ik de schijven nonstop up- en downspinnen. De performance is dan ook om te huilen. Zeer trage reactietijd, en continu haperingen. Onbruikbaar dus.

Vooralsnog laat ik de power dus op maximum performance/maximum verbruik, maar dan gaan ze helemaal niet standby. Doe ik iets fout? Mis ik een bepaalde instelling?

Tevens vraag ik me af of het mogelijk is om de hele server na bijvoorbeeld 60 minuten inactiviteit op standby / hibernate te laten gaan, en dan bij een aanvraag via het netwerk weer te laten starten? (Wake on LAN). Ik vind hier nergens settings voor.

  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

Oh? ;)
Als de fan aan de bovenkant had gezeten, had ik de cpu-fan aan de kant van de Areca-kaart aan de cpu-heatsink kunnen monteren zodat deze naast het koelen van de cpu tegelijkertijd de warme lucht van de Areca-kaart wegzuigt. De casefan die in de bovenkant van mijn serverkast zit blaast vervolgens de warme lucht de kast uit. De luchtstroming zou dan in één natuurlijke rechte lijn de kast uitgewerkt worden. Met de fan aan de onderkant van de Areca-kaart gaat dit niet op.
Op die fiets.Ach, 1 fan meer of minder maakt (bij mij dan) niet zo gek veel uit. De fans van de CoolerMaster drivecages maken toch meer herrie dan een extra fan.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 22-12 11:35

heuveltje

KoelkastFilosoof

Goku33 schreef op donderdag 11 november 2010 @ 16:25:
Tevens vraag ik me af of het mogelijk is om de hele server na bijvoorbeeld 60 minuten inactiviteit op standby / hibernate te laten gaan, en dan bij een aanvraag via het netwerk weer te laten starten? (Wake on LAN). Ik vind hier nergens settings voor.
Wake On Lan is niet hetzelfde als "bij een aanvraag via het netwerk weer te laten starten"
Voor WOL moet je een speciaal data-pakketje versturen

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Je kunt natuurlijk ook voor een slot-fan gaan.

De CSL/OT kroeg !


  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 20-12 23:39
Dadona schreef op donderdag 11 november 2010 @ 17:46:
Je kunt natuurlijk ook voor een slot-fan gaan.
Een collega-tweaker had deze al gespot. Lijkt me een goeie.
Afbeeldingslocatie: http://ic.tweakimg.net/ext/i/imagemedium/1255340027.jpeg

  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 22-12 11:35

heuveltje

KoelkastFilosoof

-Moondust- schreef op donderdag 11 november 2010 @ 19:00:
[...]

Een collega-tweaker had deze al gespot. Lijkt me een goeie.
[afbeelding]
Wel handig als je dan ook een naam vermeld :)

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

Eens kijken of ik zoiets zelf kan knutselen. Ik heb nog fans liggen en nog wel een paar van die lepeltjes. Kijken of dat aan elkaar blijft zitten met een klodder soldeer...

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • job
  • Registratie: Februari 2002
  • Laatst online: 12:39
heuveltje schreef op donderdag 11 november 2010 @ 19:33:
[...]


Wel handig als je dan ook een naam vermeld :)
Aan het logo te zien is het een product van scythe.
Even zoeken en presto: http://www.scythe-usa.com...071/sckst1000_detail.html

Verwijderd

Doen we er voor de aardigheid ook een pricewatch linkje bij. ;) pricewatch: Scythe Kama Stay

  • steve2507
  • Registratie: Juli 2005
  • Laatst online: 10-10 17:19
heuveltje schreef op maandag 08 november 2010 @ 12:59:
Wat was je nou in totaal kwijt. dus incl verzend en inklaringskosten ?

* heuveltje die nog steeds loopt te twijfelen.
Ik kijk nu nog naar een andere bigtower (ala stacker) zodat ik die af en toe naar een lanparty kan sjouwen,
en daarvoor is zin norco gewoon echt te lomp lijkt me.
Van de andere kant lijken 20 hotswaps me verdomd handig :)
448,34 euro (577 dollar) voor norco (4224 kast + 120mm fan wall + reverse SAS breakout cable + verzending)
92 euro en nog wat inklaring.
Dat maakt 541 euro totaal

Het gaat trouwens wel om 24 hotswaps, niet 'slechts' 20 ;-)

Heb nu overigens wat problemen met m'n 1880ix-24 die niet helemaal lekker met m'n mamaplank werkt. Gelukkig heeft Areca hetzelfde bord liggen met hetzelfde probleem; ze zijn het aan het uitzoeken.

[ Voor 3% gewijzigd door steve2507 op 11-11-2010 20:51 ]


  • Q
  • Registratie: November 1999
  • Laatst online: 12:05
Welk mobo is dat?

24 x 2 TB in RAID 6 dat lijkt me wel wat. Effectief 44 TB capaciteit. Punt is dat ik nog maar amper 8 TB gebruik op mijn huidige NAS, dus heb geen goede reden om zo iets op te gaan zetten.

Alsof je er een reden voor zou moeten hebben, goed punt, het is cool maar het is niet gratis.

Gaat deze doos meteen vol met 2 TB schijven of anders?

[ Voor 91% gewijzigd door Q op 12-11-2010 00:33 ]


  • vargo
  • Registratie: Januari 2001
  • Laatst online: 15-12 17:15
steve2507 schreef op donderdag 11 november 2010 @ 20:49:
[...]

448,34 euro (577 dollar) voor norco (4224 kast + 120mm fan wall + reverse SAS breakout cable + verzending)
92 euro en nog wat inklaring.
Dat maakt 541 euro totaal

Het gaat trouwens wel om 24 hotswaps, niet 'slechts' 20 ;-)

Heb nu overigens wat problemen met m'n 1880ix-24 die niet helemaal lekker met m'n mamaplank werkt. Gelukkig heeft Areca hetzelfde bord liggen met hetzelfde probleem; ze zijn het aan het uitzoeken.
Kan je de kast voor dat geld niet beter gewoon halen bij ri-vier.nl? Is 410,- euro voor de kast; nog 130,- te spenderen. Ik heb mijn RPC-3116 daar ook opgehaald en moet ook zeggen dat de 'nazorg' prima was: 1 van mijn SAS connectors was gaar en kon direct een nieuwe krijgen.

Iets anders: ik ben nog op zoek naar een upgrade (mobo+cpu+mem) voor mijn NAS en kwam deze 'review' over het Supermicro X8SI6-F mobo tegen (en ook deze X8ST3-F).

Na wat verder zoeken blijkt dat Supermicro dus een aantal 1156/1366 mobos mét onboard SAS aansluiting via een LSI SAS 2008 / LSI SAS1068E. Die hebben doorgaans uitstekende driver support. Tel daarbij op de kwaliteit van Supermicro: goede support, (vaak dubbele) intel onboard nics, een dedicated management interface (over ethernet) en er kan naast een Xeon ook een core-i in.

Kortom: ga denk ik voor een Supermicro X8STi-3F / Supermicro X8ST3-F, waarmee ik met mijn Intel SASUC8I op 4 SAS poorten uitkom (+6x SATA).
offtopic:
Nog wel een andere backplate voor de RPC-3116 halen want die kan nu enkel mini ATX aan.


Iemand toevallig ervaring mee?

  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 22-12 11:35

heuveltje

KoelkastFilosoof

vargo schreef op vrijdag 12 november 2010 @ 09:02:
[...]

Kan je de kast voor dat geld niet beter gewoon halen bij ri-vier.nl? Is 410,- euro voor de kast; nog 130,- te spenderen. Ik heb mijn RPC-3116 daar ook opgehaald en moet ook zeggen dat de 'nazorg' prima was: 1 van mijn SAS connectors was gaar en kon direct een nieuwe krijgen.
Das de versie met "maar" 20 trays :)
De 24 disk versie is duurder en vooralsnog niet leverbaar
Maar idd prijsverschil is wel vrij klein. al zitten bij bovenstaande nog geen kabels en die zijn ook vrij prijzig.

* heuveltje twijfelt nog vrolijk verder !

[ Voor 3% gewijzigd door heuveltje op 12-11-2010 10:47 ]

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d

Extera schreef op woensdag 10 november 2010 @ 17:31:
*knip*
Met VT-d kan ik dan mijn Rocketraid 2340 direct aan een VM koppelen, en een FreeBSD / ZFS Viruele NAS bouwen.
*knip*
En hoe ga je dat doen?

Even niets...


  • Extera
  • Registratie: Augustus 2004
  • Laatst online: 05-05 16:02
Deze meneer doet het alvast voor, andere controller, met een ander doel, maar het idee is het zelfde.

Mijn Serverrack - iRacing Profiel


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

Ik heb toch een ernstig probleem met mijn NAS. Tot nu toe heb ik het er niet over gehad omdat ik nog steeds aan het zoeken was naar mogelijke oorzaken en probeerde andere zaken te elimineren. Wat gebeurt er namelijk: het systeem loopt af en toe gierend vast. Als ik dan kijk naar logs op het systeem of op de HighPoint (RocketRaid 2680 met 6 Samsung 2Tb in RAID5 via de kaart) kaart, zie ik dat er steeds een andere disk uit de array valt (soms staat er overigens ook helemaal niets van een error in de logs). Het systeem is dan niet meer te benaderen en ik moet 'm hardhandig uit zetten.

Ik vermoed dat het aan de brakke driver ligt. Ik draai op Ubuntu 10 64bits op een AMD Athlon X4. Ik heb die driver al zelf moeten compileren wat gelukt is en de boel draait op zich ook prima. Lezen kan ik zonder problemen. Alleen als ik ga schrijven, houdt ie na een poosje ineens op. En de ene keer kan ik 10 files van 10Gb erheen sturen en dan ineens kapt ie er weer mee.
Aangezien het steeds andere disks zijn die 'eruit' vallen en ze ook naderhand doen alsof hun neus bloedt, denk ik niet dat het aan de disks zelf ligt. Als ze incompatible zouden zijn, waarom dan steeds een andere disk en waarom pas na een hele vracht data? Ik heb allerlei zaken getest: NCQ uit en aan, cache aan en uit, maar het maakt niet uit.
Ook heb ik die fan geprobeerd omdat ik vreesde dat de cpu te heet zou worden en daardoor instabiel, maar dat maakt dus ook niet uit. Afgelopen nacht is ie aan het rebuilden geweest, maar dat heeft dus ook niet geholpen.

Nou heb ik 'ergens' iets gelezen dat de HighPoint driver wel werkt (onder Ubuntu) maar dat bepaalde Linux tools een crash zouden veroorzaken. Ik kan dat alleen niet meer vinden. Maar dan nog, als ik niets doe, komen die dingen ook niet in actie, dus tenzij er een of ander proces draait dat af en toe een bepaalde disktool start die vervolgens de driver laat crashen ofzo...ik gok ook maar. Heeft iemand hier een idee over?

Wat ik nu wil gaan doen, is de array afbreken en er 6 losse disks van maken en volledig software raid draaien. Ik neem de performance drop dan wel voor lief. Zo erg is dat volgens mij toch niet. Volgens mijn theorie hoeft die driver dan niets meer te doen dan de drives toegankelijk maken voor het OS, en zou dat kunnen helpen.

Heeft iemand verder nog tips? De data die erop staat kan ik nu nog wel even parkeren; ik heb bewust nog niet iets erop gezet dat onvervangbaar is, mede door de problemen.

edit:
Ik heb toch nog gevonden welke tools een crash zouden veroorzaken: hdparm, hddtemp, en smartctl. Echter...ik heb van die 3 alleen hdparm op mijn systeem staan en die geeft gewoon een antwoord terug als ik 'm loslaat op de array. Geen probleem. Dat is het dus niet.

[ Voor 5% gewijzigd door mphilipp op 12-11-2010 16:50 ]

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • Q
  • Registratie: November 1999
  • Laatst online: 12:05
Hmm. het RAID deel kan dan wel door software raid gedaan worden, de schijven benader je nog wel via driver van HPT, maar het is toch de moeite waard om te proberen.

Alle drives worden losse JBODS. Pak dan 1 drive en ga daar gewoon aso veel data naar toe pompen en kijk of de boel vast loopt. Doe dat met alle disks tegelijk en wachten.

Als dit wel goed gaat, is er iets mis met de RAID driver van hpt, mogelijk in combinatie met de specifieke hardware.

Zijn er geen kernel meldingen in de logs als de boel crasht?

  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

Q schreef op vrijdag 12 november 2010 @ 16:43:
Hmm. het RAID deel kan dan wel door software raid gedaan worden, de schijven benader je nog wel via driver van HPT, maar het is toch de moeite waard om te proberen.

Alle drives worden losse JBODS. Pak dan 1 drive en ga daar gewoon aso veel data naar toe pompen en kijk of de boel vast loopt. Doe dat met alle disks tegelijk en wachten.
1 drive of allemaal, maakt niet zoveel uit. Ik moet hoe dan ook de huidige array afbreken.
Als dit wel goed gaat, is er iets mis met de RAID driver van hpt, mogelijk in combinatie met de specifieke hardware.
Zijn er geen kernel meldingen in de logs als de boel crasht?
De RAID driver is de open source variant. Die moet je zelf compileren. De versies voor specifieke linux distro's zijn hopeloos verouderd. Eigenlijk een slechte beurt van HighPoint, het zou voor hen toch niet zoveel moeite moeten zijn om de boel onder een iets courantere versie van Ubuntu te compileren. Maar ja, het zou ook zomaar iets kunnen zijn met mijn moederbord of CPU waar ie een probleem mee heeft. Eerst dacht ik dat de kaart, die PCI-e x4 is maar in een x16 slot zit, het probleem zou zijn. Maar PCI-e zou volledig backwards compatible moeten zijn. Zolang ie er maar goed in zit.

Ik zie niet altijd meldingen in syslog of kernel log. Ook deze keer niet. Soms zit ik meldingen dat ie een bepaalde disk niet meer kan benaderen. Dat is dan steeds een andere disk, dus daar zit ook geen lijn in. Ik heb wel het vermoeden dat na de laatste kernel update (toen heb ik ook de driver weer opnieuw gecompileerd) er helemaal nooit meer meldingen komen. Eerst zag ik vaak nog wel een fout ergens voor ie sneuvelde, maar nu helemaal niet meer.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • Q
  • Registratie: November 1999
  • Laatst online: 12:05
Onder Debian heb ik nooit problemen gehad om de highpoint 'opensource' driver te compileren.

Maar dat is met een 2.6.28 kernel, dus oude meuk.

Maar voor een NAS draai ik zelf liever oude meuk. Oude meuk heeft zich meestal bewezen. Ubuntu is nieuwer, maar misschien 'te nieuw'. Ik weet niet welke kernel er in zit.

Pak tijdelijk een andere disk voor het OS, flikker daar een kale Debian op met de driver en test dat eens? Als dat ook niet stabiel is, dan wordt het spannender.

Probleem kan zijn dat debian jouw mobo qua componenten niet (volledig) ondersteund.

  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

Q schreef op vrijdag 12 november 2010 @ 17:22:
Onder Debian heb ik nooit problemen gehad om de highpoint 'opensource' driver te compileren.

Maar dat is met een 2.6.28 kernel, dus oude meuk.

Maar voor een NAS draai ik zelf liever oude meuk. Oude meuk heeft zich meestal bewezen. Ubuntu is nieuwer, maar misschien 'te nieuw'. Ik weet niet welke kernel er in zit.

Pak tijdelijk een andere disk voor het OS, flikker daar een kale Debian op met de driver en test dat eens? Als dat ook niet stabiel is, dan wordt het spannender.

Probleem kan zijn dat debian jouw mobo qua componenten niet (volledig) ondersteund.
Ik heb 10.4.1 LTS, dus dat is volgens mij nooit bleeding edge. Kernel versie is 2.6.32-25. Het verbaast mij ook dat het fout gaat. Ik heb toch niet echt obscure hardware gekozen, mobo is een Asus M4A78LT-M LE. Echt heel veel hoeft ie niet te ondersteunen, het is een server. Ik gebruik de grafische meuk niet en audio ook niet. Misschien is het een optie. Maar ik zie er tegenop om een ander os te gaan gebruiken, want dan kan ik alles weer opnieuw gaan installeren... Ik zal eens in de voorraadkast kijken of ik niet nog een disk heb liggen voor een experiment met Debian.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 20-12 23:24

Quindor

Switching the universe....

mphilipp schreef op vrijdag 12 november 2010 @ 16:23:
Ik heb toch een ernstig probleem met mijn NAS. Tot nu toe heb ik het er niet over gehad omdat ik nog steeds aan het zoeken was naar mogelijke oorzaken en probeerde andere zaken te elimineren. Wat gebeurt er namelijk: het systeem loopt af en toe gierend vast. Als ik dan kijk naar logs op het systeem of op de HighPoint (RocketRaid 2680 met 6 Samsung 2Tb in RAID5 via de kaart) kaart, zie ik dat er steeds een andere disk uit de array valt (soms staat er overigens ook helemaal niets van een error in de logs). Het systeem is dan niet meer te benaderen en ik moet 'm hardhandig uit zetten.
Hmm, klinkt als een al oud probleem wat RAID kaarten in combinatie met bepaalde disks (en firmware) al tijden hebben. Probeer maar eens zonder de write cache van je disk te gaan werken of zelfs volledig zonder cache, waarschijnlijk zijn je problemen dan over.

Moet zeggen dat ik die problemen wel alleen ooit op mijn highpoint kaarten heb gezien, sinds ik naar Adaptec geswitched ben is alles in orde.

Dit probleem ook ooit gehad en de enige methode om het toen te fixen was met allemaal losse disken te gaan werken op de controller en software RAID in het OS. Niet echt bepaald een geweldige oplossing, maar toch.

Welke disken heb je precies? Ik heb zelf 2TB Samsung F3EG disken in R5 en R6 via een adaptec 5805.

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
Sow,

Ik ben ook een tijdje weggeweest van dit topic. Drukte op het werk wat me teveel tijd opslokte om mijn config uit te zoeken. Maar nu is mijn zelfbouw NAS een feit. Ik heb de spullen besteld en ga ze straks ophalen.

Het ding gaat OSCAR heten (groene vuilnisbakbeest van Sesamstraat :D)

OSCAR:
Cooler Master CM 690 II Lite met een extra 4 in 3 module
Cooler Master Extreme Power Plus 460W
Gigabyte GA-890GPA-UD3H (8 x SATA onboard).
AMD Athlon II X2 250
4gb DDR3 1333 GeIL geheugen (had liever Corsair gehad maar dat was nergens op voorraad)
8 x Western Digital Caviar GreenPower WD20EARS. 2TB
1 x el cheapo PATA schijfje voor het OS

De reden dat ik niet voor een controller ga is dat ik veel problemen tegenkom met de supermicro kaartjes en Debian (Lenny) waarbij disks uitvallen bij smart commands. Dat is ALS de drivers al werken. Een highpoint kaartje vind ik op dit moment teveel van het goede voor thuis. Omdat ik dus geen controller gebruik moet ik wel een PATA schijfje gebruiken voor het OS.

Ik ben ook afgestapt van het hele hotswap gebeuren omdat ik niet aan een fatsoenlijke tweedehands case kan komen. Nieuw idemdito voor het kostenplaatje niet gedaan. Zovaak hoop ik toch niet dat ik mijn schijven ga wisselen :D

Er komt Debian (Lenny) op te draaien. De 8 x 2TB schijfjes komen in RAID 6 te draaien. Er zal dagelijks in de nacht een back-up plaatsvinden van mijn PC en Mac (foto's e.d.) naar de NAS toe. Deze stuurt maakt ook nog een back-up naar een Externe HDD (misschien dat ik dit nog in een Raid 1 constructie knutsel) en naar een online storage provider.

De NAS zal dienstdoen voor downloads / FTP en eventueel dat ik er nog een DC++ client op ga draaien.

Ik zal kijken of ik wat kiekjes kan maken vanmiddag :)

  • Q
  • Registratie: November 1999
  • Laatst online: 12:05
Nette setup, al pics?

  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

Quindor schreef op zaterdag 13 november 2010 @ 11:15:
[...]

Hmm, klinkt als een al oud probleem wat RAID kaarten in combinatie met bepaalde disks (en firmware) al tijden hebben. Probeer maar eens zonder de write cache van je disk te gaan werken of zelfs volledig zonder cache, waarschijnlijk zijn je problemen dan over.
Nope. En voor zover ik weet is dat bij Samsungs niet het geval. WD bouwt - om ons geld af te troggelen - dingen in waardoor we gedwongen worden om 'enterprise' disks te kopen. Pure oplichterij.
Bovendien (en dat schreef ik al in mijn verhaal) heb ik al die opties al een keer uit gehad. NCQ, cache, alles. Maakt niets uit. Het duurt alleen langer voor het gebeurt omdat ie er langzamer van wordt... ;)

Ik heb trouwens dezelfde disks als jij.

[ Voor 10% gewijzigd door mphilipp op 14-11-2010 21:39 ]

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


Verwijderd

mphilipp schreef op vrijdag 12 november 2010 @ 16:23:
Ik heb toch een ernstig probleem met mijn NAS. Tot nu toe heb ik het er niet over gehad omdat ik nog steeds aan het zoeken was naar mogelijke oorzaken en probeerde andere zaken te elimineren. Wat gebeurt er namelijk: het systeem loopt af en toe gierend vast. Als ik dan kijk naar logs op het systeem of op de HighPoint (RocketRaid 2680 met 6 Samsung 2Tb in RAID5 via de kaart) kaart, zie ik dat er steeds een andere disk uit de array valt (soms staat er overigens ook helemaal niets van een error in de logs). Het systeem is dan niet meer te benaderen en ik moet 'm hardhandig uit zetten.
Je gebruikt hardware RAID icm. disks die geen ondersteuning voor TLER hebben; dan krijg je dus al snel drive dropouts. Dat komt omdat de disks langer dan x seconden aan recovery doen, en de controller dan denkt dat die schijf uitgevallen is.

Dus ik denk dat het advies hier is om óf TLER-enabled disks gebruiken, óf software RAID onder Linux of ZFS gebruiken. Bij dat laatste heb je dit probleem niet en kun je dus goedkopere desktop edition schijven gebruiken

In je smart-INFO zou je kunnen kijken naar: reallocated sector count, current pending sectors (dit veroorzaakt de drive-dropouts, maar wordt na een zero-write or rebuild weer 0) en udma crc error count, wat problemen met de kabels aanduid.

Hopelijk kun je hier wat mee?

  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

Verwijderd schreef op zondag 14 november 2010 @ 23:24:
[...]

Je gebruikt hardware RAID icm. disks die geen ondersteuning voor TLER hebben; dan krijg je dus al snel drive dropouts. Dat komt omdat de disks langer dan x seconden aan recovery doen, en de controller dan denkt dat die schijf uitgevallen is.

Dus ik denk dat het advies hier is om óf TLER-enabled disks gebruiken, óf software RAID onder Linux of ZFS gebruiken. Bij dat laatste heb je dit probleem niet en kun je dus goedkopere desktop edition schijven gebruiken

In je smart-INFO zou je kunnen kijken naar: reallocated sector count, current pending sectors (dit veroorzaakt de drive-dropouts, maar wordt na een zero-write or rebuild weer 0) en udma crc error count, wat problemen met de kabels aanduid.

Hopelijk kun je hier wat mee?
Op zich kan ik hier wat mee, want na wat zoekwerk blijkt dat er een methode is om die TLER/CCTL aan te schakelen op oa de Samsung. link. Nu alleen nog even puzzelen of dat ook onder linux werkt en of ik dat op een of andere manier automatisch kan laten uitvoeren (het gaat op de Samsung verloren na een power cycle).

edit:
Inmiddels heb ik de smartctl package geinstalleerd en ik kan ook de disks aanspreken door de Highpoint kaart heen, alleen accepteert ie het commando dat ze in thread op Storagereview noemen niet. Het zou in principe moeten kunnen werken op die Samsung, kunst is nu alleen om dat op een fijne manier door de raid controller te krijgen. En dan kan ik weer testen.

[ Voor 13% gewijzigd door mphilipp op 15-11-2010 01:08 ]

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
nee.... ik kan de onderdelen vanmiddag pas gaan ophalen....Na het ontvangen van het afhaal bericht (waarin overigens stond dat ik het zaterdag kon ophalen) in enthousiasme naar de winkel gereden, om er vervolgens achter te komen dat ze gesloten zijn op zaterdag :P |:(

alleen even kijken of ze nog een ander PATA schijfje op voorraad hebben. Die ik besteld heb is inmiddels niet meer leverbaar. Misschien dat ik wel een USB-stickje pak om het OS op te draaien.

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12 11:37

DJ-Visto

Aye aye, sir!

DJ-NaRRa schreef op maandag 15 november 2010 @ 10:56:
[...]

nee.... ik kan de onderdelen vanmiddag pas gaan ophalen....Na het ontvangen van het afhaal bericht (waarin overigens stond dat ik het zaterdag kon ophalen) in enthousiasme naar de winkel gereden, om er vervolgens achter te komen dat ze gesloten zijn op zaterdag :P |:(

alleen even kijken of ze nog een ander PATA schijfje op voorraad hebben. Die ik besteld heb is inmiddels niet meer leverbaar. Misschien dat ik wel een USB-stickje pak om het OS op te draaien.
Je kan ook een crapy sata controller nemen.. Goed genoeg voor een boot disk (evt RAID1 software)

  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
DJ-Visto schreef op maandag 15 november 2010 @ 10:57:
[...]

Je kan ook een crapy sata controller nemen.. Goed genoeg voor een boot disk (evt RAID1 software)
Daar heb ik ook naar gekeken... alleen kom ik veel problemen tegen met dit soort controllers en compatibiliteit onder linux(zie ook de reden waarom ik voor het gebruikte moederbord ben gegaan versus een Sata / SAS controller). Aangezien mijn linux kennis beperkt is zie ik het niet zo zitten om zelf drivers / kernel te moeten gaan compilen.

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 22-12 11:37

DJ-Visto

Aye aye, sir!

DJ-NaRRa schreef op maandag 15 november 2010 @ 11:13:
[...]


Daar heb ik ook naar gekeken... alleen kom ik veel problemen tegen met dit soort controllers en compatibiliteit onder linux(zie ook de reden waarom ik voor het gebruikte moederbord ben gegaan versus een Sata / SAS controller). Aangezien mijn linux kennis beperkt is zie ik het niet zo zitten om zelf drivers / kernel te moeten gaan compilen.
Ja ok, je hebt ze wel.. Alleen het kost altijd wat ;) Igg succes met je build! :)

Verwijderd

mphilipp schreef op maandag 15 november 2010 @ 00:52:
[...]

Op zich kan ik hier wat mee, want na wat zoekwerk blijkt dat er een methode is om die TLER/CCTL aan te schakelen op oa de Samsung. link. Nu alleen nog even puzzelen of dat ook onder linux werkt en of ik dat op een of andere manier automatisch kan laten uitvoeren (het gaat op de Samsung verloren na een power cycle).
Zal denk ik niet werken op een SCSI/RAID controller zoals Highpoint; sluit je disks eventjes op een normale IDE/AHCI SATA aansluiting, zoals de onboard SATA poorten. Dan kun je TLER/CCTL inschakelen (7 seconden is een goede instelling) en daarna je setup weer in originele staat terugbrengen.

Hebben een van je disks al gerepareerde sectors? Reallocated sector count; smartctl -A /dev/.... is het handigst.

  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

Verwijderd schreef op maandag 15 november 2010 @ 13:59:
[...]
Zal denk ik niet werken op een SCSI/RAID controller zoals Highpoint; sluit je disks eventjes op een normale IDE/AHCI SATA aansluiting, zoals de onboard SATA poorten. Dan kun je TLER/CCTL inschakelen (7 seconden is een goede instelling) en daarna je setup weer in originele staat terugbrengen.

Hebben een van je disks al gerepareerde sectors? Reallocated sector count; smartctl -A /dev/.... is het handigst.
Smartctl werkt wél door een controller als de Highpoint, dat heb ik inmiddels al getest:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
smartctl -a -d hpt,1/1 /dev/sdd

smartctl 5.40 2010-02-03 r3060 [x86_64-unknown-linux-gnu] (local build)
Copyright (C) 2002-10 by Bruce Allen, http://smartmontools.sourceforge.net

=== START OF INFORMATION SECTION ===
Device Model:     SAMSUNG HD203WI
Serial Number:    S1UYJ1YZ601160
Firmware Version: 1AN10003
User Capacity:    2,000,398,934,016 bytes
Device is:        Not in smartctl database [for details use: -P showall]
ATA Version is:   8
ATA Standard is:  ATA-8-ACS revision 6
Local Time is:    Mon Nov 15 00:40:34 2010 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED
{CUT}
SCT capabilities:              (0x003f) SCT Status supported.
                                        SCT Feature Control supported.
                                        SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   100   100   051    Pre-fail  Always       -       5
  2 Throughput_Performance  0x0026   252   252   000    Old_age   Always       -       0
  3 Spin_Up_Time            0x0023   060   060   025    Pre-fail  Always       -       12156
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       36
  5 Reallocated_Sector_Ct   0x0033   252   252   010    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   252   252   051    Old_age   Always       -       0
  8 Seek_Time_Performance   0x0024   252   252   015    Old_age   Offline      -       0
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       885
 10 Spin_Retry_Count        0x0032   252   252   051    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   252   252   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       58
191 G-Sense_Error_Rate      0x0022   252   252   000    Old_age   Always       -       0
192 Power-Off_Retract_Count 0x0022   252   252   000    Old_age   Always       -       0
194 Temperature_Celsius     0x0002   064   064   000    Old_age   Always       -       28 (Lifetime Min/Max 19/32)
195 Hardware_ECC_Recovered  0x003a   100   100   000    Old_age   Always       -       0
196 Reallocated_Event_Count 0x0032   252   252   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   252   252   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   252   252   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0036   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x002a   100   100   000    Old_age   Always       -       0
223 Load_Retry_Count        0x0032   252   252   000    Old_age   Always       -       0
225 Load_Cycle_Count        0x0032   100   100   000    Old_age   Always       -       3634

SMART Error Log Version: 1
No Errors Logged
{CUT}

Alleen als ik dan de SCE parameter probeer uit te lezen, zoals in het storagereview forum staat, accepteert ie dat niet:
code:
1
2
3
4
5
6
7
8
sudo smartctl -d sat -l scterc -a -d hpt,1/1 /dev/sdd
smartctl 5.40 2010-02-03 r3060 [x86_64-unknown-linux-gnu] (local build)
Copyright (C) 2002-10 by Bruce Allen, http://smartmontools.sourceforge.net

=======> INVALID ARGUMENT TO -l: scterc
=======> VALID ARGUMENTS ARE: error, selftest, selective, directory[,g|s], background, scttemp[sts|hist], sasphy[,reset], sataphy[,reset], gplog,N[,RANGE], smartlog,N[,RANGE], xerror[,N][,error], xselftest[,N][,selftest] <=======

Use smartctl -h to get a usage summary

Wat op zich vreemd is, want dit commando zou moeten werken. Of het eraan ligt dat er een RAID controller tussen zit weet ik niet. In principe werkt smartctl er wel doorheen, maar goed...dat vogelen we wel uit.

De drive op een andere controller prikken gaat niet werken, want de waarde blijft niet behouden na een power cycle. Dus ik zou de disk dus live moeten houden terwijl de controller omprik...lijkt me niet zo gezond.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • DJ-NaRRa
  • Registratie: September 2002
  • Laatst online: 01-11 23:27
DJ-Visto schreef op maandag 15 november 2010 @ 12:16:
[...]

Ja ok, je hebt ze wel.. Alleen het kost altijd wat ;) Igg succes met je build! :)
klopt. Bij de duurdere kaarten zag ik een betere compatibiliteit met drivers en in mijn geval debian. echter was ik voor nu nog niet van plan om veel geld uit te geven aan een hardware raid kaartje terwijl ik het alleen als gewone controller gebruik.

Bij de goedkopere kaartjes zoals die van Supermicro kwam ik veel topics tegen zoals het probleem waar mphillip nu last van heeft. Dat is voor mij ook een afweging geweest om niet voor die kaarten te gaan :)

Ik ga dadelijk (ja nu echt) de spulletjes ophalen :)

[ Voor 152% gewijzigd door DJ-NaRRa op 15-11-2010 15:50 ]


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

Ik heb toch maar besloten dat ik van het gezeik af wil zijn en de boel maar ga omkatten naar softraid. Momenteel ben ik de boel even aan het parkeren op mijn staging area en dan maak ik er maar 6 JBOD's van en maak er een software raid array van. Het is blijkbaar op een of andere manier erg lastig om dat bitje op die Samsungs om te krijgen en aangezien ik het zal moeten scripten om het na reboots weer te activeren, vind ik het toch een beetje een Mr.Bean oplossing. Liever iets dat gegarandeerd werkt.

Jammer, maar helaas...

Het terugkopieren van de content is straks de ultieme test. Er stond al iets van 500Gb op, dus als dat zonder problemen teruggeplaatst kan worden, is ie goed.

[ Voor 14% gewijzigd door mphilipp op 15-11-2010 17:05 ]

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • Q
  • Registratie: November 1999
  • Laatst online: 12:05
Ik heb zelf de beruchte samsung F1 disks nu als test via raid op de controller zelf,dus waar jij nu problemen mee hebt. Geen vuiltje aam de lucht. Op de 2420 dus.

Het is lastig om te zeggen waar het aan ligt. Ik verdenk zelf die WD disks, gebaseerd op eerdere topics hierzo. Ik verwacht dat de JBOD setup met mdadm je zal verlossen van de problemen.

Die tools van HP vind ik zelf niet heel tof, met mdadm heb je zelfs nog wat makkelijker de controle en zicht op je array. Zelf heb ik altijd zo gedraaid. :)

  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

Q schreef op maandag 15 november 2010 @ 18:32:
Ik heb zelf de beruchte samsung F1 disks nu als test via raid op de controller zelf,dus waar jij nu problemen mee hebt. Geen vuiltje aam de lucht. Op de 2420 dus.

Het is lastig om te zeggen waar het aan ligt. Ik verdenk zelf die WD disks, gebaseerd op eerdere topics hierzo. Ik verwacht dat de JBOD setup met mdadm je zal verlossen van de problemen.

Die tools van HP vind ik zelf niet heel tof, met mdadm heb je zelfs nog wat makkelijker de controle en zicht op je array. Zelf heb ik altijd zo gedraaid. :)
Tsjaa...nu ik gerichter kan zoeken, vind ik ineens meer mensen met dit probleem. Alleen hebben ze dan net weer een andere raid kaart, waarbij zij wel die optie kunnen verzetten via smartctl. Ik snap niet dat het bij mij niet lukt (ik kan alles doen via smartctl, behalve die ene optie verzetten). Misschien een te lage versie van smartctl (5.39.1, 5.40.1 is de allernieuwste) maar die hogere is niet voor AMD64. Nou ja...ik ga wel over naar JBOD. Ik ben niet zo gecharmeerd van die Mr.Bean oplossingen. Daar krijg je vroeg of laat toch weer problemen mee.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


Verwijderd

mphilipp schreef op maandag 15 november 2010 @ 14:43:
[...]

Smartctl werkt wél door een controller als de Highpoint, dat heb ik inmiddels al getest:
...
smartctl -a -d hpt,1/1 /dev/sdd
Ja, dat dacht ik all! Dit is geen échte SMART ondersteuning, maar een soort SMART proxy; als jij SMART info opvraagt doe je dat aan de RAID controller, en die gaat SMART-requests naar de disks sturen en parsed het en stuurt het in zijn eigen formaat terug. Dat is geen échte SMART ondersteuning, want dat zou met -d sat werken.

Je kunt dus wel normale SMART informatie zien via die proxy, maar niet direct SMART-requests sturen; je mag niet direct met de disks communiceren.
mphilipp schreef op maandag 15 november 2010 @ 17:04:
Ik heb toch maar besloten dat ik van het gezeik af wil zijn en de boel maar ga omkatten naar softraid. Momenteel ben ik de boel even aan het parkeren op mijn staging area en dan maak ik er maar 6 JBOD's van en maak er een software raid array van.
Ik wil je niet de put in praten, maar ook met zo'n JBOD + software RAID op een hardware RAID controller, betekent nog steeds dat je disks uit kunnen vallen. Al gebruik je het beste software RAID; de hardware zal keihard disks detachen waar je software niks aan kunt doen.

Wil je software RAID onder een non-Windows OS dan wil je een échte SAS/SATA controller, oftewel een HBA. LSI 1068E zijn erg populair voor ZFS home-fileservers, en werken bijvoorbeeld ook prima met FreeNAS; bijna alle OS denk ik.

Als je echt betrouwbaar storage wilt is ZFS een aanrader. Maarja dan zit je nu met een highpoint controller waar je op dat vlak weinig aan hebt, en je hebt dan ook veel geheugen nodig; 8 gig bijvoorbeeld. Als je daar voor gaat, ben je wel van het gezeik van uitvallende disks af!
Het is blijkbaar op een of andere manier erg lastig om dat bitje op die Samsungs om te krijgen en aangezien ik het zal moeten scripten om het na reboots weer te activeren, vind ik het toch een beetje een Mr.Bean oplossing. Liever iets dat gegarandeerd werkt.
Ik snap je niet? 'om te krijgen' ?

  • Q
  • Registratie: November 1999
  • Laatst online: 12:05
Verwijderd schreef op maandag 15 november 2010 @ 21:36:
[...]


Ja, dat dacht ik all! Dit is geen échte SMART ondersteuning, maar een soort SMART proxy; als jij SMART info opvraagt doe je dat aan de RAID controller, en die gaat SMART-requests naar de disks sturen en parsed het en stuurt het in zijn eigen formaat terug. Dat is geen échte SMART ondersteuning, want dat zou met -d sat werken.

Je kunt dus wel normale SMART informatie zien via die proxy, maar niet direct SMART-requests sturen; je mag niet direct met de disks communiceren.
smartctl -a -d ata /dev/sd?

Werkt prima op mijn highpoint 2320 en 2340.
Ik wil je niet de put in praten, maar ook met zo'n JBOD + software RAID op een hardware RAID controller, betekent nog steeds dat je disks uit kunnen vallen. Al gebruik je het beste software RAID; de hardware zal keihard disks detachen waar je software niks aan kunt doen.
De vraag is of de RAID logica (driver) besluit om een disk te ontkoppelen en of dat ook/niet gebeurt in JBOD mode.

Ik ben vooral benieuwd wat de tests met JBOD gaan uitwijzen, ik geloof niet dat het hele TLER bla bla verhaal ook maar enig effect zal hebben omdat MDADM er iig niets mee doet naar mijn weten.

Dat uit arrays knikkeren van HD's wordt niet door de hardware gedaan zover ik weet.
Als je echt betrouwbaar storage wilt is ZFS een aanrader. Maarja dan zit je nu met een highpoint controller waar je op dat vlak weinig aan hebt, en je hebt dan ook veel geheugen nodig; 8 gig bijvoorbeeld. Als je daar voor gaat, ben je wel van het gezeik van uitvallende disks af!
ZFS heeft niets te maken met de issues die hier worden beschreven en lossen het probleem niet op. Een andere controller of andere disks misschien, maar wat heeft hij daar nu aan? Dat is wel het laatste wat je wilt.

Laten we de tests met JBOD maar afwachten, ik heb er wel vertrouwen in. Ik denk dat de 'hogere logica' in de HPT driver de disks er uit gooit, iets wat bij MDADM niet gebeurt. Bij JBOD zou je die 'raid logica' van de HPT driver niet gebruiken, dus zou deze shit niet meer voor moeten komen.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Kun je zeggen over de noodzaak van een HBA. Waarom voldoet een highpoint niet als je deze niet initialiseert maar de schijven aansluit als legacy schijven? In dat geval zet je de controller alleen in als domme doorvoer toch?

De CSL/OT kroeg !


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

Verwijderd schreef op maandag 15 november 2010 @ 21:36:
[...]
Ja, dat dacht ik all! Dit is geen échte SMART ondersteuning, maar een soort SMART proxy; als jij SMART info opvraagt doe je dat aan de RAID controller, en die gaat SMART-requests naar de disks sturen en parsed het en stuurt het in zijn eigen formaat terug. Dat is geen échte SMART ondersteuning, want dat zou met -d sat werken.
Ik heb geen idee wat je allemaal zegt, maar op andere controllers werkt dit gewoon. Dus hoe het precies zit weet ik niet en wil ik niet weten, maar het kán gewoon. De fout die ik krijg lijkt imho meer op een soort syntax fout omdat ie me precies verteld wat ie wél kan. Het is geen antwoord van de controller of disk, maar van de software:
code:
1
2
3
4
=======> INVALID ARGUMENT TO -l: scterc
=======> VALID ARGUMENTS ARE: error, selftest, selective, directory[,g|s], background, scttemp[sts|hist], sasphy[,reset], sataphy[,reset], gplog,N[,RANGE], smartlog,N[,RANGE], xerror[,N][,error], xselftest[,N][,selftest] <=======

Use smartctl -h to get a usage summary

Ik vermoed dat ik een nieuwere of andere versie van die software nodig heb. Verder werken gewoon alles commando's die ik naar die disk stuur. De -d hpt,1/1 /dev/sdd betekent dat ik (Highpoint) controller 1, disk 1 wil benaderen, die op het OS bekend is als /dev/sdd. Lees anders aub de site van die smartctl lui maar, want je gaat nu een conclusie ophangen aan mijn verhaal en ik ben absoluut geen raid techneut en dat wil ik niet worden ook.

Ik deel je conclusie dan ook niet over dat ik eigenlijk een HBA nodig heb. Ik zou volgens mij de enige zijn die zoiets gebruikt, want er zijn talloze NASsen gebouwd met de spullen die ik heb, dus al die theoretische verhalen hecht ik niet zoveel waarde aan. Van mij mag jij het allemaal kopen, inclusief een paar hele dure disks, maar ik begin daar niet aan. Deze setup moet gewoon werken.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • brid
  • Registratie: Januari 2001
  • Laatst online: 19-11 18:24

brid

Onze excuses voor het ongemak

Zo naar maanden afwezigheid toch maar weer eens een post hier.
Had ooit beloofd om een keer een verbruiks meter op m'n nasje te hangen en kwam er toevallig 1 tegen
#ProductPrijsSubtotaal
1Intel Gigabit CT Desktop Adapter€ 24,60€ 24,60
1D-Link DGS-1005D€ 26,-€ 26,-
5Samsung EcoGreen F2 EG HD154UI, 1.5TB€ 59,20€ 296,-
1Sharkoon Rebel9 Pro Value€ 60,07€ 60,07
1Arctic Cooling Freezer 7 Pro Rev. 2€ 17,90€ 17,90
1AMD Athlon II X2 235e€ 56,17€ 56,17
2Cooler Master 4-in-3 Device Module€ 14,09€ 28,18
1Antec Earthwatts EA-380D Green€ 40,13€ 40,13
2Kingston ValueRAM KVR1066D3N7/1G€ 13,97€ 27,94
1Asus M4A78LT-M LE€ 43,32€ 43,32
Bekijk collectie
Importeer producten
Totaal€ 620,31


Cpu wordt netjes op 800Mhz geclockt(idle), onboard GPU staat op minimale MHz
Bij opstarten is de piek +- 155W
Daarna idle +- 75W, disks down +- 65W
Met downloaden blijft het ongeveer 77W en bij het parren en rarren +- 100W
Filmpje of spelen via m'n mediacenter is ongeveer 80W
Er vanuit gaande dat het gemiddeld rond de 75W uitkomt kost het dus ongeveer €150,- p/j om hem 24/7 aan te hebben.
Het is jammer dat er niet echt 200W ATX voedingen zijn met voldoende Sata power aansluitingen, met een belasting van 20% a 25% is de voeding niet echt efficient

DIY NAS, Hoofd PC
Unchain your pc/laptop, buy a SSD!!!!!


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

De array is nu omgezet en de geparkeerde data wordt nu overgeheveld. Hij is nog steeds up na dik 200Gb dus ik denk dat ie het wel blijft doen.

Hopelijk een waardevolle leer-ervaring voor anderen. Het leek in eerste instantie goed te gaan. Op zich wel jammer, want andere RAID controllers staan weer wel dat aanpassen van die TLER/CCTL waarde toe door de controller heen. Nou ja...als het zo werkt, ben ik ook tevreden. Performance lijkt wel ok, dus het is geen verloren zaak.

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • Q
  • Registratie: November 1999
  • Laatst online: 12:05
Toch goed nieuws dus (fingers crossed), welterusten ;)

Verwijderd

Q schreef op maandag 15 november 2010 @ 22:15:
[...]
De vraag is of de RAID logica (driver) besluit om een disk te ontkoppelen en of dat ook/niet gebeurt in JBOD mode.
Bij mijn Areca controller onder ZFS wel, ook in JBOD mode of passthrough disks; elke bad sector die je disks tegenkomen worden ze eruit gedonderd. Dit is geen theorie, maar eigen ervaring. Ik heb jarenlang gestoeid met dit probleem, en tot de conclusie gekomen dat alle Hardware RAID en alle Windows onboard driver RAID niet tegen hoge timeouts van schijven kunnen, en daardoor de schijven uit de array gooien (detachen).

Alleen software RAID onder non-Windows OS met een normale SATA/SAS controller kan je hierbij helpen. En natuurlijk het aanschaffen van TLER/CCTL disks, maar dat komt ook met een prijs, behave in financiële zin kan dit je in problemen brengen als je een degraded array aan het rebuilden bent en een bad sector krijgt door TLER niet de kans om lang genoeg recovered te worden, en je zit met een failed array. Doordat de huidige schijven met enorme capaciteit een relatief hoge 'Bit-Error-Rate' heeft, krijgen steeds meer mensen last van dit probleem.
ZFS heeft niets te maken met de issues die hier worden beschreven en lossen het probleem niet op. Een andere controller of andere disks misschien, maar wat heeft hij daar nu aan? Dat is wel het laatste wat je wilt.
Als je een stabiele en veilige storage-oplossing wilt hebben, is ZFS zeker een oplossing. En dan in het bijzonder het feit dat er nooit meer disks uit je array gedonderd worden, en je hebt juist geen dure TLER disks nodig maar je kunt goedkope Samsung F4 enzo gebruiken.

Het feit dat je iets gekocht hebt waarvan je later erachter komt dat het eigenlijk helemaal niet zo nuttig is voor voor wat je ermee wilt, is vervelend. Dat soort pijnlijke lessen heb ik genoeg gehad, en wilde na zelfs met Areca herzelfde gedonder te hebben nu eens wat stabiels. En ZFS heeft hier echt wel een streepje voor. Maar ieder moet zijn eigen afweging maken natuurlijk.

[ Voor 11% gewijzigd door Verwijderd op 16-11-2010 00:44 ]


  • mphilipp
  • Registratie: Juni 2003
  • Laatst online: 12:01

mphilipp

Romanes eunt domus

Q schreef op dinsdag 16 november 2010 @ 00:02:
Toch goed nieuws dus (fingers crossed), welterusten ;)
Thanx!

Snelheid is alleszins goed te noemen. Hij staat nu een paar mappen van mijn Windows PC te onvangen (+/- 50Gb) en dat doet ie met bijna 90MB/s. SMB pakt dan 50% cpu op de host, dus hij heeft genoeg puf over voor andere dingen.

Snelheid is dus ok. Als het dan ook nog stabiel en betrouwbaar is, ben ik helemaal blij!

@Cypher: ZFS heb ik naar gekeken, maar dat vind ik geen optie onder Ubuntu. Klaar. Je kunt wel steeds het ZFS reclamefilmpje af blijven draaien, maar ik alles welbewust afgewogen en een beslissing genomen voor een opstelling die voor mij werkt. En dat doet ie nog steeds, afgezien dan dat ik nu niet de hardware raid kan gebruiken. Da's jammer, maar geen hek van de dam. Ik had nu eenmaal een controller nodig die al die disks aan kon, maar ik had dus ook een goedkopere kunnen nemen. Nou ja...jammer. Het maakt verder niet heel veel uit in de plannen.

[ Voor 36% gewijzigd door mphilipp op 16-11-2010 00:47 ]

A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.


  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 20-12 23:39
Is het ZFS ook te gebruiken i.c.m. Windows? Zo ja, hoe?

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Niet native, je zult in dat geval het OS van je keuze in een virtuele omgeving moeten draaien. Maar dat raad ik persoonlijk af. Als je ZFS echt nodig meent te hebben dan zou ik een dedicated NAS maken. In dat geval doe je namelijk echt wat aan zekerheid, niet door de data op je desktop zogenaamd veiliger op te slaan.

Daarnaast zit je met een lastigere uitbreiding, nu is ZFS daar momenteel, bij FreeBSD en afgeleiden, al nog niet erg vriendelijk in, maar in een virtuele omgeving is dat helemaal een draak. Als je namelijk met een tool als VMware Server gaat werken dan zit je met een beperkte capaciteit van 2TB. Virtualbox heeft die niet, maar de laatste keer dat ik ermee werkte voor een (backup-)NAS had ik teveel last van dropped packages.

[ Voor 55% gewijzigd door Dadona op 16-11-2010 12:15 ]

De CSL/OT kroeg !

Ik zit ook een beetje met dit gezeur. Mijn array staat de afgelopen weken al vaker te klapperen (schijven die uitvallen) Gelukkig nog geen data kwijt, maar vervelend is het wel.

Ik zit er over te denken om mijn hardware raid controller eruit te knikkeren en over te stappen op software raid.
In eerste instantie had ik Hardware RAID voor de snelheid, maar omdat ik nu een SSD als boot/vm schijf heb, is die behoefte ook niet meer zo groot.

Ik zie het nut van ZFS zeker wel in, alleen gebruik ik persoonlijk erg graag windows... Niet zozeer omdat ik geen linux/freebsd kan, maar meer omdat het gewoon net ff wat makkelijker aansluit op mijn huidige netwerk (Windows 7 desktop, laptop en HTPC).

Voor mijn situatie zou ik dan een FreeBSD ZFS installatie moeten maken. Maar aangezien ZFS nogal geheugen en cpu hongerig is, vraag ik me af of als ik daar Samba bij aan hang, of het nog wel performt...

Ik wil toch nog wel een beetje het gevoel van snelheid hebben...

Iemand die mijn ideeen in de praktijk heeft meegemaakt?

Even niets...


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Ik zou dan de tussenstap pakken: FreeNAS of iets avontuurlijker Debian. Het opzetten van een RAID array is doodsimpel, ook bij Debian. Er is nota bene een wiki entry over mdadm waarin staat hoe je het opzet en kunt checken. Gaat prima.

De CSL/OT kroeg !

Pagina: 1 ... 30 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.