WoW lukt misschien nog wel in de VM dan, maar hoe krijg je je beeld snel genoeg over het netwerk?
Even niets...
En het beeld komt toch gewoon uit de kaart?
Maar dan moet je ook de muis en het toetsenbord doorgeven aan je VM
Dan zou het best eens kunnen werken
Even niets...
Beetje redelijke kwaliteit?FireDrunk schreef op dinsdag 11 januari 2011 @ 19:44:
Woei! De kabeltjes zijn binnen! (ChinaBuye, bestelling van 27/12/2010)
Nu de controllers nog
Zijn het deze?
Even niets...
Niet slecht
Ik ben geheel voldaan, dank u wel!
Ik heb dezelfde kabels besteld bij die winkel en die zijn gisteren of eergisteren gearriveerd. Ze zijn inderdaad niet volrood, maar ook niet Holland-oranje. Een beetje een tussenvorm. Verder zijn ze netjes gelabeld: de breakouts zijn genummerd met 0 t/m 3. Het merk is geheel onverwacht LSI, dus dat sluit mooi aan bij mijn controller. De laatste moet overigens nog arriveren, dus ook ik kan nog niks over de kwaliteit zeggen.FireDrunk schreef op woensdag 12 januari 2011 @ 10:41:
Jah, kwaliteit is redelijk, ze zijn alleen oranje, dus het plaatje klopt niet echt, maar nog niet getest, dus veel weet ik nog niet
Wel merk ik op dat de breakouts een stuk minder breed zijn dan normale SATA-kabels en (daardoor) minder stug. Hopelijk zegt dat niks over de kwaliteit of betrouwbaarheid
[ Voor 3% gewijzigd door HarmoniousVibe op 12-01-2011 12:07 ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Onder Xen is het mogelijk om redelijk te gamen in een vm.FireDrunk schreef op woensdag 12 januari 2011 @ 10:04:
Daar heb je wel weer een punt ja, als je echt VT-d gebruikt komt het beeld gewoon uit de DVI/VGA poort...
Maar dan moet je ook de muis en het toetsenbord doorgeven aan je VM
Dan zou het best eens kunnen werkengeen slecht idee
Een vereiste is wel dat je twee videokaarten in het systeem moet hebben.
http://wiki.xensource.com...dfe01a8467a011efad1723ad2
Uh, breakout kabels met een smalle plug zijn niet compatible als het goed is... Dat is letterlijk een andere SAS norm... De normale kabels zijn SFF8087 geloof ik, en die smalle zijn SFF8086... Die werken _niet_ (maken niet contact met alle pins).LB06 schreef op woensdag 12 januari 2011 @ 12:06:
[...]
Ik heb dezelfde kabels besteld bij die winkel en die zijn gisteren of eergisteren gearriveerd. Ze zijn inderdaad niet volrood, maar ook niet Holland-oranje. Een beetje een tussenvorm. Verder zijn ze netjes gelabeld: de breakouts zijn genummerd met 0 t/m 3. Het merk is geheel onverwacht LSI, dus dat sluit mooi aan bij mijn controller. De laatste moet overigens nog arriveren, dus ook ik kan nog niks over de kwaliteit zeggen.
Wel merk ik op dat de breakouts een stuk minder breed zijn dan normale SATA-kabels en (daardoor) minder stug. Hopelijk zegt dat niks over de kwaliteit of betrouwbaarheid
Ik ga even op zoek naar een bron voor je.
Smal:

Breed:
[ Voor 8% gewijzigd door FireDrunk op 12-01-2011 13:20 ]
Even niets...
Dat topic heeft mij op een briljant idee gebracht... Je kan natuurlijk ook gewoon je HTPC virtualiseren door een fatsoenlijke videokaart aan een VM te geven, en de HDMI uitgang aan je TV te hangendutch_warrior schreef op woensdag 12 januari 2011 @ 12:08:
Onder Xen is het mogelijk om redelijk te gamen in een vm.
Een vereiste is wel dat je twee videokaarten in het systeem moet hebben.
http://wiki.xensource.com...dfe01a8467a011efad1723ad2
Even niets...
Ik vraag het liever aan mensen die ervaring ermee hebben eLB06 schreef op dinsdag 11 januari 2011 @ 21:16:
[...]
Als ik het zo lees heb of neem je niet echt de tijd om dingen uit te zoeken, dus dan kan het wel eens lastig worden.
Als je er zelf echt in duikt (door middel van tutorials volgen, blogs lezen over hoe dingen werken, etc) heb je het met een paar weken klooien wel redelijk onder de knie...
Even niets...
Als de NAS alleen een NAS voor de HTPC is, dan is het prima. Of als in andere opzichten de actieve tijden van beide systemen (losse NAS en losse HTPC) vrijwel parallel lopen dan is het een prima keuze. Maar zodra je HTPC maar een beperkt deel van de tijd aanstaat en de NAS veel langer (downloads en/of centrale opslag voor backups of gewoon data in het algemeen) dan heb je een hoger verbruik. Je NAS zeult dan die fatsoenlijke videokaart (als onboard niet voldoet), TV kaarten en andere spullen mee van je HTPC kant mee.
Maar goed, iets generieks kan ik er niet over zeggen, het is extreem afhankelijk van de situatie. Het wordt vooral ingegeven door de motivatie van de gebruiker wat uitgaven betreft (nu uitgeven, of over een tijdje), 'hoe parallel' de computers aan elkaar aanstaan en hoe verschillende computers qua samenstelling zijn.
In mijn geval was het uiteindelijk niet interessant. Ik heb juist het tegenovergestelde van virtualisatie gedaan: alles opsplitsen. Ik heb een server, nas en htpc. Qua kosten valt het wel enigszins mee.
Mijn nas is echt een grote backupschijf is waar meerdere, trage, luidruchtige en (anno 2011) relatief kleine schijven (1TB) inzitten die in een RAID array draaien. Dat ding gaat eens in de zoveel tijd aan om even een (echte) backup te maken en gaat daarna zo snel mogelijk weer uit.
Mijn server staat 24/7 aan en is de sexy en efficiëntie bak in het huis met mijn mooiste schijven enz. (Denk eraan, alles is relatief, het ding kost geen vermogen.) Daarop draaien al die kleine handige leuke dingen als een mailserver, calender server, mpd, webserver, ... maar ook de eerste lijns backup.
Dan is er de HTPC die maar een paar uur per dag aanstaat. Daarin zit een TV kaart (HVR-2200) en een twee harde schijven voor allerhande mediabestanden.
Bij aanwezigheid van de server zou ik toch weer kunnen overwegen om de NAS en HTPC te combineren. Het hogere verbruik valt voor die paar uurtjes wel mee, maar je zit ook met het versterkende effect van veel warmte (veel schijven) en geluid (veel schijven en koeling). En dit effect zal op termijn erger worden. Het alternatief is om de schijven te verkopen, maar het verlies dat ik daarmee zou maken heb ik omgezet in de aanschaf van de dedicated NAS.
Dit neemt niet weg dat de combinatie in mijn geval nooit iets gaat worden, integendeel. Ik denk dat ik op termijn in ieder geval de NAS en de HTPC zal samenvoegen in één compleet nieuwe oplossing, mogelijk zelfs alle drie. Vanwege de aanhoudende (relatieve) verlaging van energieverbruik van computercomponenten is dat op termijn goed te doen.
Op moederborden en cpu vlak voorzie ik dat 2011 al mooi gaat worden, maar de schijven moeten echt nog een paar stappen maken in grootte en energieverbruik. En ik moet die 'zuipende' tv kaart vervangen, maar dat gaat nog even duren, if at all.
Even niets...
Verwijderd
Ik wist even niet waar ik dit moest posten op het forum. Aangezien ik in dit draadje ook advies heb ingewonnen voor mijn DIY NAS doe ik het maar hier
Ik heb een NAS met twee laptop HDs (1 voor OS en 1 voor Downloads) en een RAID Array met 4x2TB Samsung F4s. De raid is met MDADM geconfigureerd.
Nou wil ik de RAID Array na 30 minuten in standy zetten wanneer er geen activiteit is. Dit kan als het goed is met Hdparm d.m.v. het volgende in de config aan te passen:
/dev/sdc {
spindown_time = 250
}
/dev/sdd {
spindown_time = 250
}
etc.
Mijn vraag is:
- of het op deze manier geïnstalleerd moet worden voor SATA drives? Ik las ergens dat er een verschil is bij hdparm tussen PATA en SATA.
- werkt deze methode ook gewoon voor de Ecogreen F4 drives? Las dat er problemen kunnen komen met een F4: Silent Data Corruption (http://lime-technology.com/forum/index.php?topic=9339.0) maar ook dat groene drives misschien niet automatisch in standby gaan. Alleen via een forced command. Iemand die hier meer van weet?
Neenee dat bedoel ik nietFireDrunk schreef op woensdag 12 januari 2011 @ 13:18:
[...]
Uh, breakout kabels met een smalle plug zijn niet compatible als het goed is... Dat is letterlijk een andere SAS norm... De normale kabels zijn SFF8087 geloof ik, en die smalle zijn SFF8086... Die werken _niet_ (maken niet contact met alle pins).
Ik ga even op zoek naar een bron voor je.
Smal:
[afbeelding]
Breed:
[afbeelding]
vs

Let op het verschil in breedte. Bij een 'normale' SATA-kabel is de kabel ongeveer 3/4 van de breedte van de SATA-connector, maar bij mijn breakout-kabel is de kabel maar half zo breed als de connector. Op zichzelf is dit natuurlijk hartstikke logisch, omdat vier van die 'normale' SATA-kabels nooit op een SFF-8087 connector past. Problemen geven zal het waarschijnlijk niet, maar het viel me gewoon op.
[ Voor 21% gewijzigd door HarmoniousVibe op 12-01-2011 15:20 ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Akkoord, maar voor ik 300 euro ga uitgeven aan hardware, zou ik toch wel willen weten of het werktFireDrunk schreef op woensdag 12 januari 2011 @ 14:23:
Dat is dus relatief, als je het altijd blijft vragen aan 'meer ervaren' mensen, word het nooit makkelijk.
Als je er zelf echt in duikt (door middel van tutorials volgen, blogs lezen over hoe dingen werken, etc) heb je het met een paar weken klooien wel redelijk onder de knie...
[ Voor 159% gewijzigd door SiXke op 12-01-2011 15:18 ]
Dat is een beetje een kip-ei verhaal. Ja, het is moeilijker dan de gemiddelde taak met een pc en je zult een aantal nieuwe dingen moeten leren (Linux/BSD en mdadm/ZFS/whatever). Zodra je die dingen hebt geleerd is het echter ook niet moeilijk meer.SiXke schreef op woensdag 12 januari 2011 @ 14:14:
[...]
Ik vraag het liever aan mensen die ervaring ermee hebben eIk weet wel hoe google werkt
Ik heb gewoon 0 ervaring met BSD of Linux, en ik vraag gewoon of het te doen is, of het moeilijk is.
De hamvraag is dus of je bereid bent er enige tijd in te investeren. Simpele formule: zoja, dan doen. Zoniet: niet aan beginnen en gebruik maar hw-raid met Windows.
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Verwijderd
Zo een miniITX bordje heeft een 120W voeding, dus ik gok dat ik daar niet meer dan 2-3 HDDs moet mee proberen poweren. Is er een goedkope oplossing om 10 HDDs te poweren?
Thx
De niet nette ad-hoc oplossing: Gebruik twee voedingen
Ik ben geheel voldaan, dank u wel!
Heb de rest van je setup niet meegerekend, maar ik heb op een ION330 4 WD Greens hangen. Voeding is een 65W of 80W variant (geen flauw idee meer) en geeft de schijven prima prik. Nu is het wel zo dat ze tijdens booten allemaal apart opspinnen, maar dit heeft vooralsnog geen problemen gegeven.Zo een miniITX bordje heeft een 120W voeding, dus ik gok dat ik daar niet meer dan 2-3 HDDs moet mee proberen poweren. Is er een goedkope oplossing om 10 HDDs te poweren?
Thx
...
Dat apart opspinnen is een feature van je raidcontroller gok ik? Of hebben onboard satas die mogelijkheid ook?PhatFish schreef op woensdag 12 januari 2011 @ 19:32:
[...]
Heb de rest van je setup niet meegerekend, maar ik heb op een ION330 4 WD Greens hangen. Voeding is een 65W of 80W variant (geen flauw idee meer) en geeft de schijven prima prik. Nu is het wel zo dat ze tijdens booten allemaal apart opspinnen, maar dit heeft vooralsnog geen problemen gegeven.
verkopen? maar ben bang dat ik er weinig meer voor krijg.
of een NAS van maken.
specs:
shuttle sd37p2 (Chipset: Intel 975X + ICH7R (I/O Controller Hub)
intel core 2 6600 (2,4 ghz)
2 gb geheugen
op het moment nog 2 seagate barracuda's 7200.10 (300gig)
kan ik deze een beetje eenvoudig omtoveren tot een snelle NAS? (eventueel met wat leuke addons zoals nzb's downloaden en een web/mail servertje?) zonder (al te veel) bijkomende kosten?
[ Voor 15% gewijzigd door FireDrunk op 13-01-2011 08:23 ]
Even niets...
Qua hardware kan je hier best een leuke NAS van maken, paar schijven erbij en je kan vooruit. De vraag is alleen hoeveel energie het hele zaakje zal gaan verstoken. Zolang je met andere hardware de besparing er niet binnen 3-4 jaar uit haalt heeft het imo geen zin (besparing moet groter zijn dan de aanschafprijs van je nieuwe hardware dus) om nieuwe hardware alleen voor je NAS aan te gaan schaffen. Wel zou ik dan adviseren om nieuwe green harddisks aan te schaffen. Deze zijn zuiniger en groter dan je huidige disken.Fried schreef op woensdag 12 januari 2011 @ 23:58:
Ik ben van plan om een nieuwe pc te gaan samenstellen... en ben er nog niet uit wat ik met mijn oude wil gaan doen.
verkopen? maar ben bang dat ik er weinig meer voor krijg.
of een NAS van maken.
specs:
shuttle sd37p2 (Chipset: Intel 975X + ICH7R (I/O Controller Hub)
intel core 2 6600 (2,4 ghz)
2 gb geheugen
op het moment nog 2 seagate barracuda's 7200.10 (300gig)
kan ik deze een beetje eenvoudig omtoveren tot een snelle NAS? (eventueel met wat leuke addons zoals nzb's downloaden en een web/mail servertje?) zonder (al te veel) bijkomende kosten?
[ Voor 3% gewijzigd door redfoxert op 13-01-2011 08:39 ]
Verwijderd
Ik heb momenteel een htpc core i3 530 op een GA-H55M-UD2H draaien. Er draait ubuntu 10.10 en XBMC 10.00 Als ik via samba van en naar een andere pc kopieer met w7 of ubuntu 10.10. Dan gaat dit erg langzaam en langzaam bedoel ik 15 MB Ik weet dat dit al vaker voorbij is gekomen. En heb er ook al het een en ander over gelezen. Maar wil toch even een aantal dingen hier bespreken. Waar kan het allemaal aan liggen. Ik zat zelf te denken aan
Jumboframes
drivers voor de nic ( ik haal met ipref 107 MB/s over Gbit )
drivers voor de hdd controller ( hoewel hdparm ongeveer 80MB/s aangeeft )
SMB.conf ( is zowat leeg alleen de shares en de comon instellingen staan vermeld )
Is er nog iets wat ik over het hoofd zie wat ik kan na kijken waarom die SMB altijd zo traag is en ook vanuit ubuntu duurt het een eeuwigheid voordat ik op die smb share ben ingelogd
Even niets...
Verwijderd
Ik neem aan dat samba experimental in de repo van ubuntu zit?
sudo apt-get install samba -t experimental zal ongeveer de code zijn om hem dan te installeren.
Even niets...
Verwijderd
In ieder geval dank voor het mee denken. Ik weet nu in welke richting ik moet zoeken.
[ Voor 25% gewijzigd door Verwijderd op 13-01-2011 10:58 ]
Verwijderd
Het vreemde is gewoon dat ipref wel goede waardes laat zien en hdparm -Tt ook gewoon goede waardes aan geeft. En als ik er w7 op zet dan haal ik gewoon normale snelheden. die ook rond de 70MB/s liggen Dus de hardware is goed.
Het moet iets van een instelling zijn. Ik wil vanavond naar dat samba experimental gedeelte kijken. of dat wat verbeterd. Maar wat mij wel opvalt is dat als ik de HTPC wil benaderen via smb dat het enorm lang duurt voordat ik op de share zit.
[ Voor 77% gewijzigd door Verwijderd op 13-01-2011 12:09 ]
Verder teracopy gebruiken, die is sowieso beter dan native win7 netwerkcopy
Compromises are for the weak
Beter in gebruik, maar absoluut niet sneller, want het gebruikt onderwater gewoon de Windows API's voor het kopieren van files...Tha_Butcha schreef op donderdag 13 januari 2011 @ 15:52:
config file checken, lijkt me niet echt normaal nee.
Verder teracopy gebruiken, die is sowieso beter dan native win7 netwerkcopy
Ik heb nog even gezocht naar dat experimental, maar kan het zelf niet eens meer vinden
Post je smb.conf eens, dan kijken we er even naar.
Even niets...
De terminologie is nogal verwarrend. De Unix-implementatie van het SMB/CIFS protocol is Samba genoemd wat wel is wordt afgekort met SMB. Windows XP en ouder gebruik SMBv1, welke al jaren goed is geimplementeerd in Samba. In Windows Vista is daar SMBv2 aan toegevoegd, wat experimenteel is geimplementeerd in Samba 3.5. Definitieve support daarvoor is gepland voor 3.6, waarvan de planning is dat hij vandaag gereleased wordt. Windows 7 heeft SMBv2.1 geimplementeerd, maar volgens mij wordt dat nog niet door Samba ondersteunt. SMBv3 bestaat (nog) niet.FireDrunk schreef op donderdag 13 januari 2011 @ 09:52:
Je kunt experimental SMBv2 (of v3) aanzetten, dat zou een stuk sneller moeten zijn.
SMBv2 support zet je in Samba 3.5 aan door deze regel toe te voegen aan je smb.conf:
1
| max protocols = smb2 |
Uit mijn eigen ervaring kan dat wel leiden tot Samba crashes en het kopieeren van files dat halverwege faalt en is het nog niet productie ready.
Grappenmaker...het is 1/2 langzamer bij mij..Tha_Butcha schreef op donderdag 13 januari 2011 @ 15:52:
Verder teracopy gebruiken, die is sowieso beter dan native win7 netwerkcopy
Ik doe een copy via de Windows Exploder en dat gaat met iets van 100-110MB/s en met Teracopy 42MB/s. Voelbaar langzamer. Ik heb de testtransfer (7,94Gb) maar gecancelled, ik wilde er niet meer op wachten.
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
serieus? Punt vooral bij mij was dat als ik grote files over pompte via explorer, dat ding dan vrij snel "Not responding" kreeg en dus mijn hele explorer.exe moest worden geherstartmphilipp schreef op donderdag 13 januari 2011 @ 17:35:
[...]
Grappenmaker...het is 1/2 langzamer bij mij..
Ik doe een copy via de Windows Exploder en dat gaat met iets van 100-110MB/s en met Teracopy 42MB/s. Voelbaar langzamer. Ik heb de testtransfer (7,94Gb) maar gecancelled, ik wilde er niet meer op wachten.
Compromises are for the weak
http://www.virtualbox.org/SiXke schreef op woensdag 12 januari 2011 @ 14:14:
[...]
Ik vraag het liever aan mensen die ervaring ermee hebben eIk weet wel hoe google werkt
Ik heb gewoon 0 ervaring met BSD of Linux, en ik vraag gewoon of het te doen is, of het moeilijk is.
En installeer je Linux naar keuze.
Dat bord wat je op het oog heb is een Atom N550, dus Raid 5 of 6 schrijven gaat niet supervlug, lezen zal wel snel genoeg moeten zijn.
Ik heb hetzelfde bord op het oog voor een firewall/router, lekker zuinig en snel genoeg voor routen, al zou ik er persoonlijk hooguit raid 1 of 10 op draaien.
Voor een zuinige voeding kun je kijken naar de picopsu http://www.mini-box.com/s...d.417/.f?sc=8&category=13 ook aanwezig in de pricewatch naar ik meen.
[ Voor 11% gewijzigd door lezzmeister op 14-01-2011 00:10 ]
Het voelde gewoon veeeeeeeel langzamer, en dat ding zegt zelf hoe ie het doet. Ik heb geen stopwatch nodig om het verschil tussen 40MB en 100MB te merken. Check optie stond niet aan en cache heb ik natuurlijk geen bal aan als ik 1 bestand copy. Dat is pas interessant als je het meerdere malen accessed.Dadona schreef op donderdag 13 januari 2011 @ 20:09:
mphilipp, je hebt dan neem ik aan echt gekeken naar hoe lang het duurt en niet naar de waarden die je te zien kreeg neem ik aan. Daarnaast, er draait geen test proces bij teracopy? Zo laat ik bij iedere verplaats actie de bestanden controleren. En heb je onder options ook gekeken naar de cache functie?
Ik heb het programma inmiddels alweer verwijderd. Mijn (simpele) filosofie over software is dat als je iets pas goed aan de praat krijgt na veel mumbo-jumbo, het niet geschikt is voor consumptie. Ik heb geen zin meer om dagenlang met mijn hoofd onder de motorkap te liggen om een stuk software te laten doen wat ie zou moeten doen. Sorry, it's just me...
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Ligt dat dan niet aan je server? Ik merk dat het bij mij best snel is. Helemaal in vergelijk met mijn vorige NAS, die underpowered was qua hardware (CPU, HD controller en disks zelf).Tha_Butcha schreef op donderdag 13 januari 2011 @ 19:57:
[...]
serieus? Punt vooral bij mij was dat als ik grote files over pompte via explorer, dat ding dan vrij snel "Not responding" kreeg en dus mijn hele explorer.exe moest worden geherstart
Een poosje terug zei ik dat mijn 'download' disks, die op de mobo controller waren aangesloten zo langzaam waren. Het waren 2 500Gb disks (Samsung SpinPoint T166 HD501LJ) uit mijn oude NAS die nu in RAID0 staan. De IOWAIT% op IO van en naar deze disks liep op tot 30%! Dat ligt dus puur aan die disks. Ik heb ze nu op de HighPoint RAID controller zitten en ze zijn nog nét zo langzaam (nou...ietsiepietsie sneller). Conclusie is dus dat schijven van 3-4 jaar oud blijkbaar een stuk trager zijn dan moderne disks. Ik wil ze denk ik op den duur wel vervangen door een paar snellere exemplaren, want ze zijn gewoon trager dan mijn RAID5 array, en dat zou volgens mij niet moeten...
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Even niets...
Ik vergelijk het met 2 disks in RAID0. Dat is doorgaans erg snel. En als je het verhaal goed leest, noem ik ook de behoorlijk hoge IOWAIT% als ik die disks access. Dat zegt genoeg, de interface op die disks is gewoon erg traag.FireDrunk schreef op vrijdag 14 januari 2011 @ 08:43:
Schijven die trager zijn dan een hele array... Lijkt me vrij onlogisch... RAID5 mag dan traag zijn, maar toch meestal wel sneller dan een single schijf... Mijn 'oude' RAID5 array van 4 x 500GB was echt wel sneller dan mijn moderne(re) Seagate 1.5TB schijven single disk.
Ik heb in mijn desktops 4 WD's zitten (blacklabel oid) in RAID01 en die zijn gruwelijk snel. In principe vergelijkbaar met 2 disks in RAID0. Ik weet zeker dat als ik 2 moderne schijven in het apparaat hang, ze sneller zijn dan die array.
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Ik trek hier de conclusie uit dat je het over schijven in het algemeen hebt, en niet over jou eigen schijven.mphilipp schreef op vrijdag 14 januari 2011 @ 00:24:
Conclusie is dus dat schijven van 3-4 jaar oud blijkbaar een stuk trager zijn dan moderne disks. Ik wil ze denk ik op den duur wel vervangen door een paar snellere exemplaren, want ze zijn gewoon trager dan mijn RAID5 array, en dat zou volgens mij niet moeten...
Als je dan 'ze' zegt, denk ik dat je generaliseert
Maar dat jou persoonlijke RAID0 array trager is met oude schijven geloof ik meteen
Even niets...
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Even niets...
Ben ik mee bezig, maar ik krijg de melding dat een IT firmware niet over IR firmware kan worden geflashed.FireDrunk schreef op vrijdag 14 januari 2011 @ 11:54:
Woei ik ben beniewd! Heb je al nieuwe firmware erop gezet?
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Van dealextreme?LB06 schreef op vrijdag 14 januari 2011 @ 11:37:
Jeuj, mijn LSI SAS3081E-R is binnen. Ik heb hem aangesloten en hij doet het voor zover ik kan zien perfect. Ik ben nu bonnie++ aan het draaien
.
Ja, als je zomaar stukken uit een verhaal gaat halen klopt dat inderdaad...FireDrunk schreef op vrijdag 14 januari 2011 @ 11:19:
[...]
Ik trek hier de conclusie uit dat je het over schijven in het algemeen hebt, en niet over jou eigen schijven.
Als je dan 'ze' zegt, denk ik dat je generaliseert
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Ahja, boeiend, het is nu duidelijkmphilipp schreef op vrijdag 14 januari 2011 @ 12:26:
[...]
Ja, als je zomaar stukken uit een verhaal gaat halen klopt dat inderdaad...
Even niets...
oeh interessant... mochten de resultaten niet heel slecht zijn dan ga ik ook één of twee van die kaartjes aanschaffen (voor een alvast volgende server met 20+ disks erin).LB06 schreef op vrijdag 14 januari 2011 @ 11:37:
Jeuj, mijn LSI SAS3081E-R is binnen. Ik heb hem aangesloten en hij doet het voor zover ik kan zien perfect. Ik ben nu bonnie++ aan het draaien
.
Tis inmiddels een oud beestje (Athlon XP 2600+, 2Gb) maar ik had dat specifiek onder windows vroeger (win7 niet), en aan mijn controller lag het niet: 3ware Escalade, RAID5 config. Ondere andere OSen ging het wel stukken beter. Maar goed, het gaat nu snel genoeg voor me.mphilipp schreef op vrijdag 14 januari 2011 @ 00:24:
[...]
Ligt dat dan niet aan je server? Ik merk dat het bij mij best snel is. Helemaal in vergelijk met mijn vorige NAS, die underpowered was qua hardware (CPU, HD controller en disks zelf).
Compromises are for the weak
http://vandenborne.net/bonnie/lsi-raid5.htmlDJ-NaRRa schreef op vrijdag 14 januari 2011 @ 13:29:
[...]
oeh interessant... mochten de resultaten niet heel slecht zijn dan ga ik ook één of twee van die kaartjes aanschaffen (voor een alvast volgende server met 20+ disks erin).
Op basis van mdadm met 3 x 2TB in raid-5 en 1 hot-spare.
Hij komt inderdaad van DX. Zal er zo iets meer over schrijven, maar eerst wil ik mijn fw flashen.
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Lees ik nou goed dat je 109MB/s haalt?
Ik vind Bonnie altijd zo'n rampzalig report teruggeven...
Gewoon dd is voor lees benchmarks veel makkelijker...
Write is natuurlijk lastiger omdat je met een bron zit
[ Voor 69% gewijzigd door FireDrunk op 14-01-2011 15:16 ]
Even niets...
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Als we dat allemaal doen, hebben we een beetje een 'baseline' wat betreft die LSI controller.
Even niets...
root@blaat:~/Installer_P19_for_Linux/sasflash_linux_i686_x86-64_rel# ./sasflash -c 1 -list
****************************************************************************
LSI Corporation SAS FLASH Utility.
SASFlash Version 1.26.00.00 (2010.05.18)
Copyright (c) 2006-2007 LSI Corporation. All rights reserved.
****************************************************************************
Adapter Selected is a LSI SAS 1068E(B1):
Controller Number: 1
Controller: 1068E(B1)
PCI Address: 00:01:00:00
SAS Address: 500605b-0-00b0-e450
NVDATA Version (Default): 0x2d03
NVDATA Version (Persistent): 0x2d03
Product ID: 0x2204
Firmware Version: 01.30.00.00
NVDATA Vendor: LSILogic
NVDATA Product ID: SAS3081E
BIOS Version: 06.30.00.00
BIOS Alternate Version: N/A
EFI BSD Version: N/A
FCODE Version: N/A
Finished Processing Commands Successfully.
Exiting SASFlash.
Ik heb de bios en firmware niet kunnen flashen met de Linux-tool. Ik wilde namelijk flashen met de Initiator-Target fw en om dat te kunnen doen moest ik eerst de raid-firmware verwijderen. En dat laatste kon niet onder Linux of Windows. Dus ik heb een FreeDOS USB-stick gemaakt met daarin de nieuwste bios en firmware-versies. Vanuit DOS kon ik wel de flash wipen en de IT-firmware erop zetten. Nu istie dus geflashed.
Wat me verder zo nog opviel was dat er ook verschillende chip-versies zijn (B1, B2 en B3). Ik heb B1, wat naar alle waarschijnlijkheid de oudste is. Geen idee wat voor impact dit verder heeft though.
Wat bedoel je met exacte configs? Waar heb je het over? Mijn schijvenconfiguratie ofzo?
dd zegt overigens dit:
LB06@blaat:~$ dd if=/dev/md5 of=/dev/null bs=1G count=5 5+0 records in 5+0 records out 5368709120 bytes (5,4 GB) copied, 22,3236 s, 240 MB/s
De nieuwe firmware lijkt geen impact te hebben op de benchmarks.
[ Voor 7% gewijzigd door HarmoniousVibe op 14-01-2011 16:29 ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Even niets...
| # | Product | Prijs | Subtotaal |
| 1 | Eminent EM4028 10/100/1000Mbps PCI network adapter | € 10,67 | € 10,67 |
| 1 | Samsung Spinpoint F1 HD103UJ, 1TB | € 49,- | € 49,- |
| 1 | Western Digital AV-GP WD10EVDS, 1TB | € 61,17 | € 61,17 |
| 2 | Western Digital Caviar Green WD10EADS, 1TB | € 51,94 | € 103,88 |
| 1 | Antec Sonata Plus 550 Zilver | € 0,- | € 0,- |
| 1 | AMD Sempron 140 | € 30,30 | € 30,30 |
| 1 | GeIL Ultra GX22GB6400UDC | € 31,90 | € 31,90 |
| 1 | MSI 790XT-G45 | € 69,95 | € 69,95 |
| 1 | MSI N210-MD512 | € 35,50 | € 35,50 |
| Bekijk collectie Importeer producten | Totaal | € 392,37 | |
mdadm in raid-5 (4 x 1TB) een chunk size van 64k, XFS en de volgende mount options:
defaults,user,sunit=128,swidth=384,noatime,nodiratime,nodev,nosuid,allocsize=512m,logbufs=8,largeio
Nu:
Zelfde server, maar dan met andere disks (4 x 2TB WD20EARS) in raid-5, waarvan 1 hot-spare en een andere controller. Wederom XFS, maar dan met een sunit en swidth aangepast op een chunk size van 512k en 3 actieve schijven ipv 4:
defaults,user,sunit=1024,swidth=2048,noatime,nodiratime,nodev,nosuid,allocsize=512m,logbufs=8,largeio
Oftewel, eigenlijk is het niet goed te vergelijken vanwege het feit dat er verschillende disks en verschillende configs zijn gebruikt.
Maar goed, sowieso vind ik performance niet het belangrijkste. Ik heb hem eigenlijk alleen maar gekocht vanwege het feit dat ik er 8 schijven op kan aansluiten.
[ Voor 3% gewijzigd door HarmoniousVibe op 14-01-2011 16:39 ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Even niets...
Omdat ik de ruimte nu nog niet nodig ga hebben maar straks wel en ik nog aan het overwegen ben om die hot-spare toe te voegen als actieve disk in mijn raid5-array.FireDrunk schreef op vrijdag 14 januari 2011 @ 16:40:
Waarom een Hotspare en geen RAID6? Evenveel (zo niet meer) veiligheid, maar meer performance....
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Even niets...
1
2
| mdadm --add /dev/md1 /dev/sdi mdadm --grow /dev/md1 --level=6 |
En een dagje wachten
Ik hoeft toch bij het grow commando niet nog een keer te vermelden dat het nu 7 disks zijn en welke het zijn?
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Even niets...
FireDrunk schreef op vrijdag 14 januari 2011 @ 20:43:
Je moet daarna natuurlijk wel je partitie nog oprekken
toch niet als hij maar 1 disk toevoegt..... hij blijft dan evengoed hetzelfde aan ruimte behouden toch?FireDrunk schreef op vrijdag 14 januari 2011 @ 20:43:
Je moet daarna natuurlijk wel je partitie nog oprekken
v.b. 4 disks 1 TB raid 5. is effectief 3TB (even geen conversie verlies van leverancier meegerekend)
3 disks met ruimte 1 voor parity
Als je hieraan 1 x 1TB disk toevoegd en als hot spare je raid omzet naar Raid 6 en het aantal used disks verhoogt met het nieuwe aantal blijft de usable space 3TB. Dan hoef je je FS toch niet te growen?
Even niets...
Ja, RTFMPFireDrunk schreef op vrijdag 14 januari 2011 @ 22:21:
Heet het dan wel --grow?
[ Voor 3% gewijzigd door HarmoniousVibe op 14-01-2011 22:30 ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Weet iemand hier een goed alternatief voor, of nog beter waar deze wel leverbaar is?
Correct.DJ-NaRRa schreef op vrijdag 14 januari 2011 @ 21:11:
[...]
toch niet als hij maar 1 disk toevoegt..... hij blijft dan evengoed hetzelfde aan ruimte behouden toch?
v.b. 4 disks 1 TB raid 5. is effectief 3TB (even geen conversie verlies van leverancier meegerekend)
3 disks met ruimte 1 voor parity
Als je hieraan 1 x 1TB disk toevoegd en als hot spare je raid omzet naar Raid 6 en het aantal used disks verhoogt met het nieuwe aantal blijft de usable space 3TB. Dan hoef je je FS toch niet te growen?
Nee, je hebt gelijk, het wordt dan:FireDrunk schreef op vrijdag 14 januari 2011 @ 22:21:
Heet het dan wel --grow?
1
2
| mdadm --add /dev/md1 /dev/sdi mdadm --just-add-the-one-disk-and-do-not-grow-in-capacity-you-moron /dev/md1 --level=6 |
Ongeveer...
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Windows 2003 wilt niet doorstarten met de controller toegewezen aan de VM.
Still testing....
[ Voor 4% gewijzigd door Extera op 15-01-2011 15:12 ]
Even niets...
Ik ga even verder testen met Linux / Freebsd.
Bij de install van FreeBSD zie ik wel 2 schijven, alleen weet ik niet welke ik moet kiezen voor de install. Er staat data op de array, dus ik ben heel voorzichtig.
Ik heb Ubuntu geprobeerd, en de device driver van de highpoint geïnstalleerd volgens deze manual, maar daar zie ik niets verschijnen in de Disk Utility, ik ben een linux newb, dus verder kom ik eigenlijk niet....
Ik doe nu een verse Windows 2003 install, met de controller al toegewezen aan het systeem, kijken of hij dan wel wilt door booten naar het OS.
Moet wel naar een andere voeding toe. De 300W BeQuiet! L7 die ik nu gebruik kan het huidige piekvermogen tijdens booten (100W) prima aan, maar straks met 6 schijven extra zal ik toch een 430W L7 moeten inzetten.
Volgens de specs van de kaart verbruikt deze zo'n 10W. Kan iemand die de kaart al binnen heeft dit bevestigen?
Hoezo? Die L7 300W versie kan wel hogere pieken aan hoor.. Ik draai hem hier met 8 disks, een SSD, een RAID controller en een i3-530 en 2 dual port NICs... Werkt prima, en piekt bij inschakeling misschien net op 200W.Zerobase schreef op zaterdag 15 januari 2011 @ 17:06:
Heb de LSI kaart ook in bestelling staan. Nu kan het wachten beginnen.
Moet wel naar een andere voeding toe. De 300W BeQuiet! L7 die ik nu gebruik kan het huidige piekvermogen tijdens booten (100W) prima aan, maar straks met 6 schijven extra zal ik toch een 430W L7 moeten inzetten.
Volgens de specs van de kaart verbruikt deze zo'n 10W. Kan iemand die de kaart al binnen heeft dit bevestigen?
Even niets...
We proberen het gewoon. Als het zaakje instort tijdens het booten weet ik waar het aan ligt
Edit: Bedenk met net dat de WD schijven er uit gaan als die F4's er in komen. Dan moet het dus geen probleem zijn.
FireDrunk schreef op zaterdag 15 januari 2011 @ 17:10:
[...]
Hoezo? Die L7 300W versie kan wel hogere pieken aan hoor.. Ik draai hem hier met 8 disks, een SSD, een RAID controller en een i3-530 en 2 dual port NICs... Werkt prima, en piekt bij inschakeling misschien net op 200W.
[ Voor 8% gewijzigd door Zerobase op 15-01-2011 17:33 ]
Check even met de PSU Calc. Geen wetenschappelijk bewijs, maar je hebt dan iig een idee of het kan lukken.Zerobase schreef op zaterdag 15 januari 2011 @ 17:30:
Heb zelf een Core i3 540 met 1x SSD en 4x HDU (2x WD10EACS en 2x Samsung F4 2TB EG). Als straks die controller binnen is komen er nog 6x 2TB F4's bij. Vandaar dat ik me afvroeg of die 300W Be Quiet! wel genoeg is.
Ik heb een 625W genomen, en dat is 'teveel'. Bewust gedaan, omdat ik nog wil uitbreiden en ik graag wat overcapaciteit heb. Bovendien had dit model meer kabels om hdd's mee te verbinden en ook langere (dacht ik). En door die efficiency labels tegenwoordig is het ook helemaal niet erg meer om een beetje teveel te hebben, zolang je het maar niet overdrijft.
Als ik jouw systeem zo effe snel invoer komt ie met minimum 227W en recommended 277W. Ik heb daarbij geen extra pci-e kaarten meegenomen en uitgegaan van onboard video. Het is dus wel een beetje krap. Het zou moeten kunnen, maar als het systeem het een tijdje erg druk heeft (een rebuild ofzo) staat de voeding wel een poos op zijn top te draaien. En na een tijdje gaat sowiesoe de juice er een beetje uit. Ik heb dat hier ondervonden met mijn oude systeem. Die wil niet erg lang stabiel draaien, en je ziet de vermogensafgifte sterk fluctueren. Het beestje is oud, maar toch...
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Een rebuild is een totaal ander beestje, daarbij heb je het dan over zo'n 6W per schijf. Dus je grootste vijand is, bij non-staggered spinup, niet rebuilden, maar spinup.
Kan allemaal wel zijn, maar ik pak mijn voeding liever ruim. Voor het geld maakt het vrij weinig uit, en ook niet voor het stroomverbruik. Ik hoor mensen daar wel heel spastisch over doen, maar zelfs al héb je een minder efficiente voeding, om hoevel € gaat het nou eigenlijk per jaar? Volgens mij is het centenwerk.Dadona schreef op zaterdag 15 januari 2011 @ 18:53:
De grootste klap komt van het opstarten van de computer, daar berekent die PSU Calc op. Daarbij wordt dan uitgegaan van een worst case situatie, waarbij de harde schijven dus tegelijk het maximale vermogen opnemen. Bij een Green gaan ze dan uit van 15W, bij 7200rpm versies van 20W.
Een rebuild is een totaal ander beestje, daarbij heb je het dan over zo'n 6W per schijf. Dus je grootste vijand is, bij non-staggered spinup, niet rebuilden, maar spinup.
Maar goed, deze discussie is al een tijdje geleden langs gekomen. Persoonlijk vind ik het een slecht idee om een voeding precies te bemeten, met maar een klein beetje speling. Het systeem staat 24/7 aan, en is dus zwaarder belast dan een doorsnee systeem waar de mainstreamvoeding voor ontworpen is. Daarbij neemt het vermogen af (capacitor ageing). Dat is niet schrikbarend, maar het is een effect wat ik zelf kan laten zien bij een oudere voeding van me. Een 'premium' merk en ook die veroudert gewoon. En je wil nog een keertje uit kunnen breiden zonder meteen de rekenmachine erbij te pakken.
Ieder het zijne natuurlijk, maar ik ga voor stabiliteit.
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
Rebuilden is het probleem niet zozeer, maar de spinup. En als je geen staggered spinup setup hebt dan is de marge inderdaad beperkt en naar jouw mening zelfs te beperkt. Maar als Zerobase nu die volgende zes aan een controller heeft hangen die aan staggered spinup doet, zou je dan nog steeds van mening zijn dat hij nu al een zwaardere voeding moet nemen voor als hij uiteindelijk naar twaalf schijven gaat?
(330W is tot daar aan toe, maar zou jij dan nog een 400, 450, .. aanbevelen??)
Ik ga hier voor de volle 100% in mee. Voedingen gaan naar verloop van tijd achteruit (slijtage). Je voeding dient zeker 20/25% ruimte te hebben. Besparen op je voeding kan je duur komen te staan.mphilipp schreef op zaterdag 15 januari 2011 @ 20:20:
[...]
Kan allemaal wel zijn, maar ik pak mijn voeding liever ruim. Voor het geld maakt het vrij weinig uit, en ook niet voor het stroomverbruik. Ik hoor mensen daar wel heel spastisch over doen, maar zelfs al héb je een minder efficiente voeding, om hoevel € gaat het nou eigenlijk per jaar? Volgens mij is het centenwerk.
Maar goed, deze discussie is al een tijdje geleden langs gekomen. Persoonlijk vind ik het een slecht idee om een voeding precies te bemeten, met maar een klein beetje speling. Het systeem staat 24/7 aan, en is dus zwaarder belast dan een doorsnee systeem waar de mainstreamvoeding voor ontworpen is. Daarbij neemt het vermogen af (capacitor ageing). Dat is niet schrikbarend, maar het is een effect wat ik zelf kan laten zien bij een oudere voeding van me. Een 'premium' merk en ook die veroudert gewoon. En je wil nog een keertje uit kunnen breiden zonder meteen de rekenmachine erbij te pakken.
Ieder het zijne natuurlijk, maar ik ga voor stabiliteit.
They call her... c*ck juggeling Thunderc*nt!
Ik snap dat een laaggeprijsde QTec slechter presteert dan een GOEDkope be queit L7
Even niets...
Op zich moet een 300W voeding het nog wel trekken. Uit die PSU Calc (die natuurlijk 10 slagen om de arm heeft) komt ook minimaal 227 en aanbevolen 277W. Dat betekent dat ie het nu nog makkelijk moet kunnen trekken. Als dat zijn systeem op dit moment is, lijkt het me niet noodzakelijk om ineens een nieuwe voeding te kopen. Als ik echter een nieuw systeem zou ontwerpen, zou ik zelf een zwaardere kiezen. Is het een bestaand systeem en heb je nog marge, blijf je bij wat je hebt.Dadona schreef op zaterdag 15 januari 2011 @ 20:28:
Ik herinner mij de discussie en dat je wat marge wil is helder en daar valt ook zeker wat voor te zeggen. Maar mijn post is ook meer een aanvulling op die van jou.
Rebuilden is het probleem niet zozeer, maar de spinup. En als je geen staggered spinup setup hebt dan is de marge inderdaad beperkt en naar jouw mening zelfs te beperkt. Maar als Zerobase nu die volgende zes aan een controller heeft hangen die aan staggered spinup doet, zou je dan nog steeds van mening zijn dat hij nu al een zwaardere voeding moet nemen voor als hij uiteindelijk naar twaalf schijven gaat?
(330W is tot daar aan toe, maar zou jij dan nog een 400, 450, .. aanbevelen??)
Alleen de relatieve krapte in het oog houden en als je verder gaat uitbreiden kijken of je niet voor zekerheid kan gaan met een ruimer bemeten voeding.
@Firedrunk: ik ook niet, maar wél een die na 5 jaar 24/7 dienst gewoon niet meer levert wat ie moet leveren. En ook die voeding was ruim bemeten, maar als je nu kijkt naar wat ie afgeeft lijkt het wel een cardiogram van iemand die een hartinfarct heeft. En het was géén budgetvoeding.
[ Voor 9% gewijzigd door mphilipp op 16-01-2011 00:18 ]
A good way to test the effectiveness and strength of a strategy is to look at whether it contains a strong and authentic tagline.
They call her... c*ck juggeling Thunderc*nt!
Lifecycle management noemen ze dat toch?
Even niets...
Echter, na (bijna precies) 50 uur crasht hij iedere keer: de verbindingen worden verbroken en de power-knop 3 seconden indrukken is dan het enige wat werkt. Hij start goed op, de RAID arrays werken (ik had 1 keer dat hij mijn RAID 1 array ging resyncen), en alles is weer up-and-running binnen een halve minuut of zo.
Maar ik wil toch zeker wel weten wat er aan de hand is en het verhelpen! Echter, er staat niks vreemds in de logs. Helemaal niks. Ik heb ze allemaal meerdere malen helemaal uitgeplozen. Alles is cool. Hij crasht gewoon ineens spontaan...
Help! Wat kan ik daar aan doen?
Even niets...
1 x Cooler Master Elite 333
1 x Cooler Master Elite power 400W
1 x Asus M4A78LT-M LE
1 x Sempron 145 BOXED
1 x Kingston ValueRam DDR3 2GB (Wel anders dan op de foto, met kleine, vierkante chipjes)
2 x Western Digital 250GB (RAID 1, boot + system)
4 x 1500GB Samsung EcoGreen F2 5400rpm (RAID 5, data)
Met nog een extra ventilator voor de schijven.
Ubuntu Server 10.04 LTS er op, postfix, apache 2, samba, sabnzbdplus, webmin, cacti. Verder standaard (alles ge-updated 1 week geleden). sensors, hddtemp en /proc/mdstat worden regelmatig bekeken, 1 hdd (250GB) wordt af en toe ~50 graden (de bovenste), de rest zit onder de 40 graden.
Oh, vergeten: er zit ook nog een kaartje in met 2 PATA aansluitingen (1 voor de DVD, 1 voor 1 van de 250GB schijven) en een kaartje met 2 SATA aansluitingen (nog niet in gebruik).
Nog meer: ik heb net voor de zekerheid apt-get update/upgrade gedaan.
Ook: hij heeft een vast IP adres (ook in de router), dus het is niet de DHCP lease.
Hij had wel in het begin wat foutmeldingen op stdout over PATA errors, ik heb toen de kabel vervangen. Kan het zijn dat zulke foutmeldingen alleen op de (niet aangesloten) monitor terechtkomen, en niet in de logs?
[ Voor 21% gewijzigd door SymbolicFrank op 16-01-2011 01:33 ]
Hmmz, ik wilde even de config utility induiken om de settings te controleren, maar als ik op de gevraagde toetsencombinatie druk krijg ik de melding dat "LSI Corp Configuration Utility will load following initialization!", maar daarna gebeurt en niks bijzonders en boot ik gewoon door naar de bootloader op mijn primaire HDD.
Vreemd! Nu is het geen ramp van wereldformaat, omdat ik software-raid heb en er volgens de documentatie toch niet zo heel veel spannends te vinden is, maar het zou toch wel handig zijn als ik toegang had. Heeft iemand met deze kaart hetzelfde probleem?
edit:
Heb LSI even gemaild en ik had binnen een kwartier een antwoord terug. Ik moest tijdelijk alle onboard controllers disablen, waarna ik wel gewoon in het menu kon. Beetje omslachtig en ik snap niet waarom het helpt, maar de support is in ieder geval goed. Nice!
[ Voor 105% gewijzigd door HarmoniousVibe op 16-01-2011 13:43 ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Zo was ik bijna mijn 18 TB array kwijt door een rokende Coolermaster. Je zit lekker achter je computer en plotseling ruik je heel licht een geur waarvan je instinctief weet dat het helemaal mis is. Mag je blij zijn dat de voeding de rest van de componenten niet mee het graf in neemt.lampie1979 schreef op zaterdag 15 januari 2011 @ 23:12:
[...]
Ik ga hier voor de volle 100% in mee. Voedingen gaan naar verloop van tijd achteruit (slijtage). Je voeding dient zeker 20/25% ruimte te hebben. Besparen op je voeding kan je duur komen te staan.
Neem een voeding van een kwaliteitsmerk (lees meerdere reviews) met enige overcapaciteit.
Zo heb ik zelf de illusie dat Corsair goede voedingen maakt. De grap is wel dat ik mijn meen te herinneren dat Lampie1979 onafhankelijk al veel eerder tot een zelfde conclusie was gekomen.
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Ik zet mijn NAS altijd uit als ik 'm niet gebruik en ik wil dan niet 5 minuten moeten wachten totdat alle 20 disks eens zijn gestart.
Als je de voeding wat ruimer kiest is staggered spinup niet nodig. Het is niet slecht voor een voeding, tenzij de voeding zo 'krap' is gekozen dat de voeding op zijn tenen moet lopen bij het booten.
[ Voor 27% gewijzigd door Q op 16-01-2011 14:13 ]
Even niets...
Maar bedankt. Staggered spinup it is. Boottime is 'of no consequence'. Met de PSU calculator kom ik uit op 342W (op basis van 10 HDDs), dus dat zit wel ok. Ik heb in diverse reviews gelezen dat de NeoPower 550W 100W meer sustained vermogen kan leveren dan geadverteerd (650W vs 550W).
[ Voor 35% gewijzigd door HarmoniousVibe op 16-01-2011 14:29 ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Als eerste mijn oude configuratie.
| # | Product | Prijs | Subtotaal |
| 2 | Samsung EcoGreen F2 EG HD154UI, 1.5TB | € 60,12 | € 120,24 |
| 1 | Samsung SpinPoint T166 HD321KJ, 320GB | € 35,95 | € 35,95 |
| 1 | Samsung SpinPoint T166 HD403LJ, 400GB | € 0,- | € 0,- |
| 1 | Lancool PC-K58 Zwart | € 57,01 | € 57,01 |
| 1 | OCZ Gold DDR2 PC2-6400 Vista Performance Dual Channel | € 60,- | € 60,- |
| 1 | Gigabyte GA-MA78GM-S2H | € 0,- | € 0,- |
| 1 | AMD Athlon X2 4450e | € 0,- | € 0,- |
| 1 | Seasonic S12II-330 | € 45,- | € 45,- |
En nu mijn bevindingen van afgelopen week. Met WHS als OS.
Omdat de HDD's vol raakten heb ik 2 Samsung F4 2TB toegevoegd en één Samsung F2 1,5TB verwijderd (backupschijf).
Het probleem was dat de prestaties aanzienlijk waren verslechterd. Het streamen van blu-ray rips ging niet meer vloeiend. Het moest aan de HDD's liggen, want dat was het enige dat veranderd was. Dus ik geprobeerd de F4 HDD's te alignen met het Samsung align tool, maar deze werkt niet in WHS. Daarna met GParted zelf de alignment uitgevoerd. Dit heeft ongeveer 20 uur pér HDD in beslag genomen
En jullie raden het al. WHS had ze uit de storage pool gegooid, maar toch ook weer niet
Ik weet niet wat er precies aan de hand was. De pool was wel bereikbaar via het netwerk, maar de WHS Console gaf aan dat de HDD's niet meer "added" waren, terwijl ze wel onder de kop van de storage pool stonden. Ook kon ik ze niet alsnog echt verwijderen uit de pool.
Begrijpen jullie het nog
Conclusie: Gebruik GEEN 4K sector HDD's in combinatie met WHS.
Omdat ik toch al van plan was om WHS te vervangen voor FreeBSD/Linux heb ik mijn config veranderd.
Onderstaande is aan de bovenstaande config toegevoegd.
| # | Product | Prijs | Subtotaal |
| 1 | Intel Gigabit CT Desktop Adapter | € 25,34 | € 25,34 |
| 2 | Samsung EcoGreen F4EG, 2TB | € 72,- | € 144,- |
| 1 | Transcend TS2GDOM40V-S | € 21,81 | € 21,81 |
Transcend 2GB DOM = OS
2x F4 2TB + 1x F2 1,5TB = RAID5 pool
2x Spinpoint = downloads SABnzbd
Als eerste heb ik FreeNAS geprobeerd, maar dit bleek al snel een teleurstelling. FreeNAS 7 wilde geen ZFS pool aanmaken. Dit komt waarschijnlijk omdat ik HDD's met verschillende grootte gebruik.
FreeNAS 8 lukte het wel om de ZFS pool aan te maken, maar de performance was dramatische. Tijdens het kopiëren van een blu-ray rip naar de NAS viel de verbinding helemaal weg. Het systeem liep soms zelfs helemaal vast. Alleen de powerknop hielp nog
Daarna ZFSGuru ook maar een kans gegeven, mooie distro met veel potentie, ook hier viel de verbinding weg. Ik denk dat ZFS niet goed overweg kan met HDD's van verschillende grootte. Of ik doe iets verkeerd.
Uiteindelijk toch op Debian met mdadm en XFS uitgekomen.
Op de F4 HDD's een 1,5TB partitie aangemaakt. Daarna samen met de F2 een RAID5 config aangemaakt.
Draait zeer stabiel. Ben op dit moment mijn volledige backup (400GB + 1,5TB) aan het overpompen
Jullie denken misschien waarom gebruikt hij verschillende HDD's. Daar komt binnenkort verandering in. Er komen nog twee F4 HDD's bij. Daarom wilde ik ook WHS zolang mogelijk laten draaien tot ik mijn definitieve config bij elkaar heb, maar dat mocht niet zo zijn.
Voor degene die nog niet in slaap
Ik wil via een webinterface/ssh bestanden van de download HDD's naar mijn RAID pool kunnen kopiëren zonder dat dat via het netwerk of CLI moet. Er draait een minimale debian squeeze install.
Debian heeft eXtplorer in de repo's, maar heb geen idee hoe ik dit aan de praat krijg. Ik weet niks van webservers en kan geen goede documentatie vinden over eXtplorer.
Dus kan iemand mij hiermee helpen? of weet je een ander programma (geen webmin)?
[ Voor 18% gewijzigd door HarmoniousVibe op 16-01-2011 16:26 ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
[ Voor 29% gewijzigd door FireDrunk op 16-01-2011 16:41 ]
Even niets...
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.