12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Ook is vaak de schijf binnen 3 maanden kapot, of dan pas na 2 jaar, tussen 3 maanden en 2 jaar is de failure rate relatief laag. Smart status kan wat zeggen over de gezondheid van de schijf, maar niet altijd. Vooral 'scan errors' zijn blijbaar funest voor je schijf. De kans dat ie na scan errors kapot gaat binnen 60 dagen is 39 keer groter dan normaal.
Ik heb zelf een 8Mbit verbinding en kan dus in 1 dag maximaal 86Gbyte downloaden. Mijn tijdelijke opslag wordt dus minstend 90Gbyte, zodat ik (ook als ik 24 uur download, wat niet vaak gebeurt) de 'archief' schijven niet op hoef te spinnen. Er zijn natuurlijk ook momenten dat ik niks download... Ik hou al langer in de gaten hoe mijn downloadgedrag is, ik denk dat ik misschien zelfs een week zou kunnen teren op 90Gbyte, het ligt een beetje aan wat er gepost is:
Groen is downloaden, blauwe lijnen zijn films kijken:

Ook hou ik bij (via vmstat) hoe druk mijn schijf het heeft met I/O in dit geval gaat het om Kbytes/sec gemiddeld, dus 6.4k is 6.4Mbyte/sec:

En hie warm mijn schijf het heeft (via smartctl):

Wil niet zeggen dat ik zover kom als google, maar ik kan (hopelijk) via de adaptec controller utilities ook het aantal spinups bijhouden en monitoren (en andere smart factoren). De temperatuur zal ik regelen door middel van een fan controller, zodat deze zo constant mogelijk blijft.
We zien wel waar het schip strand, ik heb het iig geprobeerd.
Rob
[ Voor 4% gewijzigd door campr112 op 28-10-2009 20:18 ]
Be more, use Linux.
Wat denk je dat een harde schijf doet als je hem uit zet? Warm worden?campr112 schreef op woensdag 28 oktober 2009 @ 20:14:
De meeste desktop schijven worden juist iedere dag iig 1x uitgezet, soms zelf meerdere malen omdat windows op 'switch harddisks off' power-save staat en ook omdat de PC uitgezet wordt. Google heeft ook al onderzoek gedaan naar schijf-failures, en de conclusie is dat HDs vooral doodgaan door temperatuur schommelingen, niet zozeer aan/uit zetten. http://labs.google.com/papers/disk_failures.pdf
Even niets...
Ik wil best geloven dat het aan/uitzetten van schijven de levensduur van schijven negatief beinvloed, maar met 8 schijven, kan ik tot ~150E/jaar op stroom besparen. Daarvan kan ik dan weer mooi vervangende schijven kopen

We zien wel. Ik heb iig gepoogd om iets te doen aan mijn stroomverbruik. Ik had ook gewoon net zogoed niets kunnen doen, maar dat is niet zo leuk

Be more, use Linux.
Leuk project dit. Met name de SAS oplossing vind ik interessant. Hopelijk gaat het 1080p spul ook goed werken.
Begonnen met Debian, maar veel problemen met dependencies voor de 'speciale' versie van xbmc voor ION-decode acceleratie. Alle packages zijn gemaakt voor Ubuntu Jaunty, dus dat zal ik vanaf nu ook gaan draaien. Ander voordeel van Jaunty, SMBv2 (SambaV4(alpha)) zit er al in.
Heb alleen geen SATA CD-Rom drive, dus eerst bootable USB stick maken, dat werkte niet direct, dus daar ben ik nog even mee bezig.
Volgende maand de SAS kaart bestellen en de schijven (of iig na mijn salarisstorting van volgende maand
De kabels zijn onderweg, zoals ook de SAS expander bordjes. Kast is ook al bijna klaar, heb alleen nog 4 moederbordmontage schroefjes nodig. Wat ook onderweg is, is de 2de kast voor de uitbreiding.
De ventilatie-controller is ook al binnen, dus daar ga ik binnenkort ook mee aan de slag.
Er zit schot in.
Be more, use Linux.
Wel erg cool project! Heb hier gewoon een Synology 209 en een losse HTPC (die overigens via iSCSI boot, zodat de HTPC stiller is). Maar ben toch wel een klein beetje jaloers als ik dit zie
Wat ruist er door het struikgewas
Het is me nu ook gelukt met hardware acceleratie 720p en 1080p af te spelen onder Ubuntu. Dus volgende maand de controller (en 3 schijven bestellen) en dan kan ik aan de slag.
Vandaag is ook de 2de kast binnengekomen, dus ik kan al naar 20 schijven! Wooohoo...
Be more, use Linux.
Even jouw link gevolgd die je op "mijn" thread had gezet, je hebt wel werk gemaakt van de beschrijving + foto's. Erg mooi om te zien! Mijn spullenboel (met software raid) wordt een kerstproject, geen tijd voor nu om dat nu te doen. Overigens kreeg ik van meerdere kanten de opmerkingen dat een ION bord met Debian geen goede keuze is gezien de hardware ondersteuning, Ubuntu lijkt een meer voor de hand ligende keuze. Ik zal met belangstelling dit stukje volgen hier! Succes!
<edit>
Eén ding wat ik aan mijn config ga wijzigen is het toevoegen van SSD's. Ik ga hem ook inzetten als mailserver, er komt per paar minuten mail binnen wat qua volume makkelijk op een SSD past. Na verwerking verdwijnt het naar een reguliere map ergens op de schijven. Vraag is even of het een vakantie van 3 weken kan overleven op SSD only. Maar dat scheelt als de PC's uitstaan die gebruik maken van het schijvenkabinet (lees: 's avonds/'s nachts) inderdaad stroomkosten van de schijven die uitstaan. Ook even aan rekenen wat het uitzetten van twee schijven scheelt. Maar zowiezo wel een goed idee om OS en data op verschillende schijven te hebben staan.
Kees
[ Voor 40% gewijzigd door Houtenklaas op 31-10-2009 18:37 ]
Ik weet trouwens niet of het mogelijk is (zonder de geschikte hardware) SATA devices uit te zetten. Ik weet niet of hier ondersteuning voor bestaat.
[ Voor 18% gewijzigd door campr112 op 01-11-2009 09:50 ]
Be more, use Linux.
Welke sas-expanders gebruik je?
Astek A33603-AIC-12 SAS Expander Add-In-Card
Gebaseerd op de LSI chipset.

[ Voor 41% gewijzigd door campr112 op 01-11-2009 15:27 ]
Be more, use Linux.
http://cgi.ebay.com/NEW-A...ulk_W0QQitemZ320432389774
Duitland:
€380,50: http://shop.nordpc.com/index.php?uid=788060000
Dus nee, €375 is geen 'goeie' prijs. Wel op de Nederlandse markt, maarja, er is meer dan Nederland. Ik ben met de kerst in duitsland (rond salaristijd
Maar bedankt voor de tip!
Trouwens, ook ecogreen schijven zijn goedkoper in Duitsland:
1.5Tbyte versie, €75 http://www.ipcstore.net/n...tml?page=detail&id=204289
Rob
[ Voor 16% gewijzigd door campr112 op 04-11-2009 11:06 ]
Be more, use Linux.
http://cgi.ebay.de/Adapte...TOP_W0QQitemZ280417791042
Met nog 4 dagen en 4 uur te gaan op 221€
Be more, use Linux.
Kabels zijn al binnen, vanmiddag de SAS expanders ophalen bij het postkantoor. Nu alleen nog de schijven en een boel powerkabels en soldeerwerk.
Be more, use Linux.
Nice, hopelijk snel weer pica's!campr112 schreef op dinsdag 10 november 2009 @ 13:43:
Nou, die van E-bay heb ik gewonnen voor 351 euro. Vrijdag zou ie er moeten zijn. We zullen het zien.
Kabels zijn al binnen, vanmiddag de SAS expanders ophalen bij het postkantoor. Nu alleen nog de schijven en een boel powerkabels en soldeerwerk.
Verwijderd
Ik ben heel geintersseerd in dat SAS gedeelte, ik snap dat verhaal met die expanders niet helemaal. Als ik het goed begrijp hang je die expanders aan de uitgang van je SAS controller eentje intern en eentje in je externe kast (toekomst), wat voor een kabel steek je dan in zo'n expaner waar je je HD's aan hangt? Een SAS kabel met een bos SATA aansluitingen, snap ik niet helemaal daarom pics
Mijn idee kreeg ik trouwens na het lezen van dit verhaal.
Je stopt er een mini-sas (SSF-8087) naar sata-kabel in. Zo eentje:Verwijderd schreef op woensdag 11 november 2009 @ 12:55:
Inderdaad pics!!
Ik ben heel geintersseerd in dat SAS gedeelte, ik snap dat verhaal met die expanders niet helemaal. Als ik het goed begrijp hang je die expanders aan de uitgang van je SAS controller eentje intern en eentje in je externe kast (toekomst), wat voor een kabel steek je dan in zo'n expaner waar je je HD's aan hangt? Een SAS kabel met een bos SATA aansluitingen, snap ik niet helemaal daarom pics.

De expander hang je aan de controller via een mini-sas naar mini-sas kabel. Over een mini-sas kabel gaan vier poorten. De expander moet je zien als een switch met trunking mogelijkheid voor de uplink. Als je de expander en de controller met vier poorten aan elkaar knoopt maken ze er een wide-port van met een bandbreedte van 1,2GB/s.
Verwijderd
Maar dan kan hij toch maar 4 schijven kwijt in z'n externe case, terwijl de TS het toch over een veelvoud van 4 schijven heeft? Hij spreekt over "SAS kan je tot 128 devices aansluiten via SAS expanders op een SASx4 bus", niet dat hij128 schijven gaat aansluiten maar meer als 4 lijkt me wel de bedoeling, hoe sluit je dat dan aan?Femme schreef op woensdag 11 november 2009 @ 13:44:
[...]
Je stopt er een mini-sas (SSF-8087) naar sata-kabel in. Zo eentje:
[afbeelding]
De expander hang je aan de controller via een mini-sas naar mini-sas kabel. Over een mini-sas kabel gaan vier poorten. De expander moet je zien als een switch met trunking mogelijkheid voor de uplink. Als je de expander en de controller met vier poorten aan elkaar knoopt maken ze er een wide-port van met een bandbreedte van 1,2GB/s.
[ Voor 12% gewijzigd door Verwijderd op 11-11-2009 13:53 ]
De bovenstaande expander heeft 36 poorten en negen mini-SAS-connectors. Ik weet niet precies hoe de indeling van de poorten werkt en of dat volledig flexibel is (of je zomaar een willekeurige connector kunt gebruiken voor het aansluiten van vier of acht poorten naar de controller). Als je acht poorten en dus twee connectors zou gebruiken voor de verbinding met een achtpoorts sas-controller houd je zeven mini-sas-connectors over op de expander waar in totaal 28 harde schijven op aangesloten kunnen worden.Verwijderd schreef op woensdag 11 november 2009 @ 13:51:
[...]
Maar dan kan hij toch maar 4 schijven kwijt in z'n externe case, terwijl de TS het toch over een veelvoud van 4 schijven heeft? Hij spreekt over "SAS kan je tot 128 devices aansluiten via SAS expanders op een SASx4 bus", niet dat hij128 schijven gaat aansluiten maar meer als 4 lijkt me wel de bedoeling, hoe sluit je dat dan aan?
Als je nog meer devices wilt gaan ondersteunen moet je expanders aan elkaar knopen.
Verwijderd
OK ik kan me er iets bij voorstellen hoe het ongeveer werkt, hoop dat nog wat meer pictures zie zodat ik het helemaal kan vatten.Femme schreef op woensdag 11 november 2009 @ 13:59:
[...]
De bovenstaande expander heeft 36 poorten en negen mini-SAS-connectors. Ik weet niet precies hoe de indeling van de poorten werkt en of dat volledig flexibel is (of je zomaar een willekeurige connector kunt gebruiken voor het aansluiten van vier of acht poorten naar de controller). Als je acht poorten en dus twee connectors zou gebruiken voor de verbinding met een achtpoorts sas-controller houd je zeven mini-sas-connectors over op de expander waar in totaal 28 harde schijven op aangesloten kunnen worden.
Als je nog meer devices wilt gaan ondersteunen moet je expanders aan elkaar knopen.
Een goed verhaal over SAS, SATA, SAS die wel SATA aan kan maar andersom niet, SAS expanders, in een mooi artikel, dat zou ik mooi vindenFemme schreef op woensdag 11 november 2009 @ 13:59:
[...]
De bovenstaande expander heeft 36 poorten en negen mini-SAS-connectors. Ik weet niet precies hoe de indeling van de poorten werkt en of dat volledig flexibel is (of je zomaar een willekeurige connector kunt gebruiken voor het aansluiten van vier of acht poorten naar de controller). Als je acht poorten en dus twee connectors zou gebruiken voor de verbinding met een achtpoorts sas-controller houd je zeven mini-sas-connectors over op de expander waar in totaal 28 harde schijven op aangesloten kunnen worden.
Als je nog meer devices wilt gaan ondersteunen moet je expanders aan elkaar knopen.
Ik heb het voor mijn NAS overwogen maar ben op de oude toer gegaan. Maar dat geeft een kabel spagetti die met expanders te voorkomen is.
In dat licht maakt dit soort dingen mij zo blij:
http://blog.backblaze.com...uild-cheap-cloud-storage/
Maar het komt hierop neer:
Uit de SAS kaart komen 8xSAS bussen in 2 connectors van 4xSAS bussen
Die worden allebei aangesloten op de 'achterkant' van de SAS expander:
Op de achterkant zitten ook nog 2 connectors voor de doorverbinding naar de volgende SAS expander (een soort doorgeefluik)
Op de voorkant van de SAS expander zitten 5 mini-SAS aansluitingen:

(je ziet nog net de andere connectors op de 'achterkant')
Op die 5 mini-SAS aansluitingen kan je per stuk een mini-SAS naar 4xSATA kabel aansluiten:
En kan je dus in totaal 20 drives aansluiten op 1 SAS expander die tussen de SAS kaart en een andere expander zit. Als het de laatste expander in het rijtje is, kan je drives aansluiten op de 'doorgeefluik' connectors. Dus op de laatste kan je 28 drives aansluiten. In totaal heeft de SAS expander dus 28+8=36 SAS poorten. Die ieder 3Gbit kunnen verwerken! Best een bakkie dus! Dus in een bundel van die 8xSAS, kan je 2.4Gbyte/sec verplaatsen (theoretisch max).
Net nog een mooi diagrammetje gevonden:

Hier staat overal JBOD, maar je kan er ook raid van maken... Dit is bijna precies hoe het bij mij zal gaan gebeuren, alleen wil ik op de interconnects x8 ipv x4 SAS hebben.
Die rooie bak met 60+ schijven erin is leuk, maar issue zal throughput zijn, zoals al eerder gemeld.
Be more, use Linux.


Voor externe connectied heb je dan andere kabels (de miniSAS heeft geen trek-ontlasting, dus die kan je extern niet gebruiken):

En dan worden extern deze kabels gebruikt SFF-8088:

Op de PERC5i worden dus SFF-8484 gebruikt, en miniSAS is SFF-8087
Normaal gebruiken SAS drives (ook dual-port) een SFF-8482 om aangesloten te worden (die is dan wel incl power).
Dus meerdere manieren om 4xSAS/SATA over te brengen en eind-devices aan te sluiten.
SFF-8470 word ook gebruikt bij infiniband.
<edit>: Bij Alternate is een mooi overzicht te vinden van alle verschillende type kabels: http://www.alternate.nl/h...cat3=000&vendorSelect=855
<edit2>: 6Gbit SAS zit er ook al aan te komen, 4xSAS6G kan dus ~2.4Gbyte/sec aan. Dus zo'n M8 connector kan dus ~4.8Gbyte/sec aan! WOW... Wie zal er ooit meer willen? DAS(directly attached storage) here we come!
[ Voor 21% gewijzigd door campr112 op 11-11-2009 23:50 ]
Be more, use Linux.
Ik heb in 2006 ooit een artikeltje over sas geschreven waarin de basisbeginselen worden besproken:Q schreef op woensdag 11 november 2009 @ 22:08:
[...]
Een goed verhaal over SAS, SATA, SAS die wel SATA aan kan maar andersom niet, SAS expanders, in een mooi artikel, dat zou ik mooi vinden
reviews: Kennismaking met Serial Attached SCSI
Ik wist niet dat losse sas expanders al zo goedkoop zijn geworden. Ik denk dat ik er maar een ga scoren voor testdoeleinden. Is een stuk goedkoper dan een externe behuizing met hotswapbays gebruiken (die alleen maar onhandig zijn als je vaak van drives moet wisselen).
Be more, use Linux.
Verwijderd
Ok mooie informatie, nou begin ik het te vatten, wel gaaf dat SAS spulcampr112 schreef op woensdag 11 november 2009 @ 23:23:
Ik heb de kaart nog niet binnen, maar zodra dat wel zo is, zal ik wat fotos maken van de setup voor het de kast ingaat, zodat jullie alles nog netjes kunnen zien (het wordt toch wat krapper dan verwacht, in de kast).
Maar het komt hierop neer:
Uit de SAS kaart komen 8xSAS bussen in 2 connectors van 4xSAS bussen
Die worden allebei aangesloten op de 'achterkant' van de SAS expander:
[afbeelding]
Op de achterkant zitten ook nog 2 connectors voor de doorverbinding naar de volgende SAS expander (een soort doorgeefluik)
Op de voorkant van de SAS expander zitten 5 mini-SAS aansluitingen:
[afbeelding]
(je ziet nog net de andere connectors op de 'achterkant')
Op die 5 mini-SAS aansluitingen kan je per stuk een mini-SAS naar 4xSATA kabel aansluiten:
[afbeelding]
En kan je dus in totaal 20 drives aansluiten op 1 SAS expander die tussen de SAS kaart en een andere expander zit. Als het de laatste expander in het rijtje is, kan je drives aansluiten op de 'doorgeefluik' connectors. Dus op de laatste kan je 28 drives aansluiten. In totaal heeft de SAS expander dus 28+8=36 SAS poorten. Die ieder 3Gbit kunnen verwerken! Best een bakkie dus! Dus in een bundel van die 8xSAS, kan je 2.4Gbyte/sec verplaatsen (theoretisch max).
Net nog een mooi diagrammetje gevonden:
[afbeelding]
Hier staat overal JBOD, maar je kan er ook raid van maken... Dit is bijna precies hoe het bij mij zal gaan gebeuren, alleen wil ik op de interconnects x8 ipv x4 SAS hebben.
Die rooie bak met 60+ schijven erin is leuk, maar issue zal throughput zijn, zoals al eerder gemeld.
Btw die kennismaking review van Femme is ook heel interssant.
Ik zal vanavond even alles aansluiten en wat fotos maken en posten.
Jammergenoeg zullen de benchmarks moeten wachten op schijven. Die zullen aan het eind van december komen, in relatief grote getalen. Maar toch nog maximaal 8 (+2 SSDs, dus 10 in totaal)), de tweede doos zal in de loop van 2010 opgebouwd (en gevuld) worden.
Op mijn werk ben ik ook met een DAS projectje bezig, zoals er er nu uitziet, zullen Chenbro expanders en kast ongeveer 6 schijven van 2Tbye (met mogelijkheid tot meer) aan een Adaptec 5085 (8xSAS extern) hangen in een Dell Poweredge 2800.
Be more, use Linux.
Van links naar rechts:
80G Sata 2.5" tijdelijke OS schijf (Ex apple mac mini)
Point of view moederbord, Atom 330, ION chipset, 1Gbyte geheugen (Ex apple mac mini)
Adaptec 5805 SAS kaart.
2x een SAS Expander van Asteccorp
Voor de gein nog een PERC5i incl 1 kabeltje.
Kabels.
5x mini-SAS naar 4xSATA
2x mini-SAS naar mini-SAS
1x SAS naar 4xSATA
1x Power kabel splitter
De setup die ik ga gebruiken voor mijn NASje:
Dus even zonder Perc5i
Een onscherpe foto (sorry) van de 2 SAS expanders (1tje van voren, 1tje van achteren):
De 8xSAS aansluitmethode:
Tja, hiervoor mis ik nog wat kabels:
Het low-performance alternatief:
(bijna) alle kabeltjes aangesloten:
In detail (incl een stukje veter):
Mijn nieuwe achtergrond:
En ik heb het natuurlijk allemaal even getest op tafel (van glas, op muismat en met FAN!):
Die SAS expanders en de Adaptec 5805 is net een lichtcircus... Die adaptec doet ook een soort night-rider om aan te geven dat ie schijven zoekt... Wel geinig... Ik zal proberen en nog een video van te maken.
Be more, use Linux.
AL dat apple spul gaat terug of is het echt ex?campr112 schreef op donderdag 12 november 2009 @ 19:35:
1000 Euro aan hardware op de grond:
[afbeelding]
Van links naar rechts:
80G Sata 2.5" tijdelijke OS schijf (Ex apple mac mini)
Point of view moederbord, Atom 330, ION chipset, 1Gbyte geheugen (Ex apple mac mini)
Adaptec 5805 SAS kaart.
2x een SAS Expander van Asteccorp
Voor de gein nog een PERC5i incl 1 kabeltje.
Kabels.
5x mini-SAS naar 4xSATA
2x mini-SAS naar mini-SAS
1x SAS naar 4xSATA
1x Power kabel splitter
De setup die ik ga gebruiken voor mijn NASje:
[afbeelding]
Dus even zonder Perc5i
Een onscherpe foto (sorry) van de 2 SAS expanders (1tje van voren, 1tje van achteren):
[afbeelding]
De 8xSAS aansluitmethode:
[afbeelding]
Tja, hiervoor mis ik nog wat kabels:
[afbeelding]
Het low-performance alternatief:
[afbeelding]
(bijna) alle kabeltjes aangesloten:
[afbeelding]
In detail (incl een stukje veter):
[afbeelding]
Mijn nieuwe achtergrond:
[afbeelding]
En ik heb het natuurlijk allemaal even getest op tafel (van glas, op muismat en met FAN!):
[afbeelding]
Die SAS expanders en de Adaptec 5805 is net een lichtcircus... Die adaptec doet ook een soort night-rider om aan te geven dat ie schijven zoekt... Wel geinig... Ik zal proberen en nog een video van te maken.
Dat komt uit mijn mac-mini die ik heb ge-upgrade naar 4Gig en 320Gig ipv 1Gig en 80Gig...DJ-Visto schreef op donderdag 12 november 2009 @ 19:43:
[...]
AL dat apple spul gaat terug of is het echt ex?En de rest
Ben nu alleen bezig met het 'passen' in mijn SUN multipack behuizing, alleen het jammere is dat de hardware wel past met enig passen en meten, maar ik geen ruimte heb voor de 4xSAS kabels! Ze zijn gewoon te stijf, te lang en te dik
Zelf wat in elkaar solderen? Ze zijn wel 36-pools, en ultrasoon dichtgelast
In princiepe zou ik het kunnen doen, het is volgens de spec gewoon een rechtdoorkabel:
http://www.t10.org/ftp/t10/document.05/05-084r1.pdf
Maargoed, die kabel is wel tot 10Gbit geschikt, dus ik gok dat het wel allemaal redelijk moeilijk zal zijn. Misschien toch gewoon 2 drives minder in de eerste kast. Dus terug naar 6 drives
Jammer, maarja, het is niet anders.
Be more, use Linux.
Wat nog veel jammerder is, 1 van de expander doet het niet.... Hij heeft heartbeat, hij geeft activiteit op de poorten, maar hij wordt niet herkend door de SAS controller... Hij heeft zelf alle power-leds en alles aan.. Het verschil wat ik zie is dat 1 bordje rev 1A is, en de ander 1B
Mijn 2.5" 80Gbyte schijf wordt ook niet herkend via de werkende SAS expander, maar alleen als ie direct op de kaart aangesloten zit.. Er zijn dus nog wel wat issues met betrekking tot SAS compatibiliteit... Misschien helpt een firmware upgrade van de SAS controller, we zullen zien... Is iets voor morgen.
De jongens die die rooie bakken hadden gemaakt dankten ook anderen voor het helpen met de analyse van problemen met de SATA multipliers, dus misschien hadden die ook soorgelijke problemen met SATA als ik nu met SAS/SATA. Jammer.
Be more, use Linux.
Verwijderd
[ Voor 33% gewijzigd door Verwijderd op 13-11-2009 07:55 ]
De zwarte lijnen aan de onderkant van de foto (inge-edit) zouden de normale manier zijn om het aan te sluiten.
Zo kan het ook, maar dat is zonde van je bandbreedte (je kan wel 16 extra drives aansluiten, want er zijn 4 extra poorten vrij): (1 op de sas kaart en in totaal 3 op de expanders)
[ Voor 5% gewijzigd door campr112 op 13-11-2009 09:35 ]
Be more, use Linux.
Verwijderd
Deze SAS techniek is wel de volgende stap voor de gevorderde thuisgebruiker met een flink performant servertje nog beter/flexibeler als die gewone raid kaarten.
Raid-controller: 8x sas dmv 2x mini sas SFF-8087 (3Gb/s per poort)
Expander: 2x SFF-8087 in, 2x SFF-8087 uit, 5x SFF-8087 op de onderkant
Kabel: SFF-8087 naar 4x sata
Nu is het een 12 poorts expander maar de expander heeft 9 "aansluitingen". Hoe moet ik dit zien?
Vanuit de 5 aansluitingen aan de onderkant komen (op een bovenstaande foto) 36 sata stekkers. Krijgt elke "stekker" zijn eigen bandbreedte toegewezen afhankelijk van de in-uitsluitingen (1x of 2x 3Gb/s). Dus onder volle belasting ongeveer 0.08 of 0.16 Gb/s per "stekker"?
Hebben de SFF-8087 connectoren een toegewezen functie of maakt het niks uit waar je wat op welke connector aansluit?
Nu ben ik erg benieuwd naar de performace van een dergelijke oplossing. Het lijkt te mooi voor woorden: een mooie basis setup bouwen voor "nu" met 1 of 2 poorten naar buiten. Later uitbreidingen plaatsen naar behoren.
Ik volg je vorderingen op de voet!
Leesvoer:
http://www.tomshardware.com/reviews/sas-6gb-hdd,2392-2.html
---------------------
Wat is dit dan trouwens voor een beest: Areca ARC-1680ix-24 => 28 aansluitingen. Het lijkt erop dat Areca zelf een (soort van) expander module op zijn SAS-kaarten heeft. De kaarten kunnen ook "maar" 128 devices aanspreken, wat de maximale spanwijdte van een expander. Ik weet niet hoe het dan zit met de bandbreedte per poort/connector.
[ Voor 18% gewijzigd door Brains op 13-11-2009 11:09 ]

voordeel is de mogelijkheid van uitval van 1 van beide exanders, maar ik weet natuurlijk niet of het mogelijk is.
waarom gebruik je de huidige perc niet met de sas expanders of is dat niet mogelijk?
enphase 8300wp (3460 ZO, 2740 ZW, 2100 NO), 2x20 vacuümbuizen op 300l SWW, Panasonic WH-MXC12J9E8, gasloos sinds Juni 2022 Stromer st3 voor woon-werk
zie zo'n 8087 poort als 4 sata/sas poorten, in welke richting dan ook. als je een bundel van 4 doorverbind naar de expander, heb je dus 12 Gbit verbinding, en als je zoals op de 1e foto dubbel doorverbind, zelfs 24 Gbit naar je expander toe.
de expander zelf heeft dus 9 poorten (van 4x sata/sas per stuk), als je daarvan 2 als input, en 2 als output voor de volgende expander neemt, heb je nog 5 poorten om 20 schijven aan te hangen
(en in theorie maakt het niet uit wat je waar aansluit, het zou zichzelf allemaal moeten uitvissen. je kan ook 2 raid controllers in 2 computers hangen aan 1 expander, en dan kunnen ze allebei bij dezelfde schijf of array accessen)
[ Voor 17% gewijzigd door AlexanderB op 13-11-2009 12:14 ]
Het is een 36-poorts expander met (volgens) acht upstream 36 poorten naar de controller, acht downstream poorten voor het daisy chainen van sas expanders en 20 poorten om harde schijven op aan te sluiten.Brains schreef op vrijdag 13 november 2009 @ 10:34:
Ik snap door alle cijfers de getallen niet meer.
Raid-controller: 8x sas dmv 2x mini sas SFF-8087 (3Gb/s per poort)
Expander: 2x SFF-8087 in, 2x SFF-8087 uit, 5x SFF-8087 op de onderkant
Kabel: SFF-8087 naar 4x sata
Nu is het een 12 poorts expander maar de expander heeft 9 "aansluitingen". Hoe moet ik dit zien?
Vanuit de 5 aansluitingen aan de onderkant komen (op een bovenstaande foto) 36 sata stekkers. Krijgt elke "stekker" zijn eigen bandbreedte toegewezen afhankelijk van de in-uitsluitingen (1x of 2x 3Gb/s). Dus onder volle belasting ongeveer 0.08 of 0.16 Gb/s per "stekker"?
Als je die 20 schijvenmaximaal zou belasten zou er 120MB/s bandbreedte per harde schijf zijn. De Adaptec-controller waar de TS mee aan de slag haalt is overigens niet in staat om 2,4GB/s aan data te verwerken vanwege de prestaties van de processor. De limiet ligt ca. 1,2GB/s. LSI Logic heeft een nieuwe generatie sas raid-adapters die 2,8GB/s kunnen lezen en 1,8GB/s kunnen schrijven.
Sas wide ports schalen erg goed is mijn ervaring. Zie bijv. deze grafiek uit het eerder gelinkte artikel (acht 2,5 inch sas-schijven, wide-port van 600MB/s en perfecte scaling van de sequentiële doorvoersnelheid):Nu ben ik erg benieuwd naar de performace van een dergelijke oplossing. Het lijkt te mooi voor woorden: een mooie basis setup bouwen voor "nu" met 1 of 2 poorten naar buiten. Later uitbreidingen plaatsen naar behoren.

Voor zover ik weet gebruiken alle fabrikanten van sas raid-adapters op hun adapters met meer dan acht poorten een sas expander om het grotere aantal poorten te verkrijgen. Het maakt dus weinig uit of je een achtpoorts controller koopt met een losse expander of een dure 24-poorts kaart waar de expander al op zit. Het bespaart hooguit wat ruimte (en je bent verzekerd van compatibiliteit).Wat is dit dan trouwens voor een beest: Areca ARC-1680ix-24 => 28 aansluitingen. Het lijkt erop dat Areca zelf een (soort van) expander module op zijn SAS-kaarten heeft. De kaarten kunnen ook "maar" 128 devices aanspreken, wat de maximale spanwijdte van een expander. Ik weet niet hoe het dan zit met de bandbreedte per poort/connector.
Op de zaak ziet het er nu naar uit dat we naar een kast toe gaan met een ingebouwde expander backplane.. Ook leuk, maar niet voor een mini-kast, want de schijven zijn hier te ver uit elkaar (in hun hot-swap bays).
Ik hoop van het weekend alles in 1 kast te kunnen zetten bij mij thuis. Initieel zal ik 3x500Gig in JBOD hebben en nog een mix van 250Gbyte en 160Gbyte schijven. Die zullen langzamerhand vervangen worden door 1.5Tbyte schijven.
Idd, de dual-core 1.2Ghz adaptec controllers zijn gelimiteerd op 1.1Gbyte/sec... Maar als je het over servers hebt die dit soort data kunnen verwerken, dan hebben ze ook voldoende PCIe sloten, gewoon meer controllers inbouwen dus ;-)... Areca schijnt hier idd de kroon te spannen..
Mijn Atom ION met 80Gbyte 2.5" SATA en 5805 en SAS expander neemt 53Watt aan vermogen op als ie staat te idlen. Hier heb ik dan nog geen power-save op de processor aangezet, dus het kan zijn dat ik de 50 nog wel haal, met een beetje geluk. Waar zit het hem in? De ION gebruikt geloof ik bij idle al 35W (heel het moederbord), de Adaptec ~12W en de SAS expander schijnt 1.5A op 5V te gebruiken volgens de handleiding die ik heb ontvangen van Astekcorp. De rest is wel op de HD te gooien, 2.5" 80Gbyte zal enkele watten gebruiken.. Wel qua verwachting, maar toch hoger dan ik zou willen.. Maarja, c'est la vie.
Misschien ooit nog een AppleTV bouwen met PCIe1x adapter naar een Adaptec 2 serie kaart (alleen Raid0 en Raid1) met JBOD? ;-)
Het is trouwens mogelijk bestaande schijven zonder data-verlies naar JBOD schijven te migreren onder de Adaptec controller.
[ Voor 54% gewijzigd door campr112 op 13-11-2009 18:06 . Reden: extra info. ]
Be more, use Linux.
Het is iig een stuk beter dan de 133Mbyte/sec uit de PCI dagen
Be more, use Linux.
Verwijderd
Ik heb thuis een hele mooie Chenbro kast waar dat allemaal wel inpastcampr112 schreef op vrijdag 13 november 2009 @ 17:52:
Als het goed is, komen ze daar door wat slimme negotiation uit... Mits ze allemaal aan de SAS standaard voldoen... Ze maken dus ook standaard gebruik van dubbele verbindingen enzo...
Op de zaak ziet het er nu naar uit dat we naar een kast toe gaan met een ingebouwde expander backplane.. Ook leuk, maar niet voor een mini-kast, want de schijven zijn hier te ver uit elkaar (in hun hot-swap bays).
Ik hoop van het weekend alles in 1 kast te kunnen zetten bij mij thuis. Initieel zal ik 3x500Gig in JBOD hebben en nog een mix van 250Gbyte en 160Gbyte schijven. Die zullen langzamerhand vervangen worden door 1.5Tbyte schijven.

Chenbro levert voor deze kast ook backplanes met sas mogelijkheid zal wel wat kosten. alleen wel wat lomper als wat je eerst in gedachten had.
Be more, use Linux.
Welk type is dat?campr112 schreef op vrijdag 13 november 2009 @ 20:10:
We gaan toch voor een SuperMicro, zo lijkt nu. Inclusief redundante voeding zo'n 1100 euro met in 3U ruimte voor 16 schijven (incl expander backplane). Chenbro is niet te krijgen bij onze normale leverancier, vandaar.
Supermicro CSE-836E1-R800V met CSE-PTJBOD-CB1 expander. Bij gigaserver staan ze op de site.
Kosten inderdaad rond de 1000 euro ex.
Hot swap is leuk, maar voor thuisgebruik eigenlijk overbodig. Ik heb een Chenbro tower met 2x 4x hot swap bay, die heeft (had) Femme ook. Lekker makkelijk op te bouwen maar ik heb nog nooit een hd gewisseld.... dus voor hier is het overkill (wel hoge pimp factor).
Waar ik naar kijk is een simpele SAN met 4 of 8 schrijven, die ik later eenvoudig en misschien zelfs "hot" kan uitbreiden. Een dergelijke expander lijkt mij daar uitermate geschikt voor. Maar dat is nog even toekomstmuziek. Zeker met de nieuwe lijn(en) SAS controllers die er in 2010 aankomen.
De kaarten hebben een PCIe 2.0 interface met acht lanes, dus 4GB/s full duplex.campr112 schreef op vrijdag 13 november 2009 @ 18:10:
@Femme: Hoe is die LSI aangesloten op de PCIe bus dan? Wat voor breedte? 1x is dacht ik 250Mbyte/sec dus dan is 8x 2Gbyte/sec. Hij zal dus wel een x16 aansluiting hebben, dat ding van LSI?
Ik zie dat je naast de CSE-836E1, met 1 mini SAS connector ook nog een CSE-836E2 versie hebt met twee mini SAS connectors. Hoe gaat de verdeling dan over de disks als je een RAID controller gebruikt met twee mini SAS controllers, zoals campr112 hier met zijn Adaptec en SAS expander.Brains schreef op vrijdag 13 november 2009 @ 20:53:
Van supermicro heb je de:
Supermicro CSE-836E1-R800V met CSE-PTJBOD-CB1 expander. Bij gigaserver staan ze op de site.
Of is dit puur voor fail-over met echte SAS disks. Uit de manual kom ik er niet helemaal uit helaas.
Is die Norco RPC 4220 niet wat? Kost minder dan de helft. Moet je wel een passende redundante voeding vinden. Ruimte voor 20 drives. Werkt met 5xSAS backplanes.?campr112 schreef op vrijdag 13 november 2009 @ 20:10:
We gaan toch voor een SuperMicro, zo lijkt nu. Inclusief redundante voeding zo'n 1100 euro met in 3U ruimte voor 16 schijven (incl expander backplane). Chenbro is niet te krijgen bij onze normale leverancier, vandaar.
de 836 backplane: http://www.supermicro.com/manuals/other/BPN-SAS-836EL.pdf
de 936 backplane: http://www.supermicro.com/manuals/other/BPN-SAS-936EL.pdf
In de 936 doc is het pagine 3-2 die laat zien dat het mogelijk is vanuit dezelfde controller 2 lijnen aan te sluiten, maar of dit werkt met SATA schijven? Ik gok dat het alleen werkt met dual-port SAS schijven...
Wij zijn redelijk conservatief wat onze kasten/servers aangaat.. Alleen HP en Dell tot nu toe.. Het zou me al (blij) verbazen als ik supermicro binnenkrijg...
Waarom niet de Norco? De SAS kaart komt in een andere (poweredge 2800) server te hangen, dus als je dan 5 mini-SAS kabels naar de schivjenkast zou moeten brengen is dat een beetje zonde.. Vandaar dat ik graag een kast wil met SAS expanders.. Plus dat je dan gewoon kan doorlinken naar de volgende kast, het moet wel een beetje schaalbaar worden...
Be more, use Linux.
1
2
3
4
5
6
7
8
| Schijven raid netto 2 1 1 3 5 2 4 6 2 5 6 3 6 6 4 7 6 5 8 6 6 |
Als het goed is, zou het mogelijk moeten zijn te migreren van Raid-1>5>6..
pvresize>lvresize>resize2fs zijn je vrienden...
Waarom raid-6? Als er een schijf kapot gaat, kan er nog wel eens redelijk wat tijd overheengaan voor ik een nieuwe schijf heb.. Ik zou ook hot-spare kunnen doen, maar dan doet de laatste schijf niks
Be more, use Linux.
Stap-1, na 3 minuten (2 schijven, raid-0):
1
2
3
4
5
| Event Description: Power management state changed to Reduced rpm: controller 1, connector 1, device 2, S/N Y6337MQE. Event Type: Informational Event Source: storage@NAS Date: 11/15/2009 Time: 01:21:57 PM CET |
Stap 2
1
2
3
4
5
| Event Description: Power management state changed to Powered off: controller 1, connector 1, device 2, S/N Y6337MQE. Event Type: Informational Event Source: storage@NAS Date: 11/15/2009 Time: 01:42:00 PM CET |
En als je dan weer iets wilt zien wat niet gecashed is:
1
2
3
4
5
| Event Description: Power management state changed to Full rpm: controller 1, connector 1, device 1, S/N Y6337MQE. Event Type: Informational Event Source: storage@NAS Date: 11/15/2009 Time: 02:03:59 PM CET |
Gebruik ging van 120W naar 100W (2 oude 250Gig 7200Toeren schijven in raid-0) Er zitten ook nog andere schijven aan de controller in JBOD die niet aan power-saving doen, vandaar het relatief hoge gebruik.
WOOOOOHOOOOOO! That's what I am talking about!
Binnenkort even de UPS eraan hangen met de RS232 en dan effe mooie grafiekjes maken van het power-verbruik.
Be more, use Linux.
nadeel van deze setup (raid 6 ipv raid 5 met HS) is dat je array de gehele tijd degraded is. performance is (theoretisch althans) beter als je array zo snel mogelijk weer heel is (Hot Spare) daarnaast, je bouwt de setup op een groei richting 10tallen? disks, dus lijkt me 1 disk tbv hot spare ook niet echt onmisbaar?campr112 schreef op zaterdag 14 november 2009 @ 22:56:
Heb zelf nog even nagedacht over hoe ik de schijven aan ga sluiten.. Ik ben tot het volgende gekomen:
code:
1 2 3 4 5 6 7 8 Schijven raid netto 2 1 1 3 5 2 4 6 2 5 6 3 6 6 4 7 6 5 8 6 6
Als het goed is, zou het mogelijk moeten zijn te migreren van Raid-1>5>6..
pvresize>lvresize>resize2fs zijn je vrienden...
Waarom raid-6? Als er een schijf kapot gaat, kan er nog wel eens redelijk wat tijd overheengaan voor ik een nieuwe schijf heb.. Ik zou ook hot-spare kunnen doen, maar dan doet de laatste schijf niks.. Raid5-EE misschien? Maar dan kan er volgens mij toch maar 1 schijf kapot.. Dat EE is alleen voor de performance van raid-5 toch?
enphase 8300wp (3460 ZO, 2740 ZW, 2100 NO), 2x20 vacuümbuizen op 300l SWW, Panasonic WH-MXC12J9E8, gasloos sinds Juni 2022 Stromer st3 voor woon-werk


http://www.xbitlabs.com/a...raid-asr5805_8.html#sect0
Maar ik bedenkt me idd dat ik niet zoveel heb aan raid-6, raid-5 is net zo goed (performance is ietsje minder, maar het moet toch allemaal door een netwerk poort!)
Kan idd veel beter een 'global spare' nemen in de hoofdkast voor alle sub-kasten (moeten de schijven wel hetzlefde blijven) Dan ben ik maar 1x een disk kwijt (in totaal), en ook snel weer up&running.
1
2
3
4
5
6
7
8
9
| Hotspare modificatie Schijven raid netto 2 - 1 3 1 1 4 5 2 5 5 3 6 5 4 7 5 5 8 5 6 |
Update:
Nog even snel een updateje, ik draai nu al vanaf de voeding in de Multipack, trek ~100watt, het lijkt allemaal redelijk stabiel.. Ik heb ook even mrtg aangezet achter de UPS voor power-verbruik, en ook een grafiekje gemaakt van hoeveel schijven in power-save modus zitten. Ik had geprobeerd mijn 3x500Gig schijven te migreren naar Raid-5 door wat slimme verschuiving van data, maar heleaas de schijven doen het niet zo goed met de firmware van de Adaptec (hitachi schijven)... Dus die zijn 'gewoon' via de poorten op het moederbord aangesloten, waar ze zich een stuk beter voelen.. Gewoon als JBOD.
Ben er nu ook achter gekomen dat je een schijf die al data bevat gewoon kan migreren van JBOD>No_raid>raid. Best handig, zeker als je zoals ik, je schijven stuk-voor-stuk koopt en niet in 1x.
Be more, use Linux.
Had vroeger ook een rack in huis, met meerdere machines, de enige die daar echt blij van werdt was de Eneco.Verwijderd schreef op vrijdag 13 november 2009 @ 18:13:
[...]
Ik heb thuis een hele mooie Chenbro kast waar dat allemaal wel inpast
Chenbro levert voor deze kast ook backplanes met sas mogelijkheid zal wel wat kosten. alleen wel wat lomper als wat je eerst in gedachten had.
Nu is alles gereduceerd tot een AppleTV en een NASje (buiten mijn Mac mini desktop met Ubuntu erop). Het lijkt erop dat de mac-mini binnenkort naar server gaat en ik een nieuwe mac-mini ga kopen... (die 9400M chipset is wel heel verlijdelijk).
Be more, use Linux.
gewoon zorgen dat je hot spare altijd de grootste is, kun je er altijd voor kiezen om bij een vervanging van de defecte schijf de oude HS weer als HS in te zetten dmv rebuildcampr112 schreef op zondag 15 november 2009 @ 18:36:
Kan idd veel beter een 'global spare' nemen in de hoofdkast voor alle sub-kasten (moeten de schijven wel hetzlefde blijven) Dan ben ik maar 1x een disk kwijt (in totaal), en ook snel weer up&running.
enphase 8300wp (3460 ZO, 2740 ZW, 2100 NO), 2x20 vacuümbuizen op 300l SWW, Panasonic WH-MXC12J9E8, gasloos sinds Juni 2022 Stromer st3 voor woon-werk


Bovenste is percentage load op 260W ups, onderste is hoeveel schijven (groen) en hoeveel hiervan in power-save zitten (blauw).. Op het mment zijn 50% van de schijven in staat power-saving te doen... Dat wordt binnenkort meer...
[ Voor 31% gewijzigd door campr112 op 16-11-2009 01:15 ]
Be more, use Linux.
Verwijderd
Dit rack bij mij verbruikt niet veel hoor, ik heb een temperatuursensor in de kast gebouwd en alleen als de binnentemperatuur boven 29graden komt springen de fans van de kast aan 70W. Ik heb een energiezuinig moederboard en zuinige proc (X2 4850e 45W max) en schijven totaal verbruikt het maar +/- 80 Watt met 6 schijven (bij weinig load wat 99% van de tijd het geval is) exclusief switch die 30W verbruikt, wanneer ik niet veel download zet schakel ik de server s'nachts ook nog eens uit.campr112 schreef op zondag 15 november 2009 @ 18:41:
[...]
Had vroeger ook een rack in huis, met meerdere machines, de enige die daar echt blij van werdt was de Eneco.
Nu is alles gereduceerd tot een AppleTV en een NASje (buiten mijn Mac mini desktop met Ubuntu erop). Het lijkt erop dat de mac-mini binnenkort naar server gaat en ik een nieuwe mac-mini ga kopen... (die 9400M chipset is wel heel verlijdelijk).
Voor thuisgebruik heb ik in ieder geval genoeg ruimte voor de toekomst in dat rack, zeker voor een SAS controller met een externe 2u 19" chenbro kast met een SAS expander vol met SSD's
1
2
3
4
5
6
| ftp> get s-untouchables.mkv local: s-untouchables.mkv remote: s-untouchables.mkv 200 PORT command successful. 150 Opening BINARY mode data connection for 's-untouchables.mkv' (4695406999 bytes). 226 Transfer complete. 4695406999 bytes received in 74.69 secs (61389.9 kB/s) |
Gok dat het nog wel een stuk harder kan, heb alleen geen machine die het snel genoeg kan wegschrijven. Ik zag pieken van 89Mbyte/sec, maar ik denk dat de HD in de mac-mini het niet sneller kon verwerken...
Dus conclusie? Snel zat!
Be more, use Linux.
MRTG, maar hoe lees je het verbruik uit je UPS? Iets met apcupsd?campr112 schreef op maandag 16 november 2009 @ 01:12:
Het coole is, de power-grafiek en de disk-actief grafiek komen redelijk overeen:
[afbeelding]
[afbeelding]
Bovenste is percentage load op 260W ups, onderste is hoeveel schijven (groen) en hoeveel hiervan in power-save zitten (blauw).. Op het mment zijn 50% van de schijven in staat power-saving te doen... Dat wordt binnenkort meer...
mrtg.cfg:
1
2
3
4
5
| Title[ups]: UPS percentage load PageTop[ups]: <H1>UPS percentage</H1> Target[ups]: `/root/ups.sh` MaxBytes[ups]: 100 Options[ups]: growright, gauge |
/root/ups.sh:
1
2
3
4
5
| PATH="/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin" apcaccess |grep LOADPCT |cut -f5 -d" " apcaccess |grep LOADPCT |cut -f5 -d" " uptime echo "UPS load percentage. Max load 260W (450VA)" |
apcaccess is deel van het apcupsd pakket onder Debian.
[ Voor 5% gewijzigd door campr112 op 18-11-2009 01:20 ]
Be more, use Linux.
Staggered spinup in SATA lijkt afhangkelijk te zijn van de power-connector die je op de schijf aansluit???!?!
Andere tweakers hebben hier al onderzoek naar gedaan:
Staggered spin-up aktiveren
Dus dat zal ik ook moeten doen, alle SATA power-coneectors aanpassen
Be more, use Linux.
Een backplane kan het leed wat verlichten, alleen kost zoiets meer dan een bos kabeltjes.
Be more, use Linux.
Maar inderdaad, op de backplane zullen meer snufjes zitten dan in een eenvoudige verloopkabel.
Zelf heb ik nu de gratis versie van open-e dds gedownload om het eea mee te experimenteren, ism met virtualisatie.
Leuk. Ik ben meteen even command-line aan het scripten geslagen met apcaccess:campr112 schreef op woensdag 18 november 2009 @ 01:18:
idd, MRTG heeft de mogelijkheid om scripts als input te gebruiken voor de meetwaarden.
mrtg.cfg:
code:
1 2 3 4 5 Title[ups]: UPS percentage load PageTop[ups]: <H1>UPS percentage</H1> Target[ups]: `/root/ups.sh` MaxBytes[ups]: 100 Options[ups]: growright, gauge
/root/ups.sh:
code:
1 2 3 4 5 PATH="/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin" apcaccess |grep LOADPCT |cut -f5 -d" " apcaccess |grep LOADPCT |cut -f5 -d" " uptime echo "UPS load percentage. Max load 260W (450VA)"
apcaccess is deel van het apcupsd pakket onder Debian.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
| #!/bin/bash MODEL=`apcaccess | grep APCMODEL | cut -d ":" -f 2 | sed s/^\ //g` LINE="-----------------------------" echo "$LINE" echo "UPS model: $MODEL" echo "$LINE" CAPACITY=`apcaccess | grep NOMPOWER | awk '{ print $3 }' ` printf '%s %11s %s\n' 'Capacity:' "$CAPACITY" 'Watt' PERCENT=`apcaccess |grep LOADPCT |cut -f5 -d" " | cut -d "." -f 1` printf '%s %15s %s\n' 'Load:' "$PERCENT" 'Percent' WATT=$(( $CAPACITY * $PERCENT / 100 )) printf '%s %14s %s\n' 'Usage:' "$WATT" 'Watt' TIMELEFT=`apcaccess | grep TIMELEFT | awk '{ print $3 }' | cut -d "." -f 1` printf '%s %10s %s\n' 'Time left:' "$TIMELEFT" 'Minutes' echo "$LINE" |
Geeft deze output
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
| ----------------------------- UPS model: Back-UPS RS 500 ----------------------------- Capacity: 300 Watt Load: 34 Percent Usage: 102 Watt Time left: 20 Minutes ----------------------------- of ----------------------------- UPS model: Back-UPS RS 1200 LC ----------------------------- Capacity: 720 Watt Load: 21 Percent Usage: 151 Watt Time left: 27 Minutes ----------------------------- |
Mijn UPS geeft ook niks terug op NOMPOWER
Dus ik heb je scriptje wat aangepast/verkloot:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
| #!/bin/bash MODEL=`apcaccess | grep APCMODEL | cut -d ":" -f 2 | sed s/^\ //g` LINE="-----------------------------" echo "$LINE" echo "UPS model: $MODEL" echo "$LINE" CAPACITY=`apcaccess | grep NOMPOWER | awk '{ print $3 }' ` printf '%s %11s %s\n' 'Capacity:' "$CAPACITY" 'Watt' PERCENT=`apcaccess |grep LOADPCT |cut -f5 -d" " | cut -d "." -f 1` printf '%s %15s %s\n' 'Load:' "$PERCENT" 'Percent' WATT=$(( $CAPACITY * $PERCENT / 100 )) printf '%s %14s %s\n' 'Usage:' "$WATT" 'Watt' TIMELEFT=`apcaccess | grep TIMELEFT | awk '{ print $3 }' | cut -d "." -f 1` printf '%s %10s %s\n' 'Time left:' "$TIMELEFT" 'Minutes' echo "$LINE" |
Nu werkt ie voor alle UPSen met 260W vermogen
Dit is trouwens de output van mijn UPS:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
| root@NAS:~# apcaccess APC : 001,050,1232 DATE : Wed Nov 18 23:47:39 CET 2009 HOSTNAME : NAS RELEASE : 3.14.4 VERSION : 3.14.4 (18 May 2008) debian UPSNAME : UPS_IDEN CABLE : Custom Cable Smart MODEL : Smart-UPS 420 UPSMODE : Stand Alone STARTTIME: Tue Nov 17 22:55:51 CET 2009 STATUS : ONLINE LINEV : 223.2 Volts LOADPCT : 32.5 Percent Load Capacity BCHARGE : 100.0 Percent TIMELEFT : 12.0 Minutes MBATTCHG : 5 Percent MINTIMEL : 3 Minutes MAXTIME : 0 Seconds MAXLINEV : 223.2 Volts MINLINEV : 218.8 Volts OUTPUTV : 223.2 Volts SENSE : High DWAKE : 000 Seconds DSHUTD : 020 Seconds DLOWBATT : 02 Minutes LOTRANS : 208.0 Volts HITRANS : 253.0 Volts RETPCT : 000.0 Percent ALARMDEL : 5 seconds BATTV : 13.9 Volts LINEFREQ : 50.0 Hz LASTXFER : Line voltage notch or spike NUMXFERS : 1 XONBATT : Wed Nov 18 22:14:58 CET 2009 TONBATT : 0 seconds CUMONBATT: 6 seconds XOFFBATT : Wed Nov 18 22:15:04 CET 2009 SELFTEST : NO STESTI : 336 STATFLAG : 0x07000008 Status Flag REG1 : 0x00 Register 1 REG2 : 0x00 Register 2 REG3 : 0x00 Register 3 MANDATE : 09/29/99 SERIALNO : NS9940260569 BATTDATE : 09/29/99 NOMOUTV : 230 Volts NOMBATTV : 12.0 Volts FIRMWARE : 21.4.I APCMODEL : DWI END APC : Wed Nov 18 23:48:18 CET 2009 |
En dat geeft deze info:
1
2
3
4
5
6
7
8
| ----------------------------- UPS model: Smart-UPS 420 ----------------------------- Capacity: 260 Watt Load: 28 Percent Usage: 72 Watt Time left: 13 Minutes ----------------------------- |
WOOOHOO, maar 72 Watt! Hoe accuraat is zo'n UPS eigenlijk in het meten van vermogen?
Be more, use Linux.
Toch nog een trrukje gevonden om de snelheid van ftp te testen, zonder dit van de lokale harddisk af te laten hangen. de truuk is om de output van 'wget' naar /dev/null te sturen, zoals in het volgende voorbeeld:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
| root@campr-desktop:~# wget --output-document=/dev/null --ftp-user=<USER> --ftp-password=<PASSWORD> ftp://nas//media/disk1/HD/groundhog_day_720p/groundhog.day.1993.720p.hdtv.x264-hv.mkv --2009-11-19 00:20:46-- ftp://nas//media/disk1/HD/groundhog_day_720p/groundhog.day.1993.720p.hdtv.x264-hv.mkv => `/dev/null' Resolving nas... 192.168.1.74 Connecting to nas|192.168.1.74|:21... connected. Logging in as USER ... Logged in! ==> SYST ... done. ==> PWD ... done. ==> TYPE I ... done. ==> CWD /media/disk1/HD/groundhog_day_720p ... done. ==> SIZE groundhog.day.1993.720p.hdtv.x264-hv.mkv ... 4695537432 ==> PASV ... done. ==> RETR groundhog.day.1993.720p.hdtv.x264-hv.mkv ... done. Length: 4695537432 (4.4G) 100%[=================================================================================================================================================================================================>] 4,695,537,432 103M/s in 46s 2009-11-19 00:21:32 (98.3 MB/s) - `/dev/null' saved [4695537432] |
Yeah baby.. En dat nog zonder Jumbo packets.. WTF? Ik dacht altijd dat dit soort snelheden niet mogelijk waren zonder Jumbo pakketjes.. Nog even de setup:
Server: Atom 330 1.6Ghz 1Gbyte mem met Adaptec 5805 (512Mbyte cache) en 2x250Gbyte 7200toeren WD schijven. OS: Ubuntu 9.04
Client: Mac-mini Intel Core2 CPU T5600 @ 1.83GHz, 4Gbyte mem.
Switch: TP-Link TL-SG1008D
[edit]
SMB/CIFS is dan weer wat langzamer, maar nog steeds relatief respectabel:
1
2
| root@desktop:~# smbget -u USER -p PASSWORD -O smb://nas/USER/groundhog.day.1993.720p.hdtv.x264-hv.mkv > /dev/null [groundhog.day.1993.720p.hdtv.x264-hv.mkv] 592.65Mb of 4.37Gb (13.23%) at 42.33Mb/s ETA: 00:01:31 |
Transfers lagen tussen 40 en 50Mbyte/sec
smb process wat op 30% spu tijd op het NAS. (atop:)
1
| cpu | sys 22% | user 3% | irq 13% | idle 49% | cpu000 w 12% | |
Dus ik weet even niet waar de bottleneck nu ligt, want ik weet dat de schijf het kan en het netwerk snel genoeg is (zie ftp)
[ Voor 16% gewijzigd door campr112 op 19-11-2009 00:54 ]
Be more, use Linux.
Zou FTP of CIFS copy naar een null device ook werken onder Windows?
Voor Linux clients gebruik ik 'gewoon' NFS... Supersnel, vergelijkbaar met FTP.
PeterPan: Weet niet of windows wel een 'null' file heeft.. Geen flauw idee.. Ben geen windoze beheerder, heb het zelfs niet meer in huis. Woohoo...

En over het tunen van samba/cifs op Linux, het zal wel mogelijk zijn, maar met welk doel? Het enige wat ik doe via Samba is de buurman toegang verlenen tot mijn film collectie.. En die mag ook wel even wachten op zijn filmpje... ;-)
Maar nu echt even pitten

[ Voor 7% gewijzigd door campr112 op 19-11-2009 01:40 ]
Be more, use Linux.
Om te kijken of je in de buurt kunt komen van je FTP score natuurlijk!campr112 schreef op donderdag 19 november 2009 @ 01:38:En over het tunen van samba/cifs op Linux, het zal wel mogelijk zijn, maar met welk doel? Het enige wat ik doe via Samba is de buurman toegang verlenen tot mijn film collectie.. En die mag ook wel even wachten op zijn filmpje... ;-)
Bedankt voor de tip. Ik ben even gaan googlen op verschillende output van apcaccess en het script fors verbeterd.campr112 schreef op woensdag 18 november 2009 @ 23:50:
Hmmm, niet alle UPSen van APC geven de feedback APCMODEL, maar alleen MODEL.
Mijn UPS geeft ook niks terug op NOMPOWER
Dus ik heb je scriptje wat aangepast/verkloot:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
| #!/bin/bash APCACCESS=/sbin/apcaccess CAPACITY="$1" MODEL=`$APCACCESS | grep -w MODEL | cut -d ":" -f 2 | sed s/^\ //g` APCMODEL=`$APCACCESS | grep -w APCMODEL | cut -d ":" -f 2 | sed s/^\ //g` if [ -z "$MODEL" ] && [ -z "$APCMODEL" ] then MODEL="UNKNOWN" elif [ -z "$MODEL" ] && [ ! -z "$APCMODEL" ] then MODEL="$APCMODEL" fi LENGTH=$(( ${#MODEL} + 13 )) LENGTHAPC=$(( ${#APCMODEL} + 13 )) if [ "$LENGTH" -lt "$LENGTHAPC" ] then LENGTH="$LENGTHAPC" fi LINE="--------------------------------------------------------------" echo "${LINE:0:$LENGTH}" echo "UPS model: $MODEL" if [ ! -z "$APCMODEL" ] then echo "APC model: $APCMODEL" fi echo "${LINE:0:$LENGTH}" if [ -z "$CAPACITY" ] then CAPACITY=`$APCACCESS | grep -w NOMPOWER | awk '{ print $3 }' ` if [ -z "$CAPACITY" ] then for x in $MODEL $APCMODEL do STRING=`echo $x | grep -e [0-9] | sed 's/[A-Za-z]*//g'` if [ ! -z "$STRING" ] then CAPACITY=$(( ( $STRING * 60) / 100 )) break fi done if [ -z "$CAPACITY" ] then echo "Cannot determine capacity of UPS. Please specify:" echo "Syntax: $0 <watt>" echo "Example: $0 300" exit 1 fi fi fi printf '%s %11s %s\n' 'Capacity:' "$CAPACITY" 'Watt' PERCENT=`$APCACCESS |grep LOADPCT | awk '{ print $3 }' | cut -d "." -f 1` echo $PERCENT | grep -e [0-9] >> /dev/null 2>&1 if [ "$?" == "0" ] then printf '%s %15s %s\n' 'Load:' "$PERCENT" 'Percent' WATT=$(( $CAPACITY * $PERCENT / 100 )) printf '%s %14s %s\n' 'Usage:' "$WATT" 'Watt' else printf '%s %15s %s\n' 'Load:' "0" 'Percent' printf '%s %14s %s\n' 'Usage:' "0" 'Watt' fi TIMELEFT=`$APCACCESS | grep TIMELEFT | awk '{ print $3 }' | cut -d "." -f 1` printf '%s %10s %s\n' 'Time left:' "$TIMELEFT" 'Minutes' STATUS=`$APCACCESS | grep -w STATUS | awk '{ print $3 }'` if [ ! -z "$STATUS" ] then printf '%s %13s %s\n' 'Status:' "$STATUS" fi echo "${LINE:0:$LENGTH}" |
Of ter download hier:
1
2
3
4
5
6
7
8
9
10
| ----------------------------- UPS model: Back-UPS RS 500 APC model: Back-UPS RS 500 ----------------------------- Capacity: 300 Watt Load: 10 Percent Usage: 30 Watt Time left: 61 Minutes Status: ONLINE ----------------------------- |
[ Voor 5% gewijzigd door Q op 19-11-2009 23:04 ]
Bedankt dat je dit getest hebt. Want dit is precies waar ik bang voor was met die Atom processortjes, verder niets ten kwade van die dingen. Het is inderdaad niet gezegd dat het echt de performance van de Atom is, maar dat lijkt me wel waarschijnlijk. Bij hele grote bestanden zou het nog wel eens een bug in SMB kunnen zijn?Femme schreef op donderdag 19 november 2009 @ 01:23:
Ik haal met mijn Atom 330 met Ubuntu en een dikke Areca-controller ook snelheden van rond de 42MB/s bij het kopieëren van redelijk grote bestanden van enkele honderden megabytes. De snelheid zakt flink in als er zeer grote bestanden worden gekopieerd zoals lossless compressed video's van 90GB. Het systeem is dan ook totaal niet meer responsief. Een simpel commando zoals het opvragen van de inhoud van een directory kan tien seconden of langer duren. Ik ben er nogal teleurgesteld in en heb de oorzaak nog niet gevonden. Ik gebruik overigens xfs als bestandsssyteem (ext4 was naar een dag al corrupt dus dat heb ik maar laten zitten).
Mogelijk dit weekend eens naar kijken.... Heb nog een Xeon quad-core staan die relatief weinig te doen heeft (ding trekt gewoon teveel stroom om hem aan te zetten
Ik zal de volgende parameters ook even proberen:
TCP_NODELAY SO_RCVBUF=8192 SO_SNDBUF=8192 IPTOS_LOWDELAY
We zullen het zien...
[ Voor 15% gewijzigd door campr112 op 20-11-2009 01:26 ]
Be more, use Linux.
Verwijderd
Met GbE is het altijd een heel gedoe om boven de 40-50 MB/s uit te komen (ik haal dat overigens bij lange na niet tussen twee XP machines die beide uitgerust zijn met Intel GbE).
De combinatie ZFS en Infiniband lijkt me perfect. Met 4 of 5 schijven in RAIDZ moet je makkelijk meer dan 300 MB/s sustained kunnen halen en dan ben je nog niet beperkt door de 10 Gb/s van infiniband (goedkoopste versie). Twee Infiniband kaarten en een kabel kan je krijgen (nieuw) voor $300 (Amerikaanse prijzen dus ex. BTW).
Infiniband klinkt wel erg interessant. Waarschijnlijk de enige optie op dit moment die betaalbaar is om voorbij gigabit snelheden te komen.
[ Voor 8% gewijzigd door Q op 27-11-2009 20:50 ]
Infiniband klinkt wel interessant overigens, daar ga ik eens op Wikipediaen.
Het nadeel is van infiniband, 10G ethernet enz enz is dat ik nog een slot nodig zou moeten hebben. Het bord is mini-itx en er is geen extra slot voor dit soort dingen. Mijn client-PC kan het toch niet veel sneller verwerken...
De bottleneck is ook niet Gbit ethernet, maar de efficiency van het SMB protocoll op een 'langzame' CPU.
Kostenplaatje? Al vaak genoeg aan bod gekomen, dacht ik zo.. Ga je maar even lezen.
@Grizzlybeer.. Infiniband nieuw kopen is dom. Kijk eens op Ebay.. Heb je 2 kaarten en een kabel voor 150 euro (of minder). Of als je toch al bezig bent, koop een moederbord van SuperMicro.. Kan je voor 50 Euro opprijs Infiniband of 10G ethernet voor krijgen.. Ik zou trouwens zelf kiezen voor 10G ethernet.. Infiniband switches zijn wat duur als je later uit wilt breiden... En 10Gbit ethernet komt nog wel voor 'normale' switches.. Ooit (dus volgend jaar ofzo).
Zal binnenkort fotos maken...
[ Voor 28% gewijzigd door campr112 op 20-12-2009 16:31 ]
Be more, use Linux.
Ik heb hier nog een Open-E iSCSI dom liggen en wil graag een "low power" SAN daarvan maken. Nu heb ik nog een machine staan waar ik XenSource op heb draaien, daar zit nog een Areca 1220 in. Die machine wil ik opsplitsen in een SAN en virtualisatie machine. Nu vraag ik me af hoeveel CPU en geheugen ik daarvoor nodig heb om toch gigabit lan vol te krijgen. Volgens de spec heb je minimaal 3 GHz Pentium IV cpu en 1gb ram nodig. Zou een dual core Atom dit kunnen verwerken?
Oja... heb je met kerst tijd voor foto's
[ Voor 4% gewijzigd door Brains op 01-02-2010 12:44 ]
Geduld nog met de fotos, ben nog op vakantie, en dan duurt het wel weer een weekje om op vlieghoogte te komen. Zo rond de 15de hoop ik fotos te kunnen maken (en posten natuurlijk).
Be more, use Linux.
Jammer dat de maker van de thread er nooit meer mee is verder gegaan. Vond het een heel erg interessant topic namelijk!
Wellicht tijd voor een update?
Het project is afgerond, het NAS draait. Wat is er nog om over door te gaan?
NAS v1.2:
2.5" 1Tbyte schijfjes (10x) pricewatch: Western Digital Scorpio Blue, 1TB SATA-300, 8MB, 5200rpm
Kontron pITX moederbordje: http://benelux.kontron.co...c/pitx+25+sbc/pitxsp.html
2x een SATA Multiplier: http://www.addonics.com/products/host_controller/ad5sapm.asp
En dat allemaal met een voeding van 10A, 5V (voor het opspinnen).
Zou als een tierelier moeten lopen. (2x schijf opgeven voor software raid-5 per SATA kanaal) 8Tbyte Netto storage voor ~30-40Watt. Stil, klein.. Gbit aansluiting, passief gekoeld (mogelijk denk ik) Wat wil je nog meer? Kan tot 5Watt gebruiken als alle schijven uit staan en alleen het MBtje nog aanstaat (power-save mode).
Ga ik hem bouwen? Nee, te duur. Eerste kosten projectie: ~1200-1400 euro.. Schijven 134E/stuk, Moederbordje ~250E, SATA Multipliers, 80E/stuk Voeding: ??E/stuk (op Ebay voor 20E gezien) en je moet ook nog een mooi kastje bouwen/kopen.
Ik heb nu een NAS die goed werkt (lees de thread maar even door) er goed uitziet (Lekker retro SUN/Oracle hardware kast) en precies voeldoet aan de eisen die ik gesteld heb.
Be more, use Linux.
Nieuwe NAS (v1.2a) aan het bouwen als POC (Proof of concept).
Eisen:
Laaaaaag power verbruik (onder 10W, zo mogelijk, incl HDs!).
Ruimte 1-2Tbyte, geen RAID.
10/100(/1000) netwerk aansluiting.
Systeemschijf anders dan download/opslag schijf.
Hij wordt vooral gebruikt voor het downloaden vanaf nieuwsgroepen
Bedachte oplossing:
De initiële oplossing was om een Kontron bordje te gebruiken met een SD kaartje en 10x SATA HDs. Dit bordje is passief gekoeld en trekt 5W. Deze oplossing is vrij duur, heb bordje zelf kost al ~€200. Ik zocht een manier om het wat goedkoper te bouwen, en dan mogelijk later nog deze manier kiezen.
Te realiseren oplossing (de POC)
Na wat streuning in mijn onderdelen bak, kwam ik nog het volgende tegen:
Wafer 5825 3.5" SBC met een NS Geode processor Specs hier. Deze heeft wel 'maar' 100Mbit.
Externe HD voeding met 12V 1A en 5V 2A met een Molex connector.
Transcend Flashdrive met 44-pins aansluiting: http://tweakers.net/price...end-ts1gdom44v-s-1gb.html
Het volgende is nog besteld op Inet:
2x 640Gbyte 2.5" drive. (100€ totaal)
PCMCIA to SATA 'converter' (15€ op Ebay)
Wat heb ik als ik helemaal klaar ben?:
1Gbyte om een NAS OSje op te installeren met SABnzbd.
1.2Tbyte (Raid-0) storage voor het downloaden en uitpakken van 'downloads'.
~17W totaal opgenomen vermogen.
Passieve koeling.
Wat verwacht ik?:
- De drives uit te kunnen zetten als ze niet gebruikt worden, om het opgenomen vermogen naar 10W te laten zinken.
- Een "magic packet" te kunnen sturen naar mijn grote NAS om deze wakker te maken zodat ik de films daar heen kan kopiëren, en dan weer in Hibernate te zetten zodra het kopiëren klaar is. (voor nog minder vermogens-opname). De films blijven nog op het kleine NAS staan, totdat ik ze gekeken heb, dan worden ze met de hand weggehaald, in de wetenschap dat ze nog op mijn grote NAS staan.
Mits dit allemaal werkt (en hij performed redelijk zoals ik wil) ga ik voor de echte v1.2 toch het Kontron bordje bestellen met 2x 1Tbyte om mee te beginnen. Zodra dat werkt komt er een SATA multiplier en gaan we richting de 10 drives (met 2x SSD voor downloaden en uitpakken, zodat de normale drives alleen maar aan staan in geval van archieffunctie) Netto storage: 7 Tbyte (8 drives, software RAID-5) en ~60 Gbyte (2x 30G SSD) in software RAID-0. Totaal opgenomen vermogen in normale download stand, 9-10W (moederbord (5W) en 2x SSD (2x2W)), hopelijk. Koeling zal niet nodig zijn, aangezien dit allemaal passief gekoeld kan worden. Zit er wel over na te denken om dit allemaal in een mooie plexiglas kast (custom) te zetten met wat blauwe LED's voor de mooi.

Be more, use Linux.
Verwijderd
http://davidhunt.ie/wp/?p=232
[ Voor 3% gewijzigd door Verwijderd op 27-02-2011 17:22 ]
Te gek voor woorden, eigenlijk..
Be more, use Linux.
Het probleem voor veel mensen van toevoegen van zo'n kaart is een vrij beschikbaar PCIe slot dat minstends 4x is. De meeste borden hebben 1x PCI 16x (waar de RAID kaart in gaat) en nog een paar PCIe 1x sloten.
Alleen als je een server bord hebt kun je zo'n infiniband kaart er bij plaatsen. Of als je een bord met 2x PCI 16x hebt.
Daarnaast heeft veel apparatuur geen ruimte voor een PCIe kaart, zoals veel mac apparatuur of laptops.
Maar met thunderbolt zou je wel een externe infiniband kaart op je computer aan kunnen sluiten......
[ Voor 19% gewijzigd door Q op 27-02-2011 23:25 ]
Verwijderd
Moet je IB kaartje natuurlijk ook v2.0 zijn
http://www.netstor.com.tw/_03/03_02.php?ODU=
Ok, het is wel niet helemaal supersnel, maar 250Mbyte/sec (PCIe x1) is toch wel een stuk beter dan de 100Mbyte/sec die je (misschien) van ethernet afplukt. En hoeveel was Thunderbolt? 10Gbit? Dat is max 1,25Gbyte/sec. Welke CPU kan dat verwerken? Het is leuk voor kopiëren, maar daar houdt het ook mee op..
Ach, gewoon al je opslag op je NAS zetten, en dan met 100Mbit/sec streamen en voor het kopiëren gebruik je Gbit (wat toch a sneller is dan de schijf in je laptop/desktop). En als dat niet zo is, dan heb je een SSDtje, wat erg snel vol is als je films e.d. erop gaat zetten..
Tussen 2 Nassen (storage replication) of tussen 2 servers is het dan ook erg leuk (maar dan kan je ook 10Gbit ethernet kopen met een cross-over, als je toch al servers kunt kopen).
Dus Thunderbolt in 'normale' thuisomgevingen? Na de komst van USB 3.0 en eSata? Too much, too late.
En waar zijn de Thunderbolt client devices? Iemand al iets gezien?
Be more, use Linux.
Verwijderd
[ Voor 15% gewijzigd door Verwijderd op 28-02-2011 10:23 ]
2xSAS op de achterkant, 6 schijven.. Met een 'normale' 8-ports SAS controller kom je dus al 24 schijven! Zou genoeg moeten zijn voor de meeste mensen, toch?
Tweakers Pricewatch
Intel website
Installatie documentatie Pagina 32 is een mooi diagrammetje te zien.
[ Voor 40% gewijzigd door campr112 op 28-02-2011 15:15 . Reden: Links toevoegen ]
Be more, use Linux.
Verwijderd
Gezien het commentaar op verschillende sites lijkt het er niet op dat er binnenkort Thunderbolt PCI-e kaartjes komen.campr112 schreef op maandag 28 februari 2011 @ 08:12:
Dus Thunderbolt in 'normale' thuisomgevingen? Na de komst van USB 3.0 en eSata? Too much, too late.
En waar zijn de Thunderbolt client devices? Iemand al iets gezien?
[ Voor 90% gewijzigd door Verwijderd op 05-03-2011 20:38 ]
ZIjn er al HDs met thunderbolt?
(Of beter, SATA>Thunderbolt bridges).
[ Voor 24% gewijzigd door campr112 op 06-03-2011 10:50 ]
Be more, use Linux.
Erm.campr112 schreef op maandag 28 februari 2011 @ 08:12:
Dat is max 1,25Gbyte/sec. Welke CPU kan dat verwerken?
Zie mijn NAS.
Met 2 vingers in zijn neus.
[ Voor 7% gewijzigd door Q op 06-03-2011 11:42 ]
Dat is een mooi device, zeker voor die prijs. Als je het vergelijkt met een expander-backplane van supermicro: pricewatch unsorted: Supermicro M28E1 - Houder voor opslagschijf - zwart al helemaal qua prijs. Alleen de unit van Intel heeft geen standaard maat, maar dat mag hier geen probleem zijn.campr112 schreef op maandag 28 februari 2011 @ 15:12:
Had iemand al gedacht aan de AXX6DRV3GEXP van Intel? Dit is een SAS Expander backplane met drive caddy's voor ~120 Pleuro.
2xSAS op de achterkant, 6 schijven.. Met een 'normale' 8-ports SAS controller kom je dus al 24 schijven! Zou genoeg moeten zijn voor de meeste mensen, toch?
Tweakers Pricewatch
Intel website
Installatie documentatie Pagina 32 is een mooi diagrammetje te zien.
Let wel op of je raid-controller expander backplanes aan kan. Bij de Araca 1212 en 1222 staat expliceit genoemd: expander support no. De genoemde Adaptec uit het topic kan het wel aan.
[ Voor 7% gewijzigd door Brains op 06-03-2011 12:48 ]
Nee, daar heb je veel aan.. Van een 20Disk NAS naar een 20Disk NAS kopieren.. Gebeurt heeel vaak (in een thuis-omgeving).. Wat ik bedoelde met 'aan kan' is een zinvolle verwerking van data (rendering, compressen, enz enz). Ik weet redelijk zeker dat jouw NAS niet 1.25Gbyte/sec kan compressen of renderen of op één of andere manier zinvol door de CPU wat (complexe) bewerking op laten doen.
Je moet uiteindelijk ook wat gaan doen met die datastroom die je NAS kan ophoesten.. En als dat alleen 1080p streamen is, dan kan je het ook af met een 100Mbit connectie...
[ Voor 13% gewijzigd door campr112 op 06-03-2011 14:13 ]
Be more, use Linux.