• campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Ben al langer op zoek naar een super-NAS wat uitbreidbaar is, wat Linux draait (voor het tweaken) en ook nog 1080p kan afspelen naar mijn beamer. Oh ja, hij moet ook nog stil zijn, en weinig stroom verbruiken.

Onmogelijk? Ik ga proberen in de buurt te komen.

Kast:
Eerste idee was om een kast zelf te gaan bouwen van aluminium (CNC laseren) en dan met ponagels in elkaar te zetten, dit had teveel moeite gekost. Ik houd ook een beetje van retro-computing, dus een poging met een oude SUN 'lunchbox' IPX is hier ook al aan vooraf gegaan. Hij was net iets te klein om veel schijven kwijt te kunnen. Laatst kwam ik de perfecte kast tegen, een SUN Multipack externe schijfunit:

Er passen normaal 12 schijven in:


Er zit een voeding in met 12V 14A en 5V 15A.

Moederbord:
Als je Linux wilt draaien, en je wilt ook 1080p decoden, en je wilt het met relatief lage power doen, zal je toch richting de Nvidia ION moeten kijken met een ATOM processor:


Er zijn op het moment nog weinig keuzes voor een NVidia ION met ATOM in een klein formaat wat ook in de SUN Multipack past. Mini-ITX is de enige optie qua maat. Uiteindelijk is de keuze gevallen op een Point of View bordje met een Atom 330 Dual-core met ION chipset en PCIe x16 slot. Omdat de voeding alleen maar 5V en 12V levert, ga ik een picopsu gebruiken om de voor ATX benodigde voltages te maken.

Die slot wordt belangrijk voor het volgende stukje:

Opslag (globaal idee):
Ik wil dat het mogelijk is om extra storage toe te voegen, op een later moment in een externe kast. Denk aan wat synology doet met de DX-5 en de DS509+, maar dan in het kwadraad. Voor de DS509+ gebruiken ze zover ik kan zien een SATA expander. Daar zijn limieten aan, je kan ze bijvoorbeeld maar een paar niveau's cascaden, en de bandbreedte is ook gelimiteerd tot 1xSATA of 300Mbyte/sec. SAS biedt hier een betere mogelijkheidt. Met SAS kan je tot 128 devices aansluiten via SAS expanders op een SASx4 bus (1200Mbyte/sec). Voordeel van SAS is dat je ook SATA device op de bus aan kunt sluiten. Dus zowel snelle als grote schijven zijn beschikbaar.

SAS expanders zijn nu wat moeilijk te vinden en vrij prijzig. Met een gelukkige vondst op Ebay was dan het project gered: http://cgi.ebay.com/Astek...ard_W0QQitemZ250513659017 99$ voor 24 poorten, ik heb er meteen een paar besteld.

Opslag (controller):
Keuze is een Adaptec 5805:

Voordelen:
  • tot 265 devices (512Tbyte!)
  • 512Mbyte cache
  • RAID 0,1,5,5EE,6 en 10,50,60
  • Power management van devices. Als ze niet nodig zijn voor IO, gaan de HDs uit!
  • PCIe x8 bus, goed voor max 2Tbyte/sec (de raid chip zal het niet halen).
  • 2x miniSAS interne connector
  • goeie Linux support (incl managment tools)
De prijs is ook niet al te gek, Euro 412 is op het moment de beste prijs op pricewatch.

Storage (schijven OS):
Voor het OS en de download ruimte ga ik 2x SSDs van 32Gbyte in Raid-0 zetten. Dat zou de par2 en rar operaties best snel moeten laten gaan. 300Mbyte/sec moet er wel inzitten. Eens kijken of de ATOM dat kan verweken ;-). Deze 2 schijven zullen altijd aanstaan.

Storage (schijven archief):
Het archief zal bestaan uit de schijven die op dat moment (dat ik ze nodig heb) het gunstigste storage/prijs niveau halen. Op het moment zijn dat 1.5Tbyte disks (denk ik, moet nog even narekenen). De bedoeling is het archief op enig moment uit te kunnen breiden d.m.v. de 2de set SASx4 verbindingen die ik via een bordje naar buiten ga brengen en weer naar binnen op de volgende Multipack waar dan alleen een SAS expander en schijven in zit. Ik hoop in 1 multipack ongeveer 12 schijven kwijt te kunnen (zoals in het origineel). De Multipack met het moederboard en de SAS controller erin zal ruimte bieden aan 8 SATA schijven.

Bekableing:
Wat je op de foto niet zien zijn alle kabels die nodig zijn om het hele zwikkie te connecten, en dat worden er nogal wat:
  • 1x miniSAS-miniSAS kabel voor lokale SAS expander.
  • 1x miniSAS-miniSAS kabel voor de volgende kast.
  • 3x mini-SAS-SATAx4 rechthoek (kast is krap)
  • 10x SATA power kabel
  • 1x picoPSU voor het moederbord.
Ik heb ook nog een fan-controller nodig om de 120mm fan stil te houden. Het is een fan uit een HP LH3, dus hij kan best wat lucht pushen.

Het wordt een hele uitdaging, maar ik hoop dat alles past.

Hoe ver ben je?
Deze vraag zal ik ongetwijfeld krijgen.. Ik zal het kort omschrijven, maar plaatjes spreken luider, dus die komen er ook!
Ik heb nu de eerste Multipack (die voor MB en SAS controller) en heb in de voorkant al een extra 120mm fan gezet (buiten de 2x80mm die al in de voeding zitten). De bedoeling is dat deze fan bijgeschakeld wordt als de SATA schijven aangezet worden zodat alles een beetje op temp blijft. Het mini-itx bordje en de andere hardware (schijven, PCI kaart) zijn dingen die ik nog had liggen voor de mock-up. Dus het zijn nog geen SATA schijven. Ook de SAS expanders zijn nog onderweg uit amerika.

Fotos:
De achterkant:


De voorkant:


De (voor mij gevoel) beste indeling:

Wat je ziet: 6 (worden er 8) schijven bovenaan, gedekt door de fan aan de rechter kant, mini-itx bordje onderaan, met controller. Als je denkt dat die controller er zo nooit ingaat heb je gelijk, ik ga een flexible PCIe x16 extender gebruiken:


De 2x 2.5" schijven die je er tussen-in ziet worden de SSD schijven voor het OS en download/uitpakspace.
Hier moet ook nog een SAS expander tussen, ergens.. Moet lukken ;-)


Oh, niet te vergeten, om de schijven vast te houden in de kast zal ik een aluminium bracket bouwen, waar veel gaten in moeten zitten. De onderlinge ruimte tussen de schijven wordt 5mm, om lucht er nog tussendoor te kunnen laten gaan.

Software:
  • Debian, wat anders?
  • SABnzbd+ voor DLen
  • Wat slimme scripts die na het uitpakken de film naar het archief zetten.
  • XBMC gaat als het model dienen voor de multimedia playback.
  • Samba
  • MRTG of misschien RRDTool
Problemen die ik nog verwacht:
  • XBMC onder Debian te draaien, bij XBMC hebben ze het hele 1080p decode verhaal op ION aan de praat, ik zal kijken of ik XBMC uitgekleed op Debian kan laten draaien.
  • Mocht de ATOM te zwak zijn, ga ik over op een mini-itx met socket-P en ION (die heb ik nog niet gezien).
  • Alle kabels netjes weg te werken. Desnoods soldeer ik ze wat korter in elkaar.
  • Kracht voeding. Mocht ie niet sterk genoeg zijn, zal ik een ATX voeding erin zetten (dan vervalt de picoPSU).
Heeft er iemand nog een idee voor een fan-controller die vanuit linux on-the-fly aangestuurd kan worden (het liefst via de command-line).

Heeft er iemand nog andere suggesties hoe ik het e.e.a. nog zou kunnen verbeteren?

Robert.

Be more, use Linux.


  • DJ-Visto
  • Registratie: maart 2009
  • Laatst online: 04-12 20:02

DJ-Visto

Aye aye, sir!

Wooh! Zeer mooie start, hoop succes toegewenst, niet veel op aan te merken, misschien een beetje de indeling.. Maar ik weet niet hoe je dat beter kan doen :) Ik sanp niet hoe je trouwens de opslag gaat doen, je hebt maar 1pci slot (volgens mij?).

[Voor 22% gewijzigd door DJ-Visto op 18-10-2009 22:36]

XBMC en 1080p moet ik nog zien... Denk dat dat vies tegen gaat vallen...
Verder voor 99$ die kaarten lijkt me echt GE-WEL-DIG :) dat is echt rete goedkoop...
Ik moet beter leren lezen...

Wel een mooi kastje :D

* thijs_cramer is een beetje jaloers ^^

[Voor 7% gewijzigd door FireDrunk op 18-10-2009 22:46]

Even niets...


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Heb 1x PCIe x16 slot. Daar gaat een adaptec 5805 in, die ondersteund 265 devices, 128 op ieder kanaal van 4xSAS... Een kanaal gebruik ik voor intern (met expander) daar gaan de 10 HDs op (8x3.5" en 2xSSD). Het andere kanaal (4xSAS) gaat naar de achterkant om naar de volgende te gaan. Ook daar zit weer een expander in... vanuit daar kan ik hem weer daisy-chainen naar de volgende enz enz... Tot iets van 10x Multipacks met iets van 120 Schijven (is de planning).

We zien wel.. Hoop eerlijk gezegd dat ik nooit zo ver kom.. Kost een hoop vermogen, zoveel schijven ;-)

Be more, use Linux.


  • DJ-Visto
  • Registratie: maart 2009
  • Laatst online: 04-12 20:02

DJ-Visto

Aye aye, sir!

Oh, dus je splitst zeg maar de uitgangen naar nog meer. Je wilt wel voor een hoop storage gaan. Zou dan ook gelijk een hele goeie internet lijn nemen :9

  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
@thijs: Link
Ook is er via die link een video van youtube over het ION platform, 1080p met XBMC.. Tegenwoordig zit er in XBMC support voor Nvidia 9400M platformen x264 decode acceleratie.

@Visto: zat te denken aan Fibrepower 120Mbit ;-) en idd, SAS heeft de coole eigenschap een beetje als een netwerk-switch te werken... Met 1 RAID kaart en wat "SAS expanders" tot 265 schijven aansluiten. Is een beetje als USB, maar met VEEEEEEL meer bandbreedte...

Robert

[Voor 32% gewijzigd door campr112 op 18-10-2009 23:04]

Be more, use Linux.


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Hoe zit het eigenlijk met de Atom 1.6 Ghz 330? Gebruikt iemand deze al als fileserver met Linux/WIndows? Is de performance acceptabel?

De QNAP TS-439 PRO heeft een Intel Atom.Iemand een idee hoe snel deze is? En als ik kijk naar de prijs (622 Euro) doe ik het toch niet al te slecht qua prijs (excl HDs kost mijn oplossing ~560 euro en er kunnen 8 schijven standaard in, later meer. Ik heb wel geen LCD displaytje, maar voor 62 euro moet dat ook nog wel lukt)
http://tweakers.net/ext/p...2C240240%2F1%2C227741%2F1

Be more, use Linux.


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Zo, vandaag Atom bordje, picopsu, SAS kabels en SAS->SATA kabels besteld. Binnenkort nog de adaptec raid controller en de drives.

Rob

Be more, use Linux.


  • jayvol09
  • Registratie: augustus 2009
  • Laatst online: 02-09-2020
1.Mocht atom te zwak zijn, is de 780g itx bord met een sempron 140 wat?
2.Wat voor arrays ga je aanmaken met de schijven?
3. 64GB lijkt niet veel als je een paar grote downloads tegelijk hebt?
4. Spint ie dan alle schijven op bij t opstarten? Is t dan tegelijk of staggered?
5. Zou je nog per multipack iets met de stroomvoorziening kunnen doen? Bv softwarematig helemaal off switchen van schijven 29 t/m 66 :p

"Between the weak and the strong one it is the freedom which oppresses and the law that liberates" [Jean Jacques Rousseau]


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
jayvol09 schreef op vrijdag 23 oktober 2009 @ 20:19:
1.Mocht atom te zwak zijn, is de 780g itx bord met een sempron 140 wat?
2.Wat voor arrays ga je aanmaken met de schijven?
3. 64GB lijkt niet veel als je een paar grote downloads tegelijk hebt?
4. Spint ie dan alle schijven op bij t opstarten? Is t dan tegelijk of staggered?
5. Zou je nog per multipack iets met de stroomvoorziening kunnen doen? Bv softwarematig helemaal off switchen van schijven 29 t/m 66 :p
1. Tja, moeten we maar even kijken. Ook socket-p boards lijken me wel wat. (dure procs alleen).
2. De SSDs worden een raid-0, de grotere schijven worden een raid-5 per kast. Dus in de eerste kast een 8-schijf raid-5, de tweede kast word een 12-disk raid-5 (of misschien 2x 6-disk, ligt een beetje aan de limieten van de raid-controller. Hoeveel schijven per raid-5 array. Dat zal ik zien als ik ze ga maken.) Initieel ga ik per maand 1 schijf kopen (na een opbouw aankoop van 3 schijven).. Misschien later nog wat sneller als ze goedkoper worden (of ik meer geld over heb). Het mooie van de raid-controller is dat je on-line expansion kan doen. Dan moet ik alleen nog het filesysteem vergroten, en dat is makkelijk met ext4 of XFS. Hoewel een jpurnalling file-systeem wel constant naar de disk wil schrijven om de epoch van de journal bij te houden. Hier moet ik nog even over nadenken. Misschien kan ik de journal ook wel in geheugen vasthouden, of misschien op een aparte SSD.
3. Nieuwsgroepen downloaden niet tegelijk (sequentieel). Als SSDs goedkoper worden, kan ik altijd nog een nieuwe set kopen. Hij is dus primair voor usenet.
4. Als ik het goed begrijp spint ie alleen de schijven op van dat array (van die logical drive) die nodig zijn voor die lees/schrijf actie. Dus als je 3 raid-5 sets hebt, wordt alleen de raid-5 opgespint die nodig is. Staggered spin-up wordt ondersteund, maar ik gok dat dat alleen van kracht is tijdens power-on. eco-green schijven van samsung hebben trouwens een standby-stroom wan 0.8W
5. Mogelijk.. Maar dit wordt in priciepe al ondersteund door de raid-controller. Die zet de schijven gewoon stil als ze een tijdje niet gebruikt worden. http://www.adaptec.com/en-US/_common/greenpower/

Rob

[Voor 18% gewijzigd door campr112 op 24-10-2009 01:56]

Be more, use Linux.


  • daan08
  • Registratie: augustus 2008
  • Laatst online: 14-09 12:18

daan08

PEBKAC

1. Leuk project :)
2. Wellicht is dit wat voor je; http://cgi.ebay.com/Adapt...803_W0QQitemZ250506173709

  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
@Bulldoze
1. Dank, had genoeg van commerciele oplossingen, wilde iets maken wat niet iedere 2 jaar vervangen hoeft te worden, en dan wel voor dezelfde prijs!
2. Dit is een 3-serie controller. Alleen de 1,2 en 5 serie ondersteunen de power-management functionaliteit mbt het uitzetten van drives als ze niet nodig zijn. De ~300Euro die ik zou sparen op de aankoop, zou ik in 1-2 jaar aan stroom uitgeven. Dus als ik het array voor een tijd wil houden (zeg 3-4 jaar) dan doe ik er slim aan om een 5-serie te nemen (1 serie is JBOD, 2 serie is raid 0/1/10) dan bespaar ik uiteindelijk geld. En dit is zelfs zonder de aanname dat de prijs van energie verder zal stijgen...

Ga meer voor zoiets: http://cgi.ebay.com/NEW-A...ulk_W0QQitemZ320432389774
Prijs in NL is op het moment ~420 euro, deze $ prijs is vergelijkbaar met 323.08 Euros volgens google. Dus misschien toch uit amerika bestellen? Hier komt toch vermoeddelijk nog BTW overheen en misschien nog wat invoerbelasting. Met BTW is de prijs ~380 Euro, en dan mogelijk ~ 30-50$ shipping en andere belastingen voor invoer. Die €420 lijken ineens zo slecht nog niet, plus ik kan ergens aankloppen als de kaart kapot zou gaan of als ik hem brick ofzo.

We zien wel, op het moment denk ik er tochzwaar aan om hem in NL te kopen.

Rob

Be more, use Linux.


  • HarmoniousVibe
  • Registratie: september 2001
  • Laatst online: 05-12 12:52
Leuk projectje! Ik zou alleen nog wel eens kijken naar het powermanagement van de schijven. Ik weet niet wat voor schijven je wilt kopen, maar volgens mij is het zo dat de meeste SATA-schijven niet bedoeld zijn om heel vaak up- en down te spinnen. Dat is niet goed voor de levensduur. Nu zal dat voor XMBC niet zo'n probleem zijn, maar Samba wordt wellicht een ander verhaal.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
De meeste desktop schijven worden juist iedere dag iig 1x uitgezet, soms zelf meerdere malen omdat windows op 'switch harddisks off' power-save staat en ook omdat de PC uitgezet wordt. Google heeft ook al onderzoek gedaan naar schijf-failures, en de conclusie is dat HDs vooral doodgaan door temperatuur schommelingen, niet zozeer aan/uit zetten. http://labs.google.com/papers/disk_failures.pdf

Ook is vaak de schijf binnen 3 maanden kapot, of dan pas na 2 jaar, tussen 3 maanden en 2 jaar is de failure rate relatief laag. Smart status kan wat zeggen over de gezondheid van de schijf, maar niet altijd. Vooral 'scan errors' zijn blijbaar funest voor je schijf. De kans dat ie na scan errors kapot gaat binnen 60 dagen is 39 keer groter dan normaal.

Ik heb zelf een 8Mbit verbinding en kan dus in 1 dag maximaal 86Gbyte downloaden. Mijn tijdelijke opslag wordt dus minstend 90Gbyte, zodat ik (ook als ik 24 uur download, wat niet vaak gebeurt) de 'archief' schijven niet op hoef te spinnen. Er zijn natuurlijk ook momenten dat ik niks download... Ik hou al langer in de gaten hoe mijn downloadgedrag is, ik denk dat ik misschien zelfs een week zou kunnen teren op 90Gbyte, het ligt een beetje aan wat er gepost is:
Groen is downloaden, blauwe lijnen zijn films kijken:


Ook hou ik bij (via vmstat) hoe druk mijn schijf het heeft met I/O in dit geval gaat het om Kbytes/sec gemiddeld, dus 6.4k is 6.4Mbyte/sec:


En hie warm mijn schijf het heeft (via smartctl):


Wil niet zeggen dat ik zover kom als google, maar ik kan (hopelijk) via de adaptec controller utilities ook het aantal spinups bijhouden en monitoren (en andere smart factoren). De temperatuur zal ik regelen door middel van een fan controller, zodat deze zo constant mogelijk blijft.

We zien wel waar het schip strand, ik heb het iig geprobeerd. :9
Rob

[Voor 4% gewijzigd door campr112 op 28-10-2009 20:18]

Be more, use Linux.

campr112 schreef op woensdag 28 oktober 2009 @ 20:14:
De meeste desktop schijven worden juist iedere dag iig 1x uitgezet, soms zelf meerdere malen omdat windows op 'switch harddisks off' power-save staat en ook omdat de PC uitgezet wordt. Google heeft ook al onderzoek gedaan naar schijf-failures, en de conclusie is dat HDs vooral doodgaan door temperatuur schommelingen, niet zozeer aan/uit zetten. http://labs.google.com/papers/disk_failures.pdf
Wat denk je dat een harde schijf doet als je hem uit zet? Warm worden?

Even niets...


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Ok, goed punt, maar het verschil in temperatuur is veel groter voor een huis-tuin-en-keuken kast (slechte ventilatie, dus hogere temperaturen) dan mijn goed geventileerde NAS kast. Kijk naar mijn schijf nu, hij blijft mijn schijf 10-12 graden boven de binnen-temperatuur (hij staat in de woonkamer, temp 19 graden). Je ziet wel eens dat schijven in laptops 50 graden en meer worden.. Ik heb al heen lang geen 'normale' kast meer, maar ik kan goed geloven dat normale kasten de temperatuur makkelijk tot 40 graden kan drijven.

Ik wil best geloven dat het aan/uitzetten van schijven de levensduur van schijven negatief beinvloed, maar met 8 schijven, kan ik tot ~150E/jaar op stroom besparen. Daarvan kan ik dan weer mooi vervangende schijven kopen 8)7 Ik verwacht niet dat schijven als gloeilampen reageren op aan/uitzetten. Schijven (in mijn ervaring) gaan kapot als je ze gebruikt niet als je ze aanzet. De electronika op de schijf blijft trouwens wel aan, alleen de motor draait niet. Dus ik gok dat de electronika wel redelijk op temperatuur zal blijven (de fans gaan dan langzamer draaien).

We zien wel. Ik heb iig gepoogd om iets te doen aan mijn stroomverbruik. Ik had ook gewoon net zogoed niets kunnen doen, maar dat is niet zo leuk :X

Be more, use Linux.


  • Q
  • Registratie: november 1999
  • Laatst online: 04-12 15:04
Leipe shit ouwe!

Leuk project dit. Met name de SAS oplossing vind ik interessant. Hopelijk gaat het 1080p spul ook goed werken.

Vrijwel inactief


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Zo, bordje is binnen.. Geheugen erin geprikt, 80Gbyte 2.5" sata ingeprikt om iig alvast te kunnen beginnen met de configuratie van het OS (dit worden later 2SSDs in Raid-0)

Begonnen met Debian, maar veel problemen met dependencies voor de 'speciale' versie van xbmc voor ION-decode acceleratie. Alle packages zijn gemaakt voor Ubuntu Jaunty, dus dat zal ik vanaf nu ook gaan draaien. Ander voordeel van Jaunty, SMBv2 (SambaV4(alpha)) zit er al in.

Heb alleen geen SATA CD-Rom drive, dus eerst bootable USB stick maken, dat werkte niet direct, dus daar ben ik nog even mee bezig.

Volgende maand de SAS kaart bestellen en de schijven (of iig na mijn salarisstorting van volgende maand ;)

De kabels zijn onderweg, zoals ook de SAS expander bordjes. Kast is ook al bijna klaar, heb alleen nog 4 moederbordmontage schroefjes nodig. Wat ook onderweg is, is de 2de kast voor de uitbreiding.

De ventilatie-controller is ook al binnen, dus daar ga ik binnenkort ook mee aan de slag.

Er zit schot in.

Be more, use Linux.


  • Cybje
  • Registratie: maart 2001
  • Laatst online: 17:10

Cybje

First Post!

Is het niet handiger om meteen voor Ubuntu 9.10 te gaan?

Wel erg cool project! Heb hier gewoon een Synology 209 en een losse HTPC (die overigens via iSCSI boot, zodat de HTPC stiller is). Maar ben toch wel een klein beetje jaloers als ik dit zie :D

Wat ruist er door het struikgewas


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Ik heb laatst voor de LOL een quickspec van Synology gepakt en daar mijn eigen specs van gemaakt, was best leuk. Ik zal hem maandag even hier posten.

Het is me nu ook gelukt met hardware acceleratie 720p en 1080p af te spelen onder Ubuntu. Dus volgende maand de controller (en 3 schijven bestellen) en dan kan ik aan de slag.

Vandaag is ook de 2de kast binnengekomen, dus ik kan al naar 20 schijven! Wooohoo...

Be more, use Linux.


  • Q
  • Registratie: november 1999
  • Laatst online: 04-12 15:04
Join the club...
8)

[Voor 13% gewijzigd door Q op 31-10-2009 14:27]

Vrijwel inactief


  • Houtenklaas
  • Registratie: september 2007
  • Laatst online: 23:08
Ha Rob,

Even jouw link gevolgd die je op "mijn" thread had gezet, je hebt wel werk gemaakt van de beschrijving + foto's. Erg mooi om te zien! Mijn spullenboel (met software raid) wordt een kerstproject, geen tijd voor nu om dat nu te doen. Overigens kreeg ik van meerdere kanten de opmerkingen dat een ION bord met Debian geen goede keuze is gezien de hardware ondersteuning, Ubuntu lijkt een meer voor de hand ligende keuze. Ik zal met belangstelling dit stukje volgen hier! Succes!

<edit>
Eén ding wat ik aan mijn config ga wijzigen is het toevoegen van SSD's. Ik ga hem ook inzetten als mailserver, er komt per paar minuten mail binnen wat qua volume makkelijk op een SSD past. Na verwerking verdwijnt het naar een reguliere map ergens op de schijven. Vraag is even of het een vakantie van 3 weken kan overleven op SSD only. Maar dat scheelt als de PC's uitstaan die gebruik maken van het schijvenkabinet (lees: 's avonds/'s nachts) inderdaad stroomkosten van de schijven die uitstaan. Ook even aan rekenen wat het uitzetten van twee schijven scheelt. Maar zowiezo wel een goed idee om OS en data op verschillende schijven te hebben staan.

Kees

[Voor 40% gewijzigd door Houtenklaas op 31-10-2009 18:37]


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Grappig... Ik denk niet dat er wat mis is met debian voor ION, buiten het feit dat er (relatief) weinig software zit in Debian voor het afspelen van video. Dus als je alleen een NAS maakt, is debian niet direct slecht, sterker nog ik denk dat het beter voldoet dan andere oplossingen (freeNAS heeft bijvoorbeeld relatief slechte performance).

Ik weet trouwens niet of het mogelijk is (zonder de geschikte hardware) SATA devices uit te zetten. Ik weet niet of hier ondersteuning voor bestaat.

[Voor 18% gewijzigd door campr112 op 01-11-2009 09:50]

Be more, use Linux.


  • Brains
  • Registratie: oktober 2006
  • Laatst online: 03-12 15:24
@campr112
Welke sas-expanders gebruik je?

  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
http://cgi.ebay.com/ws/eB...iewItem&item=250513659017
Astek A33603-AIC-12 SAS Expander Add-In-Card
Gebaseerd op de LSI chipset.

[Voor 41% gewijzigd door campr112 op 01-11-2009 15:27]

Be more, use Linux.


  • Shuriken
  • Registratie: november 1999
  • Laatst online: 05-12 13:18

Shuriken

Life is all about priorities

Er staat een Adaptec 5805 te koop in V&A ....had je nu je salaris maar alvast.

[Voor 34% gewijzigd door Shuriken op 03-11-2009 17:07]

I rather have a bottle in front of me, then a frontal lobotomie


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Hmmm, 50€ van de prijs af vergeleken met nieuw. Dan heb ik liever nieuw. Lager bieden is ook niet mogelijk. Ik gok dat ie hem voor deze prijs niet kwijtraakt, zeker omdat het _nog_ goedkoper is in de US:
http://cgi.ebay.com/NEW-A...ulk_W0QQitemZ320432389774
Duitland:
€380,50: http://shop.nordpc.com/index.php?uid=788060000

Dus nee, €375 is geen 'goeie' prijs. Wel op de Nederlandse markt, maarja, er is meer dan Nederland. Ik ben met de kerst in duitsland (rond salaristijd ;))

Maar bedankt voor de tip!

Trouwens, ook ecogreen schijven zijn goedkoper in Duitsland:
1.5Tbyte versie, €75 http://www.ipcstore.net/n...tml?page=detail&id=204289

Rob

[Voor 16% gewijzigd door campr112 op 04-11-2009 11:06]

Be more, use Linux.


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Er staat er ook nog 1 op duitse Ebay.
http://cgi.ebay.de/Adapte...TOP_W0QQitemZ280417791042

Met nog 4 dagen en 4 uur te gaan op 221€

Be more, use Linux.


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Nou, die van E-bay heb ik gewonnen voor 351 euro. Vrijdag zou ie er moeten zijn. We zullen het zien.

Kabels zijn al binnen, vanmiddag de SAS expanders ophalen bij het postkantoor. Nu alleen nog de schijven en een boel powerkabels en soldeerwerk.

Be more, use Linux.


  • DJ-Visto
  • Registratie: maart 2009
  • Laatst online: 04-12 20:02

DJ-Visto

Aye aye, sir!

campr112 schreef op dinsdag 10 november 2009 @ 13:43:
Nou, die van E-bay heb ik gewonnen voor 351 euro. Vrijdag zou ie er moeten zijn. We zullen het zien.

Kabels zijn al binnen, vanmiddag de SAS expanders ophalen bij het postkantoor. Nu alleen nog de schijven en een boel powerkabels en soldeerwerk.
Nice, hopelijk snel weer pica's! :)

  • een_naam
  • Registratie: november 2000
  • Laatst online: 20-02-2012
Inderdaad pics!!
Ik ben heel geintersseerd in dat SAS gedeelte, ik snap dat verhaal met die expanders niet helemaal. Als ik het goed begrijp hang je die expanders aan de uitgang van je SAS controller eentje intern en eentje in je externe kast (toekomst), wat voor een kabel steek je dan in zo'n expaner waar je je HD's aan hangt? Een SAS kabel met een bos SATA aansluitingen, snap ik niet helemaal daarom pics :) . Kan ik misschien mijn Homeserver ook upgraden ik heb nu 6*1TB op de onboard aansluitingen maar het begint krap te worden en de performance is ook niet alles, volgens mij bied SAS wel iets wat ik kan gebruiken.

Mess with the best, die like the rest. amd64 X2 4400, a8v S939, 2G PC3200, x800 pro, 640G WD Raid 0 + 36G Raptor raid 0 +750Gb Seagate, CM Stacker, LACIE 1Tb 1394, Enermax 600W, Dell 2407, Draytrek 2600 802.11g, Evesham Athlon64, 1G pc2700 l


  • Sleepie
  • Registratie: maart 2001
  • Laatst online: 04-12 23:49
Leuk project. Ik zit zelf ook al een tijdje aan iets dergelijks te denken, maar vind het allemaal toch nog even iets te duur. Blijf dit topic wel even volgen om te kijken hoe het uiteindelijke resultaat precies wordt, ziet er veelbelovend uit.

Mijn idee kreeg ik trouwens na het lezen van dit verhaal.

  • Femme
  • Registratie: juni 1999
  • Laatst online: 22:22

Femme

Hardwareconnaisseur

Official Jony Ive fan

een_naam schreef op woensdag 11 november 2009 @ 12:55:
Inderdaad pics!!
Ik ben heel geintersseerd in dat SAS gedeelte, ik snap dat verhaal met die expanders niet helemaal. Als ik het goed begrijp hang je die expanders aan de uitgang van je SAS controller eentje intern en eentje in je externe kast (toekomst), wat voor een kabel steek je dan in zo'n expaner waar je je HD's aan hangt? Een SAS kabel met een bos SATA aansluitingen, snap ik niet helemaal daarom pics :) .
Je stopt er een mini-sas (SSF-8087) naar sata-kabel in. Zo eentje:



De expander hang je aan de controller via een mini-sas naar mini-sas kabel. Over een mini-sas kabel gaan vier poorten. De expander moet je zien als een switch met trunking mogelijkheid voor de uplink. Als je de expander en de controller met vier poorten aan elkaar knoopt maken ze er een wide-port van met een bandbreedte van 1,2GB/s.

  • een_naam
  • Registratie: november 2000
  • Laatst online: 20-02-2012
Femme schreef op woensdag 11 november 2009 @ 13:44:
[...]


Je stopt er een mini-sas (SSF-8087) naar sata-kabel in. Zo eentje:

[afbeelding]

De expander hang je aan de controller via een mini-sas naar mini-sas kabel. Over een mini-sas kabel gaan vier poorten. De expander moet je zien als een switch met trunking mogelijkheid voor de uplink. Als je de expander en de controller met vier poorten aan elkaar knoopt maken ze er een wide-port van met een bandbreedte van 1,2GB/s.
Maar dan kan hij toch maar 4 schijven kwijt in z'n externe case, terwijl de TS het toch over een veelvoud van 4 schijven heeft? Hij spreekt over "SAS kan je tot 128 devices aansluiten via SAS expanders op een SASx4 bus", niet dat hij128 schijven gaat aansluiten maar meer als 4 lijkt me wel de bedoeling, hoe sluit je dat dan aan?

[Voor 12% gewijzigd door een_naam op 11-11-2009 13:53]

Mess with the best, die like the rest. amd64 X2 4400, a8v S939, 2G PC3200, x800 pro, 640G WD Raid 0 + 36G Raptor raid 0 +750Gb Seagate, CM Stacker, LACIE 1Tb 1394, Enermax 600W, Dell 2407, Draytrek 2600 802.11g, Evesham Athlon64, 1G pc2700 l


  • Femme
  • Registratie: juni 1999
  • Laatst online: 22:22

Femme

Hardwareconnaisseur

Official Jony Ive fan

een_naam schreef op woensdag 11 november 2009 @ 13:51:
[...]

Maar dan kan hij toch maar 4 schijven kwijt in z'n externe case, terwijl de TS het toch over een veelvoud van 4 schijven heeft? Hij spreekt over "SAS kan je tot 128 devices aansluiten via SAS expanders op een SASx4 bus", niet dat hij128 schijven gaat aansluiten maar meer als 4 lijkt me wel de bedoeling, hoe sluit je dat dan aan?
De bovenstaande expander heeft 36 poorten en negen mini-SAS-connectors. Ik weet niet precies hoe de indeling van de poorten werkt en of dat volledig flexibel is (of je zomaar een willekeurige connector kunt gebruiken voor het aansluiten van vier of acht poorten naar de controller). Als je acht poorten en dus twee connectors zou gebruiken voor de verbinding met een achtpoorts sas-controller houd je zeven mini-sas-connectors over op de expander waar in totaal 28 harde schijven op aangesloten kunnen worden.

Als je nog meer devices wilt gaan ondersteunen moet je expanders aan elkaar knopen.

  • een_naam
  • Registratie: november 2000
  • Laatst online: 20-02-2012
Femme schreef op woensdag 11 november 2009 @ 13:59:
[...]


De bovenstaande expander heeft 36 poorten en negen mini-SAS-connectors. Ik weet niet precies hoe de indeling van de poorten werkt en of dat volledig flexibel is (of je zomaar een willekeurige connector kunt gebruiken voor het aansluiten van vier of acht poorten naar de controller). Als je acht poorten en dus twee connectors zou gebruiken voor de verbinding met een achtpoorts sas-controller houd je zeven mini-sas-connectors over op de expander waar in totaal 28 harde schijven op aangesloten kunnen worden.

Als je nog meer devices wilt gaan ondersteunen moet je expanders aan elkaar knopen.
OK ik kan me er iets bij voorstellen hoe het ongeveer werkt, hoop dat nog wat meer pictures zie zodat ik het helemaal kan vatten.

Mess with the best, die like the rest. amd64 X2 4400, a8v S939, 2G PC3200, x800 pro, 640G WD Raid 0 + 36G Raptor raid 0 +750Gb Seagate, CM Stacker, LACIE 1Tb 1394, Enermax 600W, Dell 2407, Draytrek 2600 802.11g, Evesham Athlon64, 1G pc2700 l


  • Q
  • Registratie: november 1999
  • Laatst online: 04-12 15:04
Femme schreef op woensdag 11 november 2009 @ 13:59:
[...]


De bovenstaande expander heeft 36 poorten en negen mini-SAS-connectors. Ik weet niet precies hoe de indeling van de poorten werkt en of dat volledig flexibel is (of je zomaar een willekeurige connector kunt gebruiken voor het aansluiten van vier of acht poorten naar de controller). Als je acht poorten en dus twee connectors zou gebruiken voor de verbinding met een achtpoorts sas-controller houd je zeven mini-sas-connectors over op de expander waar in totaal 28 harde schijven op aangesloten kunnen worden.

Als je nog meer devices wilt gaan ondersteunen moet je expanders aan elkaar knopen.
Een goed verhaal over SAS, SATA, SAS die wel SATA aan kan maar andersom niet, SAS expanders, in een mooi artikel, dat zou ik mooi vinden ;)

Ik heb het voor mijn NAS overwogen maar ben op de oude toer gegaan. Maar dat geeft een kabel spagetti die met expanders te voorkomen is.

In dat licht maakt dit soort dingen mij zo blij:

http://blog.backblaze.com...uild-cheap-cloud-storage/

Vrijwel inactief


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Ik heb de kaart nog niet binnen, maar zodra dat wel zo is, zal ik wat fotos maken van de setup voor het de kast ingaat, zodat jullie alles nog netjes kunnen zien (het wordt toch wat krapper dan verwacht, in de kast).

Maar het komt hierop neer:
Uit de SAS kaart komen 8xSAS bussen in 2 connectors van 4xSAS bussen
Die worden allebei aangesloten op de 'achterkant' van de SAS expander:

Op de achterkant zitten ook nog 2 connectors voor de doorverbinding naar de volgende SAS expander (een soort doorgeefluik)
Op de voorkant van de SAS expander zitten 5 mini-SAS aansluitingen:

(je ziet nog net de andere connectors op de 'achterkant')
Op die 5 mini-SAS aansluitingen kan je per stuk een mini-SAS naar 4xSATA kabel aansluiten:

En kan je dus in totaal 20 drives aansluiten op 1 SAS expander die tussen de SAS kaart en een andere expander zit. Als het de laatste expander in het rijtje is, kan je drives aansluiten op de 'doorgeefluik' connectors. Dus op de laatste kan je 28 drives aansluiten. In totaal heeft de SAS expander dus 28+8=36 SAS poorten. Die ieder 3Gbit kunnen verwerken! Best een bakkie dus! Dus in een bundel van die 8xSAS, kan je 2.4Gbyte/sec verplaatsen (theoretisch max).

Net nog een mooi diagrammetje gevonden:

Hier staat overal JBOD, maar je kan er ook raid van maken... Dit is bijna precies hoe het bij mij zal gaan gebeuren, alleen wil ik op de interconnects x8 ipv x4 SAS hebben.

Die rooie bak met 60+ schijven erin is leuk, maar issue zal throughput zijn, zoals al eerder gemeld.

Be more, use Linux.


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
miniSAS naar miniSAS wordt idd gebruikt om de kaart op de SAS expanders aan te sluiten, heb specifiek korte kabels gezocht, het korste wat ik kon vinden was 1ft (30cm):

Voor externe connectied heb je dan andere kabels (de miniSAS heeft geen trek-ontlasting, dus die kan je extern niet gebruiken):

En dan worden extern deze kabels gebruikt SFF-8088:

Op de PERC5i worden dus SFF-8484 gebruikt, en miniSAS is SFF-8087
Normaal gebruiken SAS drives (ook dual-port) een SFF-8482 om aangesloten te worden (die is dan wel incl power).

Dus meerdere manieren om 4xSAS/SATA over te brengen en eind-devices aan te sluiten.
SFF-8470 word ook gebruikt bij infiniband.

<edit>: Bij Alternate is een mooi overzicht te vinden van alle verschillende type kabels: http://www.alternate.nl/h...cat3=000&vendorSelect=855

<edit2>: 6Gbit SAS zit er ook al aan te komen, 4xSAS6G kan dus ~2.4Gbyte/sec aan. Dus zo'n M8 connector kan dus ~4.8Gbyte/sec aan! WOW... Wie zal er ooit meer willen? DAS(directly attached storage) here we come!

[Voor 21% gewijzigd door campr112 op 11-11-2009 23:50]

Be more, use Linux.


  • Femme
  • Registratie: juni 1999
  • Laatst online: 22:22

Femme

Hardwareconnaisseur

Official Jony Ive fan

Q schreef op woensdag 11 november 2009 @ 22:08:
[...]

Een goed verhaal over SAS, SATA, SAS die wel SATA aan kan maar andersom niet, SAS expanders, in een mooi artikel, dat zou ik mooi vinden ;)
Ik heb in 2006 ooit een artikeltje over sas geschreven waarin de basisbeginselen worden besproken:

reviews: Kennismaking met Serial Attached SCSI

Ik wist niet dat losse sas expanders al zo goedkoop zijn geworden. Ik denk dat ik er maar een ga scoren voor testdoeleinden. Is een stuk goedkoper dan een externe behuizing met hotswapbays gebruiken (die alleen maar onhandig zijn als je vaak van drives moet wisselen).

  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
@Femme: Ik gok dat ik veel geluk had met deze expanders op Ebay te vinden... Ik zie nu 12 poort expanders van Intel voor 500$ op ebay. En die PCIe kaart van HP (waar je dus een slot voor moet opgeven) voor iets van 250$/stu

Be more, use Linux.


  • een_naam
  • Registratie: november 2000
  • Laatst online: 20-02-2012
campr112 schreef op woensdag 11 november 2009 @ 23:23:
Ik heb de kaart nog niet binnen, maar zodra dat wel zo is, zal ik wat fotos maken van de setup voor het de kast ingaat, zodat jullie alles nog netjes kunnen zien (het wordt toch wat krapper dan verwacht, in de kast).

Maar het komt hierop neer:
Uit de SAS kaart komen 8xSAS bussen in 2 connectors van 4xSAS bussen
Die worden allebei aangesloten op de 'achterkant' van de SAS expander:
[afbeelding]
Op de achterkant zitten ook nog 2 connectors voor de doorverbinding naar de volgende SAS expander (een soort doorgeefluik)
Op de voorkant van de SAS expander zitten 5 mini-SAS aansluitingen:
[afbeelding]
(je ziet nog net de andere connectors op de 'achterkant')
Op die 5 mini-SAS aansluitingen kan je per stuk een mini-SAS naar 4xSATA kabel aansluiten:
[afbeelding]
En kan je dus in totaal 20 drives aansluiten op 1 SAS expander die tussen de SAS kaart en een andere expander zit. Als het de laatste expander in het rijtje is, kan je drives aansluiten op de 'doorgeefluik' connectors. Dus op de laatste kan je 28 drives aansluiten. In totaal heeft de SAS expander dus 28+8=36 SAS poorten. Die ieder 3Gbit kunnen verwerken! Best een bakkie dus! Dus in een bundel van die 8xSAS, kan je 2.4Gbyte/sec verplaatsen (theoretisch max).

Net nog een mooi diagrammetje gevonden:
[afbeelding]
Hier staat overal JBOD, maar je kan er ook raid van maken... Dit is bijna precies hoe het bij mij zal gaan gebeuren, alleen wil ik op de interconnects x8 ipv x4 SAS hebben.

Die rooie bak met 60+ schijven erin is leuk, maar issue zal throughput zijn, zoals al eerder gemeld.
Ok mooie informatie, nou begin ik het te vatten, wel gaaf dat SAS spul :9~.
Btw die kennismaking review van Femme is ook heel interssant.

Mess with the best, die like the rest. amd64 X2 4400, a8v S939, 2G PC3200, x800 pro, 640G WD Raid 0 + 36G Raptor raid 0 +750Gb Seagate, CM Stacker, LACIE 1Tb 1394, Enermax 600W, Dell 2407, Draytrek 2600 802.11g, Evesham Athlon64, 1G pc2700 l


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Wooohooooooo! Vanmorgen is de Adaptec 5805 binnen gekomen!

Ik zal vanavond even alles aansluiten en wat fotos maken en posten.

Jammergenoeg zullen de benchmarks moeten wachten op schijven. Die zullen aan het eind van december komen, in relatief grote getalen. Maar toch nog maximaal 8 (+2 SSDs, dus 10 in totaal)), de tweede doos zal in de loop van 2010 opgebouwd (en gevuld) worden.

Op mijn werk ben ik ook met een DAS projectje bezig, zoals er er nu uitziet, zullen Chenbro expanders en kast ongeveer 6 schijven van 2Tbye (met mogelijkheid tot meer) aan een Adaptec 5085 (8xSAS extern) hangen in een Dell Poweredge 2800.

Be more, use Linux.


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
1000 Euro aan hardware op de grond:

Van links naar rechts:
80G Sata 2.5" tijdelijke OS schijf (Ex apple mac mini)
Point of view moederbord, Atom 330, ION chipset, 1Gbyte geheugen (Ex apple mac mini)
Adaptec 5805 SAS kaart.
2x een SAS Expander van Asteccorp
Voor de gein nog een PERC5i incl 1 kabeltje.

Kabels.
5x mini-SAS naar 4xSATA
2x mini-SAS naar mini-SAS
1x SAS naar 4xSATA
1x Power kabel splitter


De setup die ik ga gebruiken voor mijn NASje:

Dus even zonder Perc5i

Een onscherpe foto (sorry) van de 2 SAS expanders (1tje van voren, 1tje van achteren):


De 8xSAS aansluitmethode:


Tja, hiervoor mis ik nog wat kabels:


Het low-performance alternatief:


(bijna) alle kabeltjes aangesloten:


In detail (incl een stukje veter):


Mijn nieuwe achtergrond:


En ik heb het natuurlijk allemaal even getest op tafel (van glas, op muismat en met FAN!):


Die SAS expanders en de Adaptec 5805 is net een lichtcircus... Die adaptec doet ook een soort night-rider om aan te geven dat ie schijven zoekt... Wel geinig... Ik zal proberen en nog een video van te maken.

Be more, use Linux.


  • DJ-Visto
  • Registratie: maart 2009
  • Laatst online: 04-12 20:02

DJ-Visto

Aye aye, sir!

campr112 schreef op donderdag 12 november 2009 @ 19:35:
1000 Euro aan hardware op de grond:
[afbeelding]
Van links naar rechts:
80G Sata 2.5" tijdelijke OS schijf (Ex apple mac mini)
Point of view moederbord, Atom 330, ION chipset, 1Gbyte geheugen (Ex apple mac mini)
Adaptec 5805 SAS kaart.
2x een SAS Expander van Asteccorp
Voor de gein nog een PERC5i incl 1 kabeltje.

Kabels.
5x mini-SAS naar 4xSATA
2x mini-SAS naar mini-SAS
1x SAS naar 4xSATA
1x Power kabel splitter


De setup die ik ga gebruiken voor mijn NASje:
[afbeelding]
Dus even zonder Perc5i

Een onscherpe foto (sorry) van de 2 SAS expanders (1tje van voren, 1tje van achteren):
[afbeelding]

De 8xSAS aansluitmethode:
[afbeelding]

Tja, hiervoor mis ik nog wat kabels:
[afbeelding]

Het low-performance alternatief:
[afbeelding]

(bijna) alle kabeltjes aangesloten:
[afbeelding]

In detail (incl een stukje veter):
[afbeelding]

Mijn nieuwe achtergrond:
[afbeelding]

En ik heb het natuurlijk allemaal even getest op tafel (van glas, op muismat en met FAN!):
[afbeelding]

Die SAS expanders en de Adaptec 5805 is net een lichtcircus... Die adaptec doet ook een soort night-rider om aan te geven dat ie schijven zoekt... Wel geinig... Ik zal proberen en nog een video van te maken.
AL dat apple spul gaat terug of is het echt ex? :P En de rest O+

  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
DJ-Visto schreef op donderdag 12 november 2009 @ 19:43:
[...]

AL dat apple spul gaat terug of is het echt ex? :P En de rest O+
Dat komt uit mijn mac-mini die ik heb ge-upgrade naar 4Gig en 320Gig ipv 1Gig en 80Gig...

Ben nu alleen bezig met het 'passen' in mijn SUN multipack behuizing, alleen het jammere is dat de hardware wel past met enig passen en meten, maar ik geen ruimte heb voor de 4xSAS kabels! Ze zijn gewoon te stijf, te lang en te dik :( Ik heb al zeker geen ruimte meer voor de OS schijfjes (raid-0)... :(

Zelf wat in elkaar solderen? Ze zijn wel 36-pools, en ultrasoon dichtgelast :(

In princiepe zou ik het kunnen doen, het is volgens de spec gewoon een rechtdoorkabel:
http://www.t10.org/ftp/t10/document.05/05-084r1.pdf

Maargoed, die kabel is wel tot 10Gbit geschikt, dus ik gok dat het wel allemaal redelijk moeilijk zal zijn. Misschien toch gewoon 2 drives minder in de eerste kast. Dus terug naar 6 drives :( , dan heb ik ook meteen ruimte voor de 2x 2.5" inch drives.

Jammer, maarja, het is niet anders.

Be more, use Linux.


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Nog even wat meer over deze SAS expanders.. Ze niet niet echt slim ontwikkeld.. De smd LEDs zitten precies in het verlengde van de connector, dus als je niet goed oplet en de connector los trekt, en hij schiet los, dan schraap je zo de LEDs van het bord. :( Gelukkig zijn de LEDs niet nodig voor correcte werking, en is er nog een header voor externe LEDs (dus je kan altijd extra LEDs aansluiten.

Wat nog veel jammerder is, 1 van de expander doet het niet.... Hij heeft heartbeat, hij geeft activiteit op de poorten, maar hij wordt niet herkend door de SAS controller... Hij heeft zelf alle power-leds en alles aan.. Het verschil wat ik zie is dat 1 bordje rev 1A is, en de ander 1B

Mijn 2.5" 80Gbyte schijf wordt ook niet herkend via de werkende SAS expander, maar alleen als ie direct op de kaart aangesloten zit.. Er zijn dus nog wel wat issues met betrekking tot SAS compatibiliteit... Misschien helpt een firmware upgrade van de SAS controller, we zullen zien... Is iets voor morgen.

De jongens die die rooie bakken hadden gemaakt dankten ook anderen voor het helpen met de analyse van problemen met de SATA multipliers, dus misschien hadden die ook soorgelijke problemen met SATA als ik nu met SAS/SATA. Jammer.

Be more, use Linux.


  • een_naam
  • Registratie: november 2000
  • Laatst online: 20-02-2012
Wow ziet er erg cool uit, wat een bos kabels zit er op die expander aangesloten zeg _/-\o_ ! Wat ik alleen nog niet snap hoe je die 2e expander gaat aansluiten, moet je dan die low performance optie nemen door 1 expansion kaart per controller uitgang te nemen of kan je dat op de een of andere manier doorlussen vanuit je 1e expansie kaart want volgens mij heb je nog 2 uitgangen op de achterkant van je expansion card vrij? Nog een vraag snappen die controller en expansion cards zelf de configuratie(low of high end uitbreidings-optie) of moet je dat allemaal in de software instellen. Hopelijk kun je de problemen met die 2e expansion card oplossen, succes d:)b

[Voor 33% gewijzigd door een_naam op 13-11-2009 07:55]

Mess with the best, die like the rest. amd64 X2 4400, a8v S939, 2G PC3200, x800 pro, 640G WD Raid 0 + 36G Raptor raid 0 +750Gb Seagate, CM Stacker, LACIE 1Tb 1394, Enermax 600W, Dell 2407, Draytrek 2600 802.11g, Evesham Athlon64, 1G pc2700 l


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Zo dus:

De zwarte lijnen aan de onderkant van de foto (inge-edit) zouden de normale manier zijn om het aan te sluiten.


Zo kan het ook, maar dat is zonde van je bandbreedte (je kan wel 16 extra drives aansluiten, want er zijn 4 extra poorten vrij): (1 op de sas kaart en in totaal 3 op de expanders)

[Voor 5% gewijzigd door campr112 op 13-11-2009 09:35]

Be more, use Linux.


  • een_naam
  • Registratie: november 2000
  • Laatst online: 20-02-2012
Ok nou snap ik het, en moet je nog wat in de configuratie veranderen als je de kabels anders aansluit of weten die expanders elkaar via een of ander protocol te vinden en vogelen ze zelf uit hoe het een en ander in elkaar zit?
Deze SAS techniek is wel de volgende stap voor de gevorderde thuisgebruiker met een flink performant servertje nog beter/flexibeler als die gewone raid kaarten.

Mess with the best, die like the rest. amd64 X2 4400, a8v S939, 2G PC3200, x800 pro, 640G WD Raid 0 + 36G Raptor raid 0 +750Gb Seagate, CM Stacker, LACIE 1Tb 1394, Enermax 600W, Dell 2407, Draytrek 2600 802.11g, Evesham Athlon64, 1G pc2700 l


  • Brains
  • Registratie: oktober 2006
  • Laatst online: 03-12 15:24
Ik snap door alle cijfers de getallen niet meer.

Raid-controller: 8x sas dmv 2x mini sas SFF-8087 (3Gb/s per poort)
Expander: 2x SFF-8087 in, 2x SFF-8087 uit, 5x SFF-8087 op de onderkant
Kabel: SFF-8087 naar 4x sata

Nu is het een 12 poorts expander maar de expander heeft 9 "aansluitingen". Hoe moet ik dit zien?
Vanuit de 5 aansluitingen aan de onderkant komen (op een bovenstaande foto) 36 sata stekkers. Krijgt elke "stekker" zijn eigen bandbreedte toegewezen afhankelijk van de in-uitsluitingen (1x of 2x 3Gb/s). Dus onder volle belasting ongeveer 0.08 of 0.16 Gb/s per "stekker"?

Hebben de SFF-8087 connectoren een toegewezen functie of maakt het niks uit waar je wat op welke connector aansluit?

Nu ben ik erg benieuwd naar de performace van een dergelijke oplossing. Het lijkt te mooi voor woorden: een mooie basis setup bouwen voor "nu" met 1 of 2 poorten naar buiten. Later uitbreidingen plaatsen naar behoren.

Ik volg je vorderingen op de voet!

Leesvoer:
http://www.tomshardware.com/reviews/sas-6gb-hdd,2392-2.html
---------------------
Wat is dit dan trouwens voor een beest: Areca ARC-1680ix-24 => 28 aansluitingen. Het lijkt erop dat Areca zelf een (soort van) expander module op zijn SAS-kaarten heeft. De kaarten kunnen ook "maar" 128 devices aanspreken, wat de maximale spanwijdte van een expander. Ik weet niet hoe het dan zit met de bandbreedte per poort/connector.

[Voor 18% gewijzigd door Brains op 13-11-2009 11:09]


  • LinuZZ
  • Registratie: januari 2004
  • Laatst online: 05-12 08:46
is het niet mogelijk de expanders als volgt aan te sluiten:



voordeel is de mogelijkheid van uitval van 1 van beide exanders, maar ik weet natuurlijk niet of het mogelijk is.

waarom gebruik je de huidige perc niet met de sas expanders of is dat niet mogelijk?

WKS01, SRV01, NBK01, HTPC01, HTPC02, HTPC03


  • AlexanderB
  • Registratie: maart 2007
  • Laatst online: 20:14

AlexanderB

7800 rpm

zie zo'n 8087 poort als 4 sata/sas poorten, in welke richting dan ook. als je een bundel van 4 doorverbind naar de expander, heb je dus 12 Gbit verbinding, en als je zoals op de 1e foto dubbel doorverbind, zelfs 24 Gbit naar je expander toe.

de expander zelf heeft dus 9 poorten (van 4x sata/sas per stuk), als je daarvan 2 als input, en 2 als output voor de volgende expander neemt, heb je nog 5 poorten om 20 schijven aan te hangen :)
(en in theorie maakt het niet uit wat je waar aansluit, het zou zichzelf allemaal moeten uitvissen. je kan ook 2 raid controllers in 2 computers hangen aan 1 expander, en dan kunnen ze allebei bij dezelfde schijf of array accessen)

[Voor 17% gewijzigd door AlexanderB op 13-11-2009 12:14]


  • Femme
  • Registratie: juni 1999
  • Laatst online: 22:22

Femme

Hardwareconnaisseur

Official Jony Ive fan

Brains schreef op vrijdag 13 november 2009 @ 10:34:
Ik snap door alle cijfers de getallen niet meer.

Raid-controller: 8x sas dmv 2x mini sas SFF-8087 (3Gb/s per poort)
Expander: 2x SFF-8087 in, 2x SFF-8087 uit, 5x SFF-8087 op de onderkant
Kabel: SFF-8087 naar 4x sata

Nu is het een 12 poorts expander maar de expander heeft 9 "aansluitingen". Hoe moet ik dit zien?
Vanuit de 5 aansluitingen aan de onderkant komen (op een bovenstaande foto) 36 sata stekkers. Krijgt elke "stekker" zijn eigen bandbreedte toegewezen afhankelijk van de in-uitsluitingen (1x of 2x 3Gb/s). Dus onder volle belasting ongeveer 0.08 of 0.16 Gb/s per "stekker"?
Het is een 36-poorts expander met (volgens) acht upstream 36 poorten naar de controller, acht downstream poorten voor het daisy chainen van sas expanders en 20 poorten om harde schijven op aan te sluiten.

Als je die 20 schijvenmaximaal zou belasten zou er 120MB/s bandbreedte per harde schijf zijn. De Adaptec-controller waar de TS mee aan de slag haalt is overigens niet in staat om 2,4GB/s aan data te verwerken vanwege de prestaties van de processor. De limiet ligt ca. 1,2GB/s. LSI Logic heeft een nieuwe generatie sas raid-adapters die 2,8GB/s kunnen lezen en 1,8GB/s kunnen schrijven.
Nu ben ik erg benieuwd naar de performace van een dergelijke oplossing. Het lijkt te mooi voor woorden: een mooie basis setup bouwen voor "nu" met 1 of 2 poorten naar buiten. Later uitbreidingen plaatsen naar behoren.
Sas wide ports schalen erg goed is mijn ervaring. Zie bijv. deze grafiek uit het eerder gelinkte artikel (acht 2,5 inch sas-schijven, wide-port van 600MB/s en perfecte scaling van de sequentiële doorvoersnelheid):

Wat is dit dan trouwens voor een beest: Areca ARC-1680ix-24 => 28 aansluitingen. Het lijkt erop dat Areca zelf een (soort van) expander module op zijn SAS-kaarten heeft. De kaarten kunnen ook "maar" 128 devices aanspreken, wat de maximale spanwijdte van een expander. Ik weet niet hoe het dan zit met de bandbreedte per poort/connector.
Voor zover ik weet gebruiken alle fabrikanten van sas raid-adapters op hun adapters met meer dan acht poorten een sas expander om het grotere aantal poorten te verkrijgen. Het maakt dus weinig uit of je een achtpoorts controller koopt met een losse expander of een dure 24-poorts kaart waar de expander al op zit. Het bespaart hooguit wat ruimte (en je bent verzekerd van compatibiliteit).

  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Als het goed is, komen ze daar door wat slimme negotiation uit... Mits ze allemaal aan de SAS standaard voldoen... Ze maken dus ook standaard gebruik van dubbele verbindingen enzo... Ik gok niet dat je loops kunt maken, maar misschien wel. Het voorbeeld in de switches hebben ze natuurlijk wel, maar ik gok dat dan ook een link wordt uitgeschakeld (zie ook spanning tree) maar ik heb geen flauw idee of dit bij SAS geimplementeerd is. Ik kan dit ook niet checken, aangezien ik geen 2de SAS expander heb die werkt.

Op de zaak ziet het er nu naar uit dat we naar een kast toe gaan met een ingebouwde expander backplane.. Ook leuk, maar niet voor een mini-kast, want de schijven zijn hier te ver uit elkaar (in hun hot-swap bays).

Ik hoop van het weekend alles in 1 kast te kunnen zetten bij mij thuis. Initieel zal ik 3x500Gig in JBOD hebben en nog een mix van 250Gbyte en 160Gbyte schijven. Die zullen langzamerhand vervangen worden door 1.5Tbyte schijven.

Idd, de dual-core 1.2Ghz adaptec controllers zijn gelimiteerd op 1.1Gbyte/sec... Maar als je het over servers hebt die dit soort data kunnen verwerken, dan hebben ze ook voldoende PCIe sloten, gewoon meer controllers inbouwen dus ;-)... Areca schijnt hier idd de kroon te spannen..

Mijn Atom ION met 80Gbyte 2.5" SATA en 5805 en SAS expander neemt 53Watt aan vermogen op als ie staat te idlen. Hier heb ik dan nog geen power-save op de processor aangezet, dus het kan zijn dat ik de 50 nog wel haal, met een beetje geluk. Waar zit het hem in? De ION gebruikt geloof ik bij idle al 35W (heel het moederbord), de Adaptec ~12W en de SAS expander schijnt 1.5A op 5V te gebruiken volgens de handleiding die ik heb ontvangen van Astekcorp. De rest is wel op de HD te gooien, 2.5" 80Gbyte zal enkele watten gebruiken.. Wel qua verwachting, maar toch hoger dan ik zou willen.. Maarja, c'est la vie.

Misschien ooit nog een AppleTV bouwen met PCIe1x adapter naar een Adaptec 2 serie kaart (alleen Raid0 en Raid1) met JBOD? ;-)

Het is trouwens mogelijk bestaande schijven zonder data-verlies naar JBOD schijven te migreren onder de Adaptec controller.

[Voor 54% gewijzigd door campr112 op 13-11-2009 18:06. Reden: extra info.]

Be more, use Linux.


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
@Femme: Hoe is die LSI aangesloten op de PCIe bus dan? Wat voor breedte? 1x is dacht ik 250Mbyte/sec dus dan is 8x 2Gbyte/sec. Hij zal dus wel een x16 aansluiting hebben, dat ding van LSI?

Het is iig een stuk beter dan de 133Mbyte/sec uit de PCI dagen :P

Be more, use Linux.


  • een_naam
  • Registratie: november 2000
  • Laatst online: 20-02-2012
campr112 schreef op vrijdag 13 november 2009 @ 17:52:
Als het goed is, komen ze daar door wat slimme negotiation uit... Mits ze allemaal aan de SAS standaard voldoen... Ze maken dus ook standaard gebruik van dubbele verbindingen enzo...

Op de zaak ziet het er nu naar uit dat we naar een kast toe gaan met een ingebouwde expander backplane.. Ook leuk, maar niet voor een mini-kast, want de schijven zijn hier te ver uit elkaar (in hun hot-swap bays).

Ik hoop van het weekend alles in 1 kast te kunnen zetten bij mij thuis. Initieel zal ik 3x500Gig in JBOD hebben en nog een mix van 250Gbyte en 160Gbyte schijven. Die zullen langzamerhand vervangen worden door 1.5Tbyte schijven.
Ik heb thuis een hele mooie Chenbro kast waar dat allemaal wel inpast



Chenbro levert voor deze kast ook backplanes met sas mogelijkheid zal wel wat kosten. alleen wel wat lomper als wat je eerst in gedachten had.

Mess with the best, die like the rest. amd64 X2 4400, a8v S939, 2G PC3200, x800 pro, 640G WD Raid 0 + 36G Raptor raid 0 +750Gb Seagate, CM Stacker, LACIE 1Tb 1394, Enermax 600W, Dell 2407, Draytrek 2600 802.11g, Evesham Athlon64, 1G pc2700 l


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
We gaan toch voor een SuperMicro, zo lijkt nu. Inclusief redundante voeding zo'n 1100 euro met in 3U ruimte voor 16 schijven (incl expander backplane). Chenbro is niet te krijgen bij onze normale leverancier, vandaar.

Be more, use Linux.


  • PeterPan
  • Registratie: oktober 2005
  • Laatst online: 21:18
campr112 schreef op vrijdag 13 november 2009 @ 20:10:
We gaan toch voor een SuperMicro, zo lijkt nu. Inclusief redundante voeding zo'n 1100 euro met in 3U ruimte voor 16 schijven (incl expander backplane). Chenbro is niet te krijgen bij onze normale leverancier, vandaar.
Welk type is dat?

  • Brains
  • Registratie: oktober 2006
  • Laatst online: 03-12 15:24
Van supermicro heb je de:
Supermicro CSE-836E1-R800V met CSE-PTJBOD-CB1 expander. Bij gigaserver staan ze op de site.
Kosten inderdaad rond de 1000 euro ex.

Hot swap is leuk, maar voor thuisgebruik eigenlijk overbodig. Ik heb een Chenbro tower met 2x 4x hot swap bay, die heeft (had) Femme ook. Lekker makkelijk op te bouwen maar ik heb nog nooit een hd gewisseld.... dus voor hier is het overkill (wel hoge pimp factor).

Waar ik naar kijk is een simpele SAN met 4 of 8 schrijven, die ik later eenvoudig en misschien zelfs "hot" kan uitbreiden. Een dergelijke expander lijkt mij daar uitermate geschikt voor. Maar dat is nog even toekomstmuziek. Zeker met de nieuwe lijn(en) SAS controllers die er in 2010 aankomen.

  • Femme
  • Registratie: juni 1999
  • Laatst online: 22:22

Femme

Hardwareconnaisseur

Official Jony Ive fan

campr112 schreef op vrijdag 13 november 2009 @ 18:10:
@Femme: Hoe is die LSI aangesloten op de PCIe bus dan? Wat voor breedte? 1x is dacht ik 250Mbyte/sec dus dan is 8x 2Gbyte/sec. Hij zal dus wel een x16 aansluiting hebben, dat ding van LSI?
De kaarten hebben een PCIe 2.0 interface met acht lanes, dus 4GB/s full duplex.

  • PeterPan
  • Registratie: oktober 2005
  • Laatst online: 21:18
Brains schreef op vrijdag 13 november 2009 @ 20:53:
Van supermicro heb je de:
Supermicro CSE-836E1-R800V met CSE-PTJBOD-CB1 expander. Bij gigaserver staan ze op de site.
Ik zie dat je naast de CSE-836E1, met 1 mini SAS connector ook nog een CSE-836E2 versie hebt met twee mini SAS connectors. Hoe gaat de verdeling dan over de disks als je een RAID controller gebruikt met twee mini SAS controllers, zoals campr112 hier met zijn Adaptec en SAS expander.
Of is dit puur voor fail-over met echte SAS disks. Uit de manual kom ik er niet helemaal uit helaas.

  • Q
  • Registratie: november 1999
  • Laatst online: 04-12 15:04
campr112 schreef op vrijdag 13 november 2009 @ 20:10:
We gaan toch voor een SuperMicro, zo lijkt nu. Inclusief redundante voeding zo'n 1100 euro met in 3U ruimte voor 16 schijven (incl expander backplane). Chenbro is niet te krijgen bij onze normale leverancier, vandaar.
Is die Norco RPC 4220 niet wat? Kost minder dan de helft. Moet je wel een passende redundante voeding vinden. Ruimte voor 20 drives. Werkt met 5xSAS backplanes.?

Vrijwel inactief


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Je hebt op het moment 2 series van Supermicro die 3U zijn met SAS expander backplane.. De 836 serie en de 936 serie.. de 936 is alle drives op een rij, de 836 is 4x4 patroon.

de 836 backplane: http://www.supermicro.com/manuals/other/BPN-SAS-836EL.pdf
de 936 backplane: http://www.supermicro.com/manuals/other/BPN-SAS-936EL.pdf

In de 936 doc is het pagine 3-2 die laat zien dat het mogelijk is vanuit dezelfde controller 2 lijnen aan te sluiten, maar of dit werkt met SATA schijven? Ik gok dat het alleen werkt met dual-port SAS schijven...

Wij zijn redelijk conservatief wat onze kasten/servers aangaat.. Alleen HP en Dell tot nu toe.. Het zou me al (blij) verbazen als ik supermicro binnenkrijg...

Waarom niet de Norco? De SAS kaart komt in een andere (poweredge 2800) server te hangen, dus als je dan 5 mini-SAS kabels naar de schivjenkast zou moeten brengen is dat een beetje zonde.. Vandaar dat ik graag een kast wil met SAS expanders.. Plus dat je dan gewoon kan doorlinken naar de volgende kast, het moet wel een beetje schaalbaar worden... ;) Ik heb lang&hard gezocht naar een kast waar je alleen schijven en een voeding in krijt kan (dus geen ruimte voor een moederbord). Tot nu toe nog niet gevonden. (Ik sta natuurlijk altijd open voor suggesties!)

Be more, use Linux.


  • PeterPan
  • Registratie: oktober 2005
  • Laatst online: 21:18
Ja, het lijkt erop dat het puur voor failover is. Dat zal wel aan het ontwerp van het backplane liggen. Mooi zou het zijn geweest als je d.m.v. een jumper kon kiezen tussen fail over of het verdelen van de twee (acht) channels over de drives (om en om of per rij o.i.d.).

  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Heb zelf nog even nagedacht over hoe ik de schijven aan ga sluiten.. Ik ben tot het volgende gekomen:
code:
1
2
3
4
5
6
7
8
Schijven         raid      netto
2                    1          1
3                    5          2
4                    6          2
5                    6          3
6                    6          4
7                    6          5
8                    6          6

Als het goed is, zou het mogelijk moeten zijn te migreren van Raid-1>5>6..
pvresize>lvresize>resize2fs zijn je vrienden...

Waarom raid-6? Als er een schijf kapot gaat, kan er nog wel eens redelijk wat tijd overheengaan voor ik een nieuwe schijf heb.. Ik zou ook hot-spare kunnen doen, maar dan doet de laatste schijf niks :(.. Raid5-EE misschien? Maar dan kan er volgens mij toch maar 1 schijf kapot.. Dat EE is alleen voor de performance van raid-5 toch?

Be more, use Linux.


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Wooohoooo... Vette shit...

Stap-1, na 3 minuten (2 schijven, raid-0):
code:
1
2
3
4
5
Event Description: Power management state changed to Reduced rpm: controller 1, connector 1, device 2, S/N Y6337MQE.
Event Type: Informational
Event Source: storage@NAS
Date: 11/15/2009
Time: 01:21:57 PM CET

Stap 2

code:
1
2
3
4
5
Event Description: Power management state changed to Powered off: controller 1, connector 1, device 2, S/N Y6337MQE.
Event Type: Informational
Event Source: storage@NAS
Date: 11/15/2009
Time: 01:42:00 PM CET


En als je dan weer iets wilt zien wat niet gecashed is:
code:
1
2
3
4
5
Event Description: Power management state changed to Full rpm: controller 1, connector 1, device 1, S/N Y6337MQE.
Event Type: Informational
Event Source: storage@NAS
Date: 11/15/2009
Time: 02:03:59 PM CET


Gebruik ging van 120W naar 100W (2 oude 250Gig 7200Toeren schijven in raid-0) Er zitten ook nog andere schijven aan de controller in JBOD die niet aan power-saving doen, vandaar het relatief hoge gebruik.

WOOOOOHOOOOOO! That's what I am talking about!

Binnenkort even de UPS eraan hangen met de RS232 en dan effe mooie grafiekjes maken van het power-verbruik.

Be more, use Linux.


  • LinuZZ
  • Registratie: januari 2004
  • Laatst online: 05-12 08:46
campr112 schreef op zaterdag 14 november 2009 @ 22:56:
Heb zelf nog even nagedacht over hoe ik de schijven aan ga sluiten.. Ik ben tot het volgende gekomen:
code:
1
2
3
4
5
6
7
8
Schijven         raid      netto
2                    1          1
3                    5          2
4                    6          2
5                    6          3
6                    6          4
7                    6          5
8                    6          6

Als het goed is, zou het mogelijk moeten zijn te migreren van Raid-1>5>6..
pvresize>lvresize>resize2fs zijn je vrienden...

Waarom raid-6? Als er een schijf kapot gaat, kan er nog wel eens redelijk wat tijd overheengaan voor ik een nieuwe schijf heb.. Ik zou ook hot-spare kunnen doen, maar dan doet de laatste schijf niks :(.. Raid5-EE misschien? Maar dan kan er volgens mij toch maar 1 schijf kapot.. Dat EE is alleen voor de performance van raid-5 toch?
nadeel van deze setup (raid 6 ipv raid 5 met HS) is dat je array de gehele tijd degraded is. performance is (theoretisch althans) beter als je array zo snel mogelijk weer heel is (Hot Spare) daarnaast, je bouwt de setup op een groei richting 10tallen? disks, dus lijkt me 1 disk tbv hot spare ook niet echt onmisbaar?

WKS01, SRV01, NBK01, HTPC01, HTPC02, HTPC03


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Dat met die degraded performance valt wel mee:



http://www.xbitlabs.com/a...raid-asr5805_8.html#sect0

Maar ik bedenkt me idd dat ik niet zoveel heb aan raid-6, raid-5 is net zo goed (performance is ietsje minder, maar het moet toch allemaal door een netwerk poort!)

Kan idd veel beter een 'global spare' nemen in de hoofdkast voor alle sub-kasten (moeten de schijven wel hetzlefde blijven) Dan ben ik maar 1x een disk kwijt (in totaal), en ook snel weer up&running.

code:
1
2
3
4
5
6
7
8
9
Hotspare modificatie
Schijven         raid      netto
2                    -           1
3                    1          1
4                    5          2
5                    5          3
6                    5          4
7                    5          5
8                    5          6

Update:

Nog even snel een updateje, ik draai nu al vanaf de voeding in de Multipack, trek ~100watt, het lijkt allemaal redelijk stabiel.. Ik heb ook even mrtg aangezet achter de UPS voor power-verbruik, en ook een grafiekje gemaakt van hoeveel schijven in power-save modus zitten. Ik had geprobeerd mijn 3x500Gig schijven te migreren naar Raid-5 door wat slimme verschuiving van data, maar heleaas de schijven doen het niet zo goed met de firmware van de Adaptec (hitachi schijven)... Dus die zijn 'gewoon' via de poorten op het moederbord aangesloten, waar ze zich een stuk beter voelen.. Gewoon als JBOD.

Ben er nu ook achter gekomen dat je een schijf die al data bevat gewoon kan migreren van JBOD>No_raid>raid. Best handig, zeker als je zoals ik, je schijven stuk-voor-stuk koopt en niet in 1x.

Be more, use Linux.


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
een_naam schreef op vrijdag 13 november 2009 @ 18:13:
[...]


Ik heb thuis een hele mooie Chenbro kast waar dat allemaal wel inpast


Chenbro levert voor deze kast ook backplanes met sas mogelijkheid zal wel wat kosten. alleen wel wat lomper als wat je eerst in gedachten had.
Had vroeger ook een rack in huis, met meerdere machines, de enige die daar echt blij van werdt was de Eneco.

Nu is alles gereduceerd tot een AppleTV en een NASje (buiten mijn Mac mini desktop met Ubuntu erop). Het lijkt erop dat de mac-mini binnenkort naar server gaat en ik een nieuwe mac-mini ga kopen... (die 9400M chipset is wel heel verlijdelijk).

Be more, use Linux.


  • LinuZZ
  • Registratie: januari 2004
  • Laatst online: 05-12 08:46
campr112 schreef op zondag 15 november 2009 @ 18:36:

Kan idd veel beter een 'global spare' nemen in de hoofdkast voor alle sub-kasten (moeten de schijven wel hetzlefde blijven) Dan ben ik maar 1x een disk kwijt (in totaal), en ook snel weer up&running.
gewoon zorgen dat je hot spare altijd de grootste is, kun je er altijd voor kiezen om bij een vervanging van de defecte schijf de oude HS weer als HS in te zetten dmv rebuild

WKS01, SRV01, NBK01, HTPC01, HTPC02, HTPC03


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Het coole is, de power-grafiek en de disk-actief grafiek komen redelijk overeen:



Bovenste is percentage load op 260W ups, onderste is hoeveel schijven (groen) en hoeveel hiervan in power-save zitten (blauw).. Op het mment zijn 50% van de schijven in staat power-saving te doen... Dat wordt binnenkort meer...

[Voor 31% gewijzigd door campr112 op 16-11-2009 01:15]

Be more, use Linux.


  • een_naam
  • Registratie: november 2000
  • Laatst online: 20-02-2012
campr112 schreef op zondag 15 november 2009 @ 18:41:
[...]


Had vroeger ook een rack in huis, met meerdere machines, de enige die daar echt blij van werdt was de Eneco.

Nu is alles gereduceerd tot een AppleTV en een NASje (buiten mijn Mac mini desktop met Ubuntu erop). Het lijkt erop dat de mac-mini binnenkort naar server gaat en ik een nieuwe mac-mini ga kopen... (die 9400M chipset is wel heel verlijdelijk).
Dit rack bij mij verbruikt niet veel hoor, ik heb een temperatuursensor in de kast gebouwd en alleen als de binnentemperatuur boven 29graden komt springen de fans van de kast aan 70W. Ik heb een energiezuinig moederboard en zuinige proc (X2 4850e 45W max) en schijven totaal verbruikt het maar +/- 80 Watt met 6 schijven (bij weinig load wat 99% van de tijd het geval is) exclusief switch die 30W verbruikt, wanneer ik niet veel download zet schakel ik de server s'nachts ook nog eens uit.
Voor thuisgebruik heb ik in ieder geval genoeg ruimte voor de toekomst in dat rack, zeker voor een SAS controller met een externe 2u 19" chenbro kast met een SAS expander vol met SSD's :9~ :9~

Mess with the best, die like the rest. amd64 X2 4400, a8v S939, 2G PC3200, x800 pro, 640G WD Raid 0 + 36G Raptor raid 0 +750Gb Seagate, CM Stacker, LACIE 1Tb 1394, Enermax 600W, Dell 2407, Draytrek 2600 802.11g, Evesham Athlon64, 1G pc2700 l


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Ok, eerste netwerk performance test, maar ik moet erbij zeggen dat hij niet onder ideale omstandigheden plaatsvond... Van mijn Raid-0 set van 2 schijven naar mijn 2.5" 7200toeren 320Gig schijf in mijn mac-mini (dus misschien was dat wel de bottleneck. En het is ook nog eens een huis-tuin en keuken Gbit switch (geen support for grote pakketen) Ik vind het resultaat toch wel imposant:
code:
1
2
3
4
5
6
ftp> get s-untouchables.mkv
local: s-untouchables.mkv remote: s-untouchables.mkv
200 PORT command successful.
150 Opening BINARY mode data connection for 's-untouchables.mkv' (4695406999 bytes).
226 Transfer complete.
4695406999 bytes received in 74.69 secs (61389.9 kB/s)


Gok dat het nog wel een stuk harder kan, heb alleen geen machine die het snel genoeg kan wegschrijven. Ik zag pieken van 89Mbyte/sec, maar ik denk dat de HD in de mac-mini het niet sneller kon verwerken...

Dus conclusie? Snel zat!

Be more, use Linux.


  • Q
  • Registratie: november 1999
  • Laatst online: 04-12 15:04
campr112 schreef op maandag 16 november 2009 @ 01:12:
Het coole is, de power-grafiek en de disk-actief grafiek komen redelijk overeen:
[afbeelding]
[afbeelding]

Bovenste is percentage load op 260W ups, onderste is hoeveel schijven (groen) en hoeveel hiervan in power-save zitten (blauw).. Op het mment zijn 50% van de schijven in staat power-saving te doen... Dat wordt binnenkort meer...
MRTG, maar hoe lees je het verbruik uit je UPS? Iets met apcupsd?

Vrijwel inactief


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
idd, MRTG heeft de mogelijkheid om scripts als input te gebruiken voor de meetwaarden.

mrtg.cfg:
code:
1
2
3
4
5
Title[ups]: UPS percentage load
PageTop[ups]: <H1>UPS percentage</H1>
Target[ups]: `/root/ups.sh` 
MaxBytes[ups]: 100
Options[ups]: growright, gauge

/root/ups.sh:
code:
1
2
3
4
5
PATH="/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
apcaccess |grep LOADPCT |cut -f5 -d" "
apcaccess |grep LOADPCT |cut -f5 -d" "
uptime
echo "UPS load percentage. Max load 260W (450VA)"



apcaccess is deel van het apcupsd pakket onder Debian.

[Voor 5% gewijzigd door campr112 op 18-11-2009 01:20]

Be more, use Linux.


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Ik gok dat ik ook aan staggered spinup moet gaan denken met de redelijk kleine vording die ik heb voor mijn kast.

Staggered spinup in SATA lijkt afhangkelijk te zijn van de power-connector die je op de schijf aansluit???!?!

Andere tweakers hebben hier al onderzoek naar gedaan:
Staggered spin-up aktiveren

Dus dat zal ik ook moeten doen, alle SATA power-coneectors aanpassen :|

Be more, use Linux.


  • Brains
  • Registratie: oktober 2006
  • Laatst online: 03-12 15:24
Dat verhaal over pin #11 is voor mij ook nieuw. Zelf gebruik een backplane van Chenbro waarop per backplane (ik dacht) twee molex connectoren aangesloten ziten. De schijven daarin starten netjes na elkaar op.

Een backplane kan het leed wat verlichten, alleen kost zoiets meer dan een bos kabeltjes.

  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Brains, ik gok dat de backplane het pin-11 SATA advies implementeerd. Kan je eens kijken in een lege slot? Ik zal het zeker gaan doen zodra wij onze supermicro backplane hebben.

Be more, use Linux.


  • Brains
  • Registratie: oktober 2006
  • Laatst online: 03-12 15:24
Ik kan eens in het boekje kijken en zal vanavond eens kijken op de backplane of er een pinnetje ontbreekt ;)
Maar inderdaad, op de backplane zullen meer snufjes zitten dan in een eenvoudige verloopkabel.

offtopic:
Zelf heb ik nu de gratis versie van open-e dds gedownload om het eea mee te experimenteren, ism met virtualisatie.

  • Q
  • Registratie: november 1999
  • Laatst online: 04-12 15:04
campr112 schreef op woensdag 18 november 2009 @ 01:18:
idd, MRTG heeft de mogelijkheid om scripts als input te gebruiken voor de meetwaarden.

mrtg.cfg:
code:
1
2
3
4
5
Title[ups]: UPS percentage load
PageTop[ups]: <H1>UPS percentage</H1>
Target[ups]: `/root/ups.sh` 
MaxBytes[ups]: 100
Options[ups]: growright, gauge

/root/ups.sh:
code:
1
2
3
4
5
PATH="/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
apcaccess |grep LOADPCT |cut -f5 -d" "
apcaccess |grep LOADPCT |cut -f5 -d" "
uptime
echo "UPS load percentage. Max load 260W (450VA)"



apcaccess is deel van het apcupsd pakket onder Debian.
Leuk. Ik ben meteen even command-line aan het scripten geslagen met apcaccess:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
#!/bin/bash
MODEL=`apcaccess | grep APCMODEL | cut -d ":" -f 2 | sed s/^\ //g`
LINE="-----------------------------"
echo "$LINE"
echo "UPS model: $MODEL"
echo "$LINE"
CAPACITY=`apcaccess | grep NOMPOWER | awk '{ print $3 }' `
printf '%s %11s %s\n' 'Capacity:' "$CAPACITY" 'Watt'
PERCENT=`apcaccess |grep LOADPCT |cut -f5 -d" " | cut -d "." -f 1`
printf '%s %15s %s\n' 'Load:' "$PERCENT" 'Percent'
WATT=$(( $CAPACITY * $PERCENT / 100 ))
printf '%s %14s %s\n' 'Usage:' "$WATT" 'Watt'
TIMELEFT=`apcaccess | grep TIMELEFT | awk '{ print $3 }' | cut -d "." -f 1` 
printf '%s %10s %s\n' 'Time left:' "$TIMELEFT" 'Minutes'
echo "$LINE"


Geeft deze output

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
-----------------------------
UPS model: Back-UPS RS 500 
-----------------------------
Capacity:         300 Watt
Load:              34 Percent
Usage:            102 Watt
Time left:         20 Minutes
-----------------------------

of

-----------------------------
UPS model: Back-UPS RS 1200 LC
-----------------------------
Capacity:         720 Watt
Load:              21 Percent
Usage:            151 Watt
Time left:         27 Minutes
-----------------------------

Vrijwel inactief


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Hmmm, niet alle UPSen van APC geven de feedback APCMODEL, maar alleen MODEL.
Mijn UPS geeft ook niks terug op NOMPOWER :-(

Dus ik heb je scriptje wat aangepast/verkloot:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
#!/bin/bash
MODEL=`apcaccess | grep APCMODEL | cut -d ":" -f 2 | sed s/^\ //g`
LINE="-----------------------------"
echo "$LINE"
echo "UPS model: $MODEL"
echo "$LINE"
CAPACITY=`apcaccess | grep NOMPOWER | awk '{ print $3 }' `
printf '%s %11s %s\n' 'Capacity:' "$CAPACITY" 'Watt'
PERCENT=`apcaccess |grep LOADPCT |cut -f5 -d" " | cut -d "." -f 1`
printf '%s %15s %s\n' 'Load:' "$PERCENT" 'Percent'
WATT=$(( $CAPACITY * $PERCENT / 100 ))
printf '%s %14s %s\n' 'Usage:' "$WATT" 'Watt'
TIMELEFT=`apcaccess | grep TIMELEFT | awk '{ print $3 }' | cut -d "." -f 1` 
printf '%s %10s %s\n' 'Time left:' "$TIMELEFT" 'Minutes'
echo "$LINE"


Nu werkt ie voor alle UPSen met 260W vermogen ;)

Dit is trouwens de output van mijn UPS:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
root@NAS:~# apcaccess 
APC      : 001,050,1232
DATE     : Wed Nov 18 23:47:39 CET 2009
HOSTNAME : NAS
RELEASE  : 3.14.4
VERSION  : 3.14.4 (18 May 2008) debian
UPSNAME  : UPS_IDEN
CABLE    : Custom Cable Smart
MODEL    : Smart-UPS 420   
UPSMODE  : Stand Alone
STARTTIME: Tue Nov 17 22:55:51 CET 2009
STATUS   : ONLINE 
LINEV    : 223.2 Volts
LOADPCT  :  32.5 Percent Load Capacity
BCHARGE  : 100.0 Percent
TIMELEFT :  12.0 Minutes
MBATTCHG : 5 Percent
MINTIMEL : 3 Minutes
MAXTIME  : 0 Seconds
MAXLINEV : 223.2 Volts
MINLINEV : 218.8 Volts
OUTPUTV  : 223.2 Volts
SENSE    : High
DWAKE    : 000 Seconds
DSHUTD   : 020 Seconds
DLOWBATT : 02 Minutes
LOTRANS  : 208.0 Volts
HITRANS  : 253.0 Volts
RETPCT   : 000.0 Percent
ALARMDEL : 5 seconds
BATTV    : 13.9 Volts
LINEFREQ : 50.0 Hz
LASTXFER : Line voltage notch or spike
NUMXFERS : 1
XONBATT  : Wed Nov 18 22:14:58 CET 2009
TONBATT  : 0 seconds
CUMONBATT: 6 seconds
XOFFBATT : Wed Nov 18 22:15:04 CET 2009
SELFTEST : NO
STESTI   : 336
STATFLAG : 0x07000008 Status Flag
REG1     : 0x00 Register 1
REG2     : 0x00 Register 2
REG3     : 0x00 Register 3
MANDATE  : 09/29/99
SERIALNO : NS9940260569
BATTDATE : 09/29/99
NOMOUTV  : 230 Volts
NOMBATTV :  12.0 Volts
FIRMWARE : 21.4.I
APCMODEL : DWI
END APC  : Wed Nov 18 23:48:18 CET 2009


En dat geeft deze info:
code:
1
2
3
4
5
6
7
8
-----------------------------
UPS model: Smart-UPS 420   
-----------------------------
Capacity:         260 Watt
Load:              28 Percent
Usage:             72 Watt
Time left:         13 Minutes
-----------------------------


WOOOHOO, maar 72 Watt! Hoe accuraat is zo'n UPS eigenlijk in het meten van vermogen?

Be more, use Linux.


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Yeeehaaww... 98.3 MB/s

Toch nog een trrukje gevonden om de snelheid van ftp te testen, zonder dit van de lokale harddisk af te laten hangen. de truuk is om de output van 'wget' naar /dev/null te sturen, zoals in het volgende voorbeeld:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
root@campr-desktop:~# wget --output-document=/dev/null --ftp-user=<USER> --ftp-password=<PASSWORD> ftp://nas//media/disk1/HD/groundhog_day_720p/groundhog.day.1993.720p.hdtv.x264-hv.mkv
--2009-11-19 00:20:46--  ftp://nas//media/disk1/HD/groundhog_day_720p/groundhog.day.1993.720p.hdtv.x264-hv.mkv
           => `/dev/null'
Resolving nas... 192.168.1.74
Connecting to nas|192.168.1.74|:21... connected.
Logging in as USER ... Logged in!
==> SYST ... done.    ==> PWD ... done.
==> TYPE I ... done.  ==> CWD /media/disk1/HD/groundhog_day_720p ... done.
==> SIZE groundhog.day.1993.720p.hdtv.x264-hv.mkv ... 4695537432
==> PASV ... done.    ==> RETR groundhog.day.1993.720p.hdtv.x264-hv.mkv ... done.
Length: 4695537432 (4.4G)

100%[=================================================================================================================================================================================================>] 4,695,537,432  103M/s   in 46s     

2009-11-19 00:21:32 (98.3 MB/s) - `/dev/null' saved [4695537432]


Yeah baby.. En dat nog zonder Jumbo packets.. WTF? Ik dacht altijd dat dit soort snelheden niet mogelijk waren zonder Jumbo pakketjes.. Nog even de setup:


Server: Atom 330 1.6Ghz 1Gbyte mem met Adaptec 5805 (512Mbyte cache) en 2x250Gbyte 7200toeren WD schijven. OS: Ubuntu 9.04
Client: Mac-mini Intel Core2 CPU T5600 @ 1.83GHz, 4Gbyte mem.
Switch: TP-Link TL-SG1008D

[edit]
SMB/CIFS is dan weer wat langzamer, maar nog steeds relatief respectabel:
code:
1
2
root@desktop:~# smbget -u USER -p PASSWORD -O smb://nas/USER/groundhog.day.1993.720p.hdtv.x264-hv.mkv > /dev/null
[groundhog.day.1993.720p.hdtv.x264-hv.mkv] 592.65Mb of 4.37Gb (13.23%) at 42.33Mb/s ETA: 00:01:31

Transfers lagen tussen 40 en 50Mbyte/sec
smb process wat op 30% spu tijd op het NAS. (atop:)
code:
1
cpu | sys     22% | user      3% | irq      13% | idle     49% | cpu000 w 12% |

Dus ik weet even niet waar de bottleneck nu ligt, want ik weet dat de schijf het kan en het netwerk snel genoeg is (zie ftp)

[Voor 16% gewijzigd door campr112 op 19-11-2009 00:54]

Be more, use Linux.


  • PeterPan
  • Registratie: oktober 2005
  • Laatst online: 21:18
Kun je aan CIFS/SAMBA niet redelijk veel tweaken in de config file?
Zou FTP of CIFS copy naar een null device ook werken onder Windows?

  • Femme
  • Registratie: juni 1999
  • Laatst online: 22:22

Femme

Hardwareconnaisseur

Official Jony Ive fan

Ik haal met mijn Atom 330 met Ubuntu en een dikke Areca-controller ook snelheden van rond de 42MB/s bij het kopieëren van redelijk grote bestanden van enkele honderden megabytes. De snelheid zakt flink in als er zeer grote bestanden worden gekopieerd zoals lossless compressed video's van 90GB. Het systeem is dan ook totaal niet meer responsief. Een simpel commando zoals het opvragen van de inhoud van een directory kan tien seconden of langer duren. Ik ben er nogal teleurgesteld in en heb de oorzaak nog niet gevonden. Ik gebruik overigens xfs als bestandsssyteem (ext4 was naar een dag al corrupt dus dat heb ik maar laten zitten).

  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Femme, als je Vista of Windows 7 als client gebruikt, kan je ook voor SMBv2 gaan (nog geen ervaring mee onder Linux, men zegt (hier en daar gehoord) dat het een stuk sneller zou moeten zijn.).

Voor Linux clients gebruik ik 'gewoon' NFS... Supersnel, vergelijkbaar met FTP.

PeterPan: Weet niet of windows wel een 'null' file heeft.. Geen flauw idee.. Ben geen windoze beheerder, heb het zelfs niet meer in huis. Woohoo... O-) Een alternatief is een ram-drive.. Moet je wel een redelijk grote maken, een ramdrive van 100Mbyte is te snel vol ;-)
En over het tunen van samba/cifs op Linux, het zal wel mogelijk zijn, maar met welk doel? Het enige wat ik doe via Samba is de buurman toegang verlenen tot mijn film collectie.. En die mag ook wel even wachten op zijn filmpje... ;-)

Maar nu echt even pitten :z

[Voor 7% gewijzigd door campr112 op 19-11-2009 01:40]

Be more, use Linux.


  • PeterPan
  • Registratie: oktober 2005
  • Laatst online: 21:18
campr112 schreef op donderdag 19 november 2009 @ 01:38:En over het tunen van samba/cifs op Linux, het zal wel mogelijk zijn, maar met welk doel? Het enige wat ik doe via Samba is de buurman toegang verlenen tot mijn film collectie.. En die mag ook wel even wachten op zijn filmpje... ;-)
Om te kijken of je in de buurt kunt komen van je FTP score natuurlijk!

  • Q
  • Registratie: november 1999
  • Laatst online: 04-12 15:04
campr112 schreef op woensdag 18 november 2009 @ 23:50:
Hmmm, niet alle UPSen van APC geven de feedback APCMODEL, maar alleen MODEL.
Mijn UPS geeft ook niks terug op NOMPOWER :-(

Dus ik heb je scriptje wat aangepast/verkloot:
Bedankt voor de tip. Ik ben even gaan googlen op verschillende output van apcaccess en het script fors verbeterd.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
#!/bin/bash
APCACCESS=/sbin/apcaccess
CAPACITY="$1"

MODEL=`$APCACCESS | grep -w MODEL | cut -d ":" -f 2 | sed s/^\ //g`
APCMODEL=`$APCACCESS | grep -w APCMODEL | cut -d ":" -f 2 | sed s/^\ //g`

if [ -z "$MODEL" ] && [ -z "$APCMODEL" ]
then
    MODEL="UNKNOWN"
elif [ -z "$MODEL" ] && [ ! -z "$APCMODEL" ]
then
    MODEL="$APCMODEL"
fi

LENGTH=$(( ${#MODEL} + 13 ))
LENGTHAPC=$(( ${#APCMODEL} + 13 ))

if [ "$LENGTH" -lt "$LENGTHAPC" ]
then
    LENGTH="$LENGTHAPC"
fi

LINE="--------------------------------------------------------------"
echo "${LINE:0:$LENGTH}"
echo "UPS model: $MODEL"

if [ ! -z "$APCMODEL" ]
then
    echo "APC model: $APCMODEL"
fi

echo "${LINE:0:$LENGTH}"
if [ -z "$CAPACITY" ]
then
    CAPACITY=`$APCACCESS | grep -w NOMPOWER | awk '{ print $3 }' `
    if [ -z "$CAPACITY" ]
    then
        for x in $MODEL $APCMODEL
        do
            STRING=`echo $x | grep -e [0-9] | sed 's/[A-Za-z]*//g'`
            if [ ! -z "$STRING" ]
            then
                CAPACITY=$(( ( $STRING * 60) / 100 ))
                break
            fi
        done
        if [ -z "$CAPACITY" ]
        then
            echo "Cannot determine capacity of UPS. Please specify:"
            echo "Syntax: $0 <watt>"
            echo "Example: $0 300"
            exit 1
        fi
    fi
fi

printf '%s %11s %s\n' 'Capacity:' "$CAPACITY" 'Watt'
PERCENT=`$APCACCESS |grep LOADPCT | awk '{ print $3 }' | cut -d "." -f 1`
echo $PERCENT | grep -e [0-9] >> /dev/null 2>&1
if [ "$?" == "0" ]
then
    printf '%s %15s %s\n' 'Load:' "$PERCENT" 'Percent'
    WATT=$(( $CAPACITY * $PERCENT / 100 ))
    printf '%s %14s %s\n' 'Usage:' "$WATT" 'Watt'
else
    printf '%s %15s %s\n' 'Load:' "0" 'Percent'
    printf '%s %14s %s\n' 'Usage:' "0" 'Watt'
fi
    
TIMELEFT=`$APCACCESS | grep TIMELEFT | awk '{ print $3 }' | cut -d "." -f 1` 
printf '%s %10s %s\n' 'Time left:' "$TIMELEFT" 'Minutes'
STATUS=`$APCACCESS | grep -w STATUS | awk '{ print $3 }'` 
if [ ! -z "$STATUS" ]
then
    printf '%s %13s %s\n' 'Status:' "$STATUS"
fi
echo "${LINE:0:$LENGTH}"


Of ter download hier:

code:
1
2
3
4
5
6
7
8
9
10
-----------------------------
UPS model: Back-UPS RS 500 
APC model: Back-UPS RS 500 
-----------------------------
Capacity:         300 Watt
Load:              10 Percent
Usage:             30 Watt
Time left:         61 Minutes
Status:        ONLINE 
-----------------------------

[Voor 5% gewijzigd door Q op 19-11-2009 23:04]

Vrijwel inactief


  • Q
  • Registratie: november 1999
  • Laatst online: 04-12 15:04
Femme schreef op donderdag 19 november 2009 @ 01:23:
Ik haal met mijn Atom 330 met Ubuntu en een dikke Areca-controller ook snelheden van rond de 42MB/s bij het kopieëren van redelijk grote bestanden van enkele honderden megabytes. De snelheid zakt flink in als er zeer grote bestanden worden gekopieerd zoals lossless compressed video's van 90GB. Het systeem is dan ook totaal niet meer responsief. Een simpel commando zoals het opvragen van de inhoud van een directory kan tien seconden of langer duren. Ik ben er nogal teleurgesteld in en heb de oorzaak nog niet gevonden. Ik gebruik overigens xfs als bestandsssyteem (ext4 was naar een dag al corrupt dus dat heb ik maar laten zitten).
Bedankt dat je dit getest hebt. Want dit is precies waar ik bang voor was met die Atom processortjes, verder niets ten kwade van die dingen. Het is inderdaad niet gezegd dat het echt de performance van de Atom is, maar dat lijkt me wel waarschijnlijk. Bij hele grote bestanden zou het nog wel eens een bug in SMB kunnen zijn?

Vrijwel inactief


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
hmmm, het zou ook nog kunnen dat het aan de client-implementaties ligt. Ik heb zelf geen Vista/7 client, maar zou het hele zooitje weleens willen zien werken met SMBv2. (met linux als server, uiteraard).

Mogelijk dit weekend eens naar kijken.... Heb nog een Xeon quad-core staan die relatief weinig te doen heeft (ding trekt gewoon teveel stroom om hem aan te zetten ;))

Ik zal de volgende parameters ook even proberen:
TCP_NODELAY SO_RCVBUF=8192 SO_SNDBUF=8192 IPTOS_LOWDELAY

We zullen het zien...

[Voor 15% gewijzigd door campr112 op 20-11-2009 01:26]

Be more, use Linux.


  • grizzlybeer
  • Registratie: juli 2000
  • Niet online
Als je je NAS voornamelijk gebruikt als opslag voor 1 werkstation is het wellicht interessant om Infiniband te gebruiken. Dit geldt natuurlijk alleen voor een NAS met minimaal 3-4 schijven in RAID5, anders wordt de snelheid te veel beperkt door de schijven.

Met GbE is het altijd een heel gedoe om boven de 40-50 MB/s uit te komen (ik haal dat overigens bij lange na niet tussen twee XP machines die beide uitgerust zijn met Intel GbE).

De combinatie ZFS en Infiniband lijkt me perfect. Met 4 of 5 schijven in RAIDZ moet je makkelijk meer dan 300 MB/s sustained kunnen halen en dan ben je nog niet beperkt door de 10 Gb/s van infiniband (goedkoopste versie). Twee Infiniband kaarten en een kabel kan je krijgen (nieuw) voor $300 (Amerikaanse prijzen dus ex. BTW).

  • Q
  • Registratie: november 1999
  • Laatst online: 04-12 15:04
Alsje niet 100 MB/s weet te halen met een nas met 4/5 schijven klopt er iets niet. Onder Vista haalde ik al prima 100 MB/s met een enkele verbinding met mijn NAs. Met een laatste debian update (vermoed ik) is dat wat ingezakt, maar wat dat nu weer is weet ik niet want met 2 parallelle transfers trek ik gigabit wel vol. Crappy open source software ook... ;)

Infiniband klinkt wel erg interessant. Waarschijnlijk de enige optie op dit moment die betaalbaar is om voorbij gigabit snelheden te komen.

[Voor 8% gewijzigd door Q op 27-11-2009 20:50]

Vrijwel inactief


  • PeterPan
  • Registratie: oktober 2005
  • Laatst online: 21:18
idd een beetje vreemd. Je hoef echt geen NASA systeem te bouwen om 60~80MB/s te halen via Gigabit Ethernet, zelfs met CIFS/SMB1. Misschien heb je niet de fijnste Ethernet controllers (Realtek? Die schijnen niet echt super te presteren).

Infiniband klinkt wel interessant overigens, daar ga ik eens op Wikipediaen.

  • DJ-Visto
  • Registratie: maart 2009
  • Laatst online: 04-12 20:02

DJ-Visto

Aye aye, sir!

En hoe staat het er inmiddels mee? Ik wil graag pica's prestaties, en het koste plaatje.. Kan ik tenminste verder dromen :P

  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Performance? Ja wat moet ik zeggen? Hij pakt spullen sneller uit dan dat ie ze kan downloaden. Tegelijk kan ik ook nog een fimpje kijken. Dus voor mij snel zat (ik heb geen specifieke aantallen).

Het nadeel is van infiniband, 10G ethernet enz enz is dat ik nog een slot nodig zou moeten hebben. Het bord is mini-itx en er is geen extra slot voor dit soort dingen. Mijn client-PC kan het toch niet veel sneller verwerken...

De bottleneck is ook niet Gbit ethernet, maar de efficiency van het SMB protocoll op een 'langzame' CPU.

Kostenplaatje? Al vaak genoeg aan bod gekomen, dacht ik zo.. Ga je maar even lezen.

@Grizzlybeer.. Infiniband nieuw kopen is dom. Kijk eens op Ebay.. Heb je 2 kaarten en een kabel voor 150 euro (of minder). Of als je toch al bezig bent, koop een moederbord van SuperMicro.. Kan je voor 50 Euro opprijs Infiniband of 10G ethernet voor krijgen.. Ik zou trouwens zelf kiezen voor 10G ethernet.. Infiniband switches zijn wat duur als je later uit wilt breiden... En 10Gbit ethernet komt nog wel voor 'normale' switches.. Ooit (dus volgend jaar ofzo).

Zal binnenkort fotos maken...

[Voor 28% gewijzigd door campr112 op 20-12-2009 16:31]

Be more, use Linux.


  • Brains
  • Registratie: oktober 2006
  • Laatst online: 03-12 15:24
Hoe is de performatie van de Atom CPU?

Ik heb hier nog een Open-E iSCSI dom liggen en wil graag een "low power" SAN daarvan maken. Nu heb ik nog een machine staan waar ik XenSource op heb draaien, daar zit nog een Areca 1220 in. Die machine wil ik opsplitsen in een SAN en virtualisatie machine. Nu vraag ik me af hoeveel CPU en geheugen ik daarvoor nodig heb om toch gigabit lan vol te krijgen. Volgens de spec heb je minimaal 3 GHz Pentium IV cpu en 1gb ram nodig. Zou een dual core Atom dit kunnen verwerken?

Oja... heb je met kerst tijd voor foto's ;)

[Voor 4% gewijzigd door Brains op 01-02-2010 12:44]


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Tja ik krijg met 'simpele' protocollen zoals FTP en NFS gewoon de Gbit vol... Met SMB lukt dat niet... Maar dan moet je wel bedenken dat SMB zeer inefficient is, en maar 1 core tegelijk kan gebruiken.. Nou is mijn Atom Dual-core en heeft Hyperthreading. Daar wordt dus geen gebruik van gemaakt.. Ik zal binnenkort even onder Linux een iSCSI initiator aanmaken, kijken hoe ver we komen (1ste keer met iSCSI).

Geduld nog met de fotos, ben nog op vakantie, en dan duurt het wel weer een weekje om op vlieghoogte te komen. Zo rond de 15de hoop ik fotos te kunnen maken (en posten natuurlijk).

Be more, use Linux.


  • Quindor
  • Registratie: augustus 2000
  • Laatst online: 17-11 11:23

Quindor

Switching the universe....

Oude thread uit de sloot.

Jammer dat de maker van de thread er nooit meer mee is verder gegaan. Vond het een heel erg interessant topic namelijk!

Wellicht tijd voor een update?

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, Mijn vakantie CampZone


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Doorgaan?

Het project is afgerond, het NAS draait. Wat is er nog om over door te gaan?

NAS v1.2:
2.5" 1Tbyte schijfjes (10x) pricewatch: Western Digital Scorpio Blue, 1TB SATA-300, 8MB, 5200rpm
Kontron pITX moederbordje: http://benelux.kontron.co...c/pitx+25+sbc/pitxsp.html
2x een SATA Multiplier: http://www.addonics.com/products/host_controller/ad5sapm.asp
En dat allemaal met een voeding van 10A, 5V (voor het opspinnen).

Zou als een tierelier moeten lopen. (2x schijf opgeven voor software raid-5 per SATA kanaal) 8Tbyte Netto storage voor ~30-40Watt. Stil, klein.. Gbit aansluiting, passief gekoeld (mogelijk denk ik) Wat wil je nog meer? Kan tot 5Watt gebruiken als alle schijven uit staan en alleen het MBtje nog aanstaat (power-save mode).

Ga ik hem bouwen? Nee, te duur. Eerste kosten projectie: ~1200-1400 euro.. Schijven 134E/stuk, Moederbordje ~250E, SATA Multipliers, 80E/stuk Voeding: ??E/stuk (op Ebay voor 20E gezien) en je moet ook nog een mooi kastje bouwen/kopen.

Ik heb nu een NAS die goed werkt (lees de thread maar even door) er goed uitziet (Lekker retro SUN/Oracle hardware kast) en precies voeldoet aan de eisen die ik gesteld heb.

Be more, use Linux.


  • campr112
  • Registratie: december 2001
  • Laatst online: 02-12 17:42
Komtie!

Nieuwe NAS (v1.2a) aan het bouwen als POC (Proof of concept).

Eisen:
Laaaaaag power verbruik (onder 10W, zo mogelijk, incl HDs!).
Ruimte 1-2Tbyte, geen RAID.
10/100(/1000) netwerk aansluiting.
Systeemschijf anders dan download/opslag schijf.
Hij wordt vooral gebruikt voor het downloaden vanaf nieuwsgroepen

Bedachte oplossing:
De initiële oplossing was om een Kontron bordje te gebruiken met een SD kaartje en 10x SATA HDs. Dit bordje is passief gekoeld en trekt 5W. Deze oplossing is vrij duur, heb bordje zelf kost al ~€200. Ik zocht een manier om het wat goedkoper te bouwen, en dan mogelijk later nog deze manier kiezen.

Te realiseren oplossing (de POC)
Na wat streuning in mijn onderdelen bak, kwam ik nog het volgende tegen:

Wafer 5825 3.5" SBC met een NS Geode processor Specs hier. Deze heeft wel 'maar' 100Mbit. :( Maar voor de POC zou het genoeg moeten zijn.

Externe HD voeding met 12V 1A en 5V 2A met een Molex connector.

Transcend Flashdrive met 44-pins aansluiting: http://tweakers.net/price...end-ts1gdom44v-s-1gb.html

Het volgende is nog besteld op Inet:

2x 640Gbyte 2.5" drive. (100€ totaal)

PCMCIA to SATA 'converter' (15€ op Ebay)

Wat heb ik als ik helemaal klaar ben?:
1Gbyte om een NAS OSje op te installeren met SABnzbd.
1.2Tbyte (Raid-0) storage voor het downloaden en uitpakken van 'downloads'.
~17W totaal opgenomen vermogen.
Passieve koeling.

Wat verwacht ik?:
  • De drives uit te kunnen zetten als ze niet gebruikt worden, om het opgenomen vermogen naar 10W te laten zinken.
  • Een "magic packet" te kunnen sturen naar mijn grote NAS om deze wakker te maken zodat ik de films daar heen kan kopiëren, en dan weer in Hibernate te zetten zodra het kopiëren klaar is. (voor nog minder vermogens-opname). De films blijven nog op het kleine NAS staan, totdat ik ze gekeken heb, dan worden ze met de hand weggehaald, in de wetenschap dat ze nog op mijn grote NAS staan.
Conclusie:
Mits dit allemaal werkt (en hij performed redelijk zoals ik wil) ga ik voor de echte v1.2 toch het Kontron bordje bestellen met 2x 1Tbyte om mee te beginnen. Zodra dat werkt komt er een SATA multiplier en gaan we richting de 10 drives (met 2x SSD voor downloaden en uitpakken, zodat de normale drives alleen maar aan staan in geval van archieffunctie) Netto storage: 7 Tbyte (8 drives, software RAID-5) en ~60 Gbyte (2x 30G SSD) in software RAID-0. Totaal opgenomen vermogen in normale download stand, 9-10W (moederbord (5W) en 2x SSD (2x2W)), hopelijk. Koeling zal niet nodig zijn, aangezien dit allemaal passief gekoeld kan worden. Zit er wel over na te denken om dit allemaal in een mooie plexiglas kast (custom) te zetten met wat blauwe LED's voor de mooi.

Be more, use Linux.

Pagina: 1 2 Laatste


Nintendo Switch (OLED model) Apple iPhone 13 LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S21 5G Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True

Tweakers maakt gebruik van cookies

Bij het bezoeken van het forum plaatst Tweakers alleen functionele en analytische cookies voor optimalisatie en analyse om de website-ervaring te verbeteren. Op het forum worden geen trackingcookies geplaatst. Voor het bekijken van video's en grafieken van derden vragen we je toestemming, we gebruiken daarvoor externe tooling die mogelijk cookies kunnen plaatsen.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Forum cookie-instellingen

Bekijk de onderstaande instellingen en maak je keuze. Meer informatie vind je in ons cookiebeleid.

Functionele en analytische cookies

Deze cookies helpen de website zijn functies uit te voeren en zijn verplicht. Meer details

janee

    Cookies van derden

    Deze cookies kunnen geplaatst worden door derde partijen via ingesloten content en om de gebruikerservaring van de website te verbeteren. Meer details

    janee