Acties:
  • 0 Henk 'm!

  • Shuriken
  • Registratie: November 1999
  • Laatst online: 26-08 12:33

Shuriken

Life is all about priorities

campr112 schreef op vrijdag 23 oktober 2009 @ 14:09:
[...]


Maar dit is 'gewoon' een micro-ATX kast, die zijn er per dozijn. Probleem met deze kasten is dat het 'gewone' mini-tower kasten zijn en dus:
1. Niet genoeg ruimte hebben voor schijven
2. Veel ruimte verloren gaat bij het monteren van een mini-itx moederbord die je niet meer terug kan winnen voor de montage van drives.

Wat ik zocht was wat meer de NAS richting op. Intel maakt wel iets leuks:
http://download.intel.com...0-e/sb/ss4200e_tps_11.pdf
Maar daar kan je weer geen hardware RAID in kwijt (of iig heel moeilijk) en hij heeft maar 4 schijven. En er zit ook geen HDMI output op.

Het verbaasd me ook dat nog niemand een kast hiervoor heeft gemaakt, lijkt me toch een redelijk marktje, aangezien de NAS oplossingen die er zijn toch vrij duur zijn, en er relatief goedkope alternatieven zijn met open-source software (of zelfs windows home server).

Rob
De markt richt zich op NAS systemen met max 3 schijven. Wat voor de doorsnee gebruiker natuurlijk meer dan genoeg is. Dat jij het nodig vindt om het systeem met veel meer vol te proppen, betekend natuurlijk niet dat daar automatisch een markt voor is :9.

Mijn eigen systeempje is gebaseerd op een Silverstone Sugo welke al voldoende ruimte heeft voor 5 x 3,5 schijven.

I rather have a bottle in front of me, then a frontal lobotomie


Acties:
  • 0 Henk 'm!

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 09-09 15:49
Afaik is de antec P180 mini wel een goede oplossing dan. Kan een mATX bord is en een sh*tload aan schijven. Anders is een barebone een goede optie zoals Shuriken al vermeldde.
EDIT: Asus TM-22.

[ Voor 5% gewijzigd door Jormungandr op 24-10-2009 01:05 ]


Acties:
  • 0 Henk 'm!

  • STolsma
  • Registratie: December 2008
  • Laatst online: 07-09 17:57
Ik heb een NAS samengesteld maar zou graag input willen op onderstaande? Moet een energie zuinige NAS worden voor:

- Email client
- Muziek stream (flac, mp3)
- HD film stream
- Torrent
- File storage

Ik wil gaan voor een RAID 5 voor de extra security en de OS zal windows 7 worden.

Eigenlijk twijfel ik nog steeds het meest over het moederboard in mitx formaat en of dit wel snel genoeg zal zijn (en of het wel juiste geheugen is voor dit moederboard). Speciaal voor dit board gekozen vanwege pci-e en de HW raid controller.

Het OS gaat op een losse drive die ik nog heb. Dus die hoef ik niet te bestellen

#ProductPrijsSubtotaal
1Antec Performance One Mini P180 Wit€ 57,66€ 57,66
1be quiet! Pure Power L7 300W€ 29,95€ 29,95
1Kingston HyperX KHX6400D2/2G€ 34,60€ 34,60
1Supermicro X7SLA-H-O (MBD-X7SLA-H-O)€ 140,49€ 140,49
4Western Digital Caviar Green WD15EADS, 1.5TB€ 88,90€ 355,60
ImporterenTotaal€ 618,30

[ Voor 39% gewijzigd door STolsma op 24-10-2009 15:56 ]


Acties:
  • 0 Henk 'm!

  • jayvol09
  • Registratie: Augustus 2009
  • Laatst online: 02-09-2020
timskiej schreef op donderdag 22 oktober 2009 @ 13:09:
Is er een kleine behuizing waar een Atom moederbord met PCI kaart (SATA controller) in past en vier harde schijven? Een standaard ATX case is een optie maar is veel te groot. En ITX behuizingen hebben maar max 1 of 2 plaatsen voor HDD's.
De Asus TS-6A of een Aopen H340A. Ook minitowers zat denk ik.

"Between the weak and the strong one it is the freedom which oppresses and the law that liberates" [Jean Jacques Rousseau]


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Win7 bevalt me op het moment goed want de filetransfer gaat nu toch wel een stukje sneller en stabieler.
Afbeeldingslocatie: http://triep.eu/img/nas%20naar%20win7.png

En zoals je aan de tijdsbalk ziet is het niet iets van de 1e secondes maar pas na een paar GB de screenshot gemaakt. (piek was 120MB/s laagste 105MB/s)
Verder scheelt een lege hdd natuurlijk ook wel als daar je data op wordt geschreven (Samsung F1)
Dit is van NAS naar Client 1:1 gbit verbinding over Cat5 soepel :X

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 21:39
Die snelheden weet ik ook te halen met Vista over gigabit. Dus waarom mensen altijd zo negatief zijn/waren wat dit betreft over Vista weet ik niet. Of heb ik mazzel gehad? Overigens haal ik windows 7 wel een keer, het kan er alleen maar beter op worden.

[ Voor 32% gewijzigd door Q op 24-10-2009 18:21 ]


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Bij mijn Vista install kwam ik nooit verder dan 90MB/s als piek en meestal zakte het dan terug naar 70 a 65MB/s
Verder overigens geen problemen met Vista dus ik snap ook niet waarom mensen negatief zijn.
Morgen ga ik nog een keer testen omdat ik dan weer wat meer software erop heb staan ;) En de rest van me netwerk is nu ook up and running dus misschien dat daar iets mis ging ;)

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • STolsma
  • Registratie: December 2008
  • Laatst online: 07-09 17:57
klaasbram schreef op zaterdag 24 oktober 2009 @ 18:31:
Bij mijn Vista install kwam ik nooit verder dan 90MB/s als piek en meestal zakte het dan terug naar 70 a 65MB/s
Verder overigens geen problemen met Vista dus ik snap ook niet waarom mensen negatief zijn.
Morgen ga ik nog een keer testen omdat ik dan weer wat meer software erop heb staan ;) En de rest van me netwerk is nu ook up and running dus misschien dat daar iets mis ging ;)
Misschien interessant om eens te lezen:

http://www.smallnetbuilde...-the-vista-sp1-difference

Acties:
  • 0 Henk 'm!

  • daan08
  • Registratie: Augustus 2008
  • Laatst online: 05-07-2023

daan08

PEBKAC

Even een vraag tussendoor, ik ben mijn NAS aan het bouwen en moet nog het besturingssysteem kiezen.
Nu heb ik Windows 7, XP en Mac OSX machines die eraan gekoppeld worden. Welk filesystem kan ik het beste voor mijn storage gebruiken?

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 21:39
Je filesystem maakt niets uit.

Acties:
  • 0 Henk 'm!

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 11-09 14:18
bulldoze schreef op zondag 25 oktober 2009 @ 13:45:
Even een vraag tussendoor, ik ben mijn NAS aan het bouwen en moet nog het besturingssysteem kiezen.
Nu heb ik Windows 7, XP en Mac OSX machines die eraan gekoppeld worden. Welk filesystem kan ik het beste voor mijn storage gebruiken?
:? Het hele idee van een NAS is dat het hele filesystem wordt geabstraheerd door een TCP/IP laag en de daaropliggende applicatielaag. Oftewel, als je bijvoorbeeld SMB/CIFS gebruikt maakt het voor de clients helemaal niet uit wat voor filesystem of OS er draait. De client hoeft dan alleen samba te kunnen 'praten'.

Kies het OS en filesystem wat je het fijnste vindt werken, want het werkt toch altijd. Alle OS'en kunnen namelijk Samba (zowel als server als als client), dus mits je tevreden bent met SMB/CIFS maakt dat niet uit. Het nadeel van SMB is wel dat het ietwat aan overhead met zich meebrengt. NFS bijvoorbeeld heeft daar veel minder last van, maar ik weet niet hoe het met de ondersteuning zit..

[ Voor 22% gewijzigd door HarmoniousVibe op 25-10-2009 14:23 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


Acties:
  • 0 Henk 'm!

  • daan08
  • Registratie: Augustus 2008
  • Laatst online: 05-07-2023

daan08

PEBKAC

Oke dat is het deel wat ik niet zeker wist, ik vond het namelijk al vreemd dat mn Mac zonder NTFS support toch kon schrijven op een SMB share.. 8)7
Ik ben niet geheel tevreden met SMB maar ben er nog niet voor gaan zitten om iSCSI goed aan de praat te krijgen. Met FreeNAS werkte dit goed, maar ik wil eigenlijk een Windows server gezien beperkte kennis en mogelijkheden van dat systeem. Met iSCSI maakt het filesysteem neem ik aan wel uit, gezien de initiators de target zien als een interne disk.

Acties:
  • 0 Henk 'm!

  • campr112
  • Registratie: December 2001
  • Laatst online: 25-07 17:57
Nadeel van iSCSI is dat het als 'raw-device' wordt aangeboden op je OS. Het lijkt dus net of je er een schijf bij prikt. Dan moet je dus _wel_ een Filesysteem kiezen waar alledrie mee overweg kunnen. Bijkomend nadeel is dat het geen goed idee is om je ISCSI device tegelijk aan drie clients aan te bieden. Die gaan alle drie het filsysteem proberen te mounten. En dan het je str0nd aan de knikker, want het filesysteem raakt dan corrupt. Het zou namelijk kunnen dat ze tegelijk proberen te schrijven, en omdat ze geen weet hebben van elkaar, kunnen ze dezelfde blocks overschrijven, met data-corruptie tot gevolg. Geen goed idee dus.

Samba is dus een redelijk veilige keus als je op drie systemen bestanden wilt delen. Er zijn wel filesystemen die dat kunnen met drie-clients tegelijk. Cluster-aware file systems, maar dat zijn meestal commerciele producten voor veel $$$ en ik weet niet of ze clients hebben voor alle bovengenoemde OSen...

Er is nog ooit iets als 'Coda' binnen Linux beschikbaar geweest, maar ik weet niet of daar MS en MacOSx clients voor zijn.

Rob

[ Voor 22% gewijzigd door campr112 op 25-10-2009 20:38 ]

Be more, use Linux.


Acties:
  • 0 Henk 'm!

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 11-09 14:18
Waarom ben je niet tevreden over SMB? Vanwege de performance? Want bedenk je wel dat als je het FS niet abstraheert je zo goed als vast zit aan NTFS of FAT32 (nobrainer). En met NTFS is weinig mis, maar het probleem is dat je in *NIX-systemen als Linux of OS-X NTFS-3g moet gebruiken, wat de eventuele performancewinst van iSCSI tov SMB helemaal teniet doet.

Of is er een andere reden?

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


Acties:
  • 0 Henk 'm!

  • campr112
  • Registratie: December 2001
  • Laatst online: 25-07 17:57
STolsma schreef op zaterdag 24 oktober 2009 @ 12:09:
Speciaal voor dit board gekozen vanwege pci-e en de HW raid controller.
Jammer, dan zul je bedrogen uit de bus komen gok ik zo, en wel vanwege het volgende wat ik in de specs vond van de supermicro site:
5. 4x SATA (3.0Gbps) Ports
RAID 0, 1, 5, 10 (Windows Only)

Nader onderzoek wijst uit dat het een Intel ICH7R is, hier nog wat meer informatie:
http://linuxmafia.com/faq/Hardware/sata.html#intel-ich7

Het gaat dus om een RAID oplossing die voor een deel gebruikt maakt van je CPU... Geen hardware RAID dus.

Het formaat van het moederbord is trouwens FlexATX, dus de kans dat het niet in een normale kast past, bestaat.


Rob

[ Voor 29% gewijzigd door campr112 op 25-10-2009 21:02 ]

Be more, use Linux.


Acties:
  • 0 Henk 'm!

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 11-09 14:18
Inderdaad. ICHx is altijd fakeraid, wat zoveel wil zeggen als dat eigenlijk alleen de abstractie hardwarematig is (de array wordt gepresenteerd als zijnde 1 schijf), maar de rest (XOR berekeningen e.d.) wordt gewoon naar de CPU geoffload. Hierdoor heb je niet de performance van echte hw-raid, maar wel de inflexibiliteit. Stel bijvoorbeeld dat je tzt je systeem gaat upgraden en je komt terecht bij een mobo welke een andere raid-implementatie heeft. Dan zit je met een heel erg lastig upgradeproces in je maag.

Daarom heb ik ook expliciet voor software-raid gekozen: ik er toch het geld niet voor over om echt hardware-raid te doen en met fakeraid ben ik veel te inflexibel. Software-raid kan meer os-logica gebruiken dan een fakeraid oplossing en de kans dat ik van mobo switch ooit is toch significant groter dan dat ik wegloop van Linux en mdadm. Bovendien is mdadm en vooral geom_raid5 dusdanig goed geoptimaliseerd dat deze qua performance de fakeraid oplossing achter zich laat.

[ Voor 7% gewijzigd door HarmoniousVibe op 25-10-2009 21:31 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


Acties:
  • 0 Henk 'm!

  • daan08
  • Registratie: Augustus 2008
  • Laatst online: 05-07-2023

daan08

PEBKAC

LB06 schreef op zondag 25 oktober 2009 @ 20:44:
Waarom ben je niet tevreden over SMB? Vanwege de performance? Want bedenk je wel dat als je het FS niet abstraheert je zo goed als vast zit aan NTFS of FAT32 (nobrainer). En met NTFS is weinig mis, maar het probleem is dat je in *NIX-systemen als Linux of OS-X NTFS-3g moet gebruiken, wat de eventuele performancewinst van iSCSI tov SMB helemaal teniet doet.

Of is er een andere reden?
Performance, maar wellicht heb ik nu last van de performance door verkeerde configuratie. Als ik dat oplos heb ik geen probleem meer.. Dus ik denk dat ik uiteindelijk lekker voor NTFS over SMB ga, adhv jouw en Rob's advies.

Acties:
  • 0 Henk 'm!

  • campr112
  • Registratie: December 2001
  • Laatst online: 25-07 17:57
@Bulldoze:
Wat voor configuratie heb je op het moment, en wat voor performance haal je? Wat probeer je trouwens te doen met je NAS? Ik heb als NAS op het moment een AppleTV (trekt maar 17Watt) met een 500Gbyte schijf (2.5") en een 100Mbit aansluiting. Voor streamen van 1080p is het zat over Samba.

Als je een deel van je programma's (executables) op je NAS hebt, of je wilt veel dingen tegelijk doen op je NAS, dan is idd iets als een AppleTV gewoon te langzaam.

Het is het waard om even naar je duplex settings te kijken (full/half) en je snelheden (10/100) op de verschijdene netwerkkaarten te kijken. Mijn AppleTV heeft bijvoorbeeld een probleem met power states S2 en S3 waardoor hij vaker pakketjes mist (probleem zit hem in de hardware). Ik heb de power-saving gewoon uitgezet (in de Linux kernel), en nu doet ie het goed en heb ik tot 11Mbyte/sec als ik iets kopier. Vandaar dat ik naar een sneller NAS toe wil >:) Plus de interne ruimte in een AppleTV is nogal begrenst. En om nu alles via USB aan te sluiten? Nee.

Rob

Be more, use Linux.


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Zolang je nog aan de 100Mbit zit zou het aansluiten via USB nog wel kunnen omdat je toch wel minimaal 12MB/s binnen trekt ;)
Maar ja ik zou er toch ook niet voor kiezen maar als je toevallig een usb harddisk behuizing hebt liggen dan kan het geen kwaad tot de tijd dat je upgrade

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 11-09 14:18
HD streamen moet sowieso lukken. De meeste H.264 films komen niet verder dan 15mbit/s. Eenvoudig te illustreren middels een simpel rekensommetje:

16GB * 1024 = 16384MB
16384MB / (2 * 60 * 60) = 2,28MB/s
2.28MB/s * 8 = 18mbit/s

En dan ben ik nog heel ruim in de marges gaan zitten (erg grote film, korte speelduur). Zelfs een uncompressed VC-1 BluRay film zou moeten lukken op 100mbit/s, dus al helemaal op 1000BaseT. Zo hoog is de SMB overhead nu ook weer niet.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


Acties:
  • 0 Henk 'm!

  • campr112
  • Registratie: December 2001
  • Laatst online: 25-07 17:57
HD streamen gaat vaak om de pieken, als je buffer niet erg groot is (zoals bij de meeste spelers) kan je lastkrijgen van gestotter als de stream wat hoger in de Mbitjes gaat zitten. Wat je nu hebt berekend is 'maar' een gemiddelde. (Bij nader inzicht zal dat gestotter wel komen door langzame hardware, zie verder bericht).

Een goed voorbeeld hiervan is de 'vogelscene' uit de BBC serie 'Planet Earth' waar je ineens 100,000en vogels weg ziet vliegen. Hij is hier te downloaden voor het testen van je HD setup: http://rapidshare.com/fil...illa.sampla.x264.mkv.html

Een stuk commentaar over deze clip is:
This clip is not representative of "normal" encodings. It's more of an extreme example. The encoder hasn't "capped" the max bitrate, so it peaks at 35-40Mbps
Dus 40Mbit is een beetje de max bij slecht ge-encode 1080p content. Met een 100Mbit verbinding zit je dus gewoon goed.. Voor een 54Mbit wireless verbinding zal het wat veel zijn, want de daadwerkelijke troughput zal meer bij de 20Mbit liggen.

Gbit is dus nog steeds overkill als je alleen video wilt streamen. Interessant.

Rob

[ Voor 4% gewijzigd door campr112 op 26-10-2009 10:59 ]

Be more, use Linux.


Acties:
  • 0 Henk 'm!

  • Loekie
  • Registratie: Juli 2001
  • Laatst online: 14:10
campr112 schreef op maandag 26 oktober 2009 @ 10:57:
Gbit is dus nog steeds overkill als je alleen video wilt streamen. Interessant.

Rob
Als je rekening houd met 1 actieve client wel, worden het er meer, verandert ook het verhaal.
Hier heb ik ook een servertje met Gbit, als er media gestremad wordt(opnames) en tegelijk een backup wordt gedraaid merk je daar niets van. Eerder hetzelfde op Mbit wel. Meeste mensen zullen meerdere clients hebben, dus dan kun je rustig getallen vermenigvuldigen. Daarnaast reken ik hier met max belasting < 70% capaciteit, zit je daarboven dan heb je af en toe een hikje.

specs


Acties:
  • 0 Henk 'm!

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 11-09 14:18
Dus mijn punt blijft valide. Zelfs als je 'maar' 100mbit hebt liggen is het SMB protocol niet de bottleneck. En als je 802.11a/g hebt ligt het toch echt aan de fysieke laag en niet aan de applicatielaag. Dan moet je maar genoegen nemen met 720p en anders <=480p (schrale DiAMOND of NoTV rips ofzo).

@Loekie: je hebt gelijk, als er meerdere clients gaan steamen wordt het natuurlijk een ander verhaal.

[ Voor 14% gewijzigd door HarmoniousVibe op 26-10-2009 11:30 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


Acties:
  • 0 Henk 'm!

  • campr112
  • Registratie: December 2001
  • Laatst online: 25-07 17:57
Geef je ook groot gelijk, het streamen van 1 HD stream is geen probleem voor 100Mbit.

Met NASen kan je meer dan ook alleen maar streamen. Als je bijvoorbeeld een mapping maakt naar een NAS en daar dan op die mapping programma's installeert (MS office of zoiets), dan merk je wel goed of je 100Mbit of 1Gbit gebruikt, want hier is het gebruik nog 'piekiger' en je zit er ook echt op te wachten (je programma reageerd niet, en je zult moeten wachten). Met een HD stream moet je zowiezo al wachten, omdat ie toch niet harder gaat dan de film afspeelt.

Dus wat ik probeer te zeggen (taal is niet mijn sterkste kant) is dat je het NAS moet kopen/bouwen met een oog op je doelgroep qua 'zwaarte' en throughput. Ik ben bijvoorbeeld zelf van plan mijn virtuele PCs van virtualbox op het NAS te huisvesten. Dan helpt een verhoogde throughput een hoop voor de gebruikerservaring.

Met een core2duo verwacht ik trouwens wel dat je met SMB (samba) een Gbit verbinding vol kan trekken, mits je schijven het trekken en je een licht of geoptimaliseerd OS gebruikt (Linux of Windows Storage Server). Het is bekend uit het verleden (nog geen ervaringen met Windows-7) dat de TCP/IP stack van Windows niet zo efficient is als die van Linux, je stoot dus sneller aan processor-limieten dan op dezelfde hardware onder Linux als je storage gaat sharen met 'ingewikkelde' protocollen (SMB is ingewikkeld vergeleken met FTP of NFS).

Maar dan nog zou je een 100Mbit link gewoon helemaal vol moeten krijgen met de processoren/disken/OSen van tegenwoordig. Als je dit niet lukt, zou je toch even moeten kijken naar de qualiteit van je netwerk (full/half 10/100/1000 en je switch).

Als je trouwens meer dan 1 stream van dezelfde diskpack (zelfde array) af gaat trekken, is niet alleen de sequential transfer rate van je schijf interessant, maar ook de random access time. Het zou dus zo maar kunnen dat je throughput gehalveerd wordt als je meerdere bestanden tegelijk van je array gaat halen (daarom scheid ik mijn OS ook van de storage schijven).

Rob

[ Voor 9% gewijzigd door campr112 op 26-10-2009 13:31 ]

Be more, use Linux.


Acties:
  • 0 Henk 'm!

  • Nvidiot
  • Registratie: Mei 2003
  • Laatst online: 03-06 16:38

Nvidiot

notepad!

Wat bij SMB erg veel helpt is SMBv2 gebruiken, dat wil zeggen: Vista / Windows 7 / Server 2008 / Linux. Mijn SMB snelheid ging van ~40 mbyte/sec naar 102 mbyte/sec toen ik overging van XP naar Windows 7. (De server is een Ubuntu machine)

What a caterpillar calls the end, the rest of the world calls a butterfly. (Lao-Tze)


Acties:
  • 0 Henk 'm!

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 19:38
Nvidiot schreef op maandag 26 oktober 2009 @ 23:16:
Wat bij SMB erg veel helpt is SMBv2 gebruiken, dat wil zeggen: Vista / Windows 7 / Server 2008 / Linux. Mijn SMB snelheid ging van ~40 mbyte/sec naar 102 mbyte/sec toen ik overging van XP naar Windows 7. (De server is een Ubuntu machine)
SMB2 wordt toch pas ondersteund in een alpha versie van Samba 4?

[ Voor 73% gewijzigd door Nielson op 27-10-2009 00:14 ]


Acties:
  • 0 Henk 'm!

  • campr112
  • Registratie: December 2001
  • Laatst online: 25-07 17:57
Interessant PDFje van samba.org over voordelen SMBv2 en historie:
http://svn.samba.org/samba/ftp/cifs-cvs/ols2007-smb2.pdf

Idd, je hebt Samba 4 nodig voor SMBv2. En het is nog een alpha technology preview.... Holy, dan heb je ballen, als je dat draait _/-\o_

Ik ga gewoon vrolijk NFS gebruiken. Geen windows machines meer 8)

Rob

Be more, use Linux.


Acties:
  • 0 Henk 'm!

  • STolsma
  • Registratie: December 2008
  • Laatst online: 07-09 17:57
Nog 1 vraag met deze config:


#ProductPrijsSubtotaal
1Antec Performance One Mini P180 Wit€ 57,66€ 57,66
1be quiet! Pure Power L7 300W€ 29,95€ 29,95
1Kingston HyperX KHX6400D2/2G€ 34,60€ 34,60
1Supermicro X7SLA-H-O (MBD-X7SLA-H-O)€ 140,49€ 140,49
4Western Digital Caviar Green WD15EADS, 1.5TB€ 88,90€ 355,60
ImporterenTotaal€ 618,30


Kan ik dan ook een pico voeding van 150 watt gebruiken? Of zal dat te weinig zijn?

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Lang antwoord:
Ik heb geen ervaring met het Supermicro plankje, maar ik denk dat het gewoon kan. Voor mij komt de grootste onzekerheid van de supermicro. Maar ik kan mij niet voorstellen waarom die opeens belachelijk veel zou verbruiken waardoor de pico in de problemen zou komen.
Demonstatie: Ik draai zelf vier EADS schijfjes (weliswaar 1.0TB versies) met een Sempron LE-1150, 7050 chipset, Highpoint Rocketraid (10Watt) en twee Scorpio Blacks op een 100W Pico. Alleen ga ik persoonlijk deze configuratie opsplitsen. De harde schijven gaan aan een Pure Power hangen, simpelweg omdat ik toch wel aan de limiet zit bij de spinup (raakt wel de 100W aan). En bij vollast zit ik op zo'n 70-80 Watt. Ofwel, niet veel (/geen) ruimte om nog een array toe te voegen. Daarnaast zal, bij hogere belasting, het verschil tussen de Pure Power en een Pico kleiner en kleiner worden. (En dat is zéér lastig terug te verdienen met zo'n lage prijs voor de be quiet en zo'n hoge prijs voor de pico).

Kort antwoord:
Het kan wel, maar ik zou het niet doen, ik zou bij de be quiet blijven

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • campr112
  • Registratie: December 2001
  • Laatst online: 25-07 17:57
STolsma schreef op dinsdag 27 oktober 2009 @ 18:00:
Nog 1 vraag met deze config:


#ProductPrijsSubtotaal
1Antec Performance One Mini P180 Wit€ 57,66€ 57,66
1be quiet! Pure Power L7 300W€ 29,95€ 29,95
1Kingston HyperX KHX6400D2/2G€ 34,60€ 34,60
1Supermicro X7SLA-H-O (MBD-X7SLA-H-O)€ 140,49€ 140,49
4Western Digital Caviar Green WD15EADS, 1.5TB€ 88,90€ 355,60
ImporterenTotaal€ 618,30


Kan ik dan ook een pico voeding van 150 watt gebruiken? Of zal dat te weinig zijn?
Simpel rekenwerk toch? De WD schijf neemt een piek van 1.6A op 12V tijdens spinup (volgens WD) (in het pdfje: http://www.wdc.com/en/products/products.asp?driveid=575) plus ~6W (max tijdens r/w). Da's dus een absolute max van 24W tijdens het opspinnen. Je hebt 4 stuks is 96Watt.
CPU is 7W TDP, geheugen zal rond de 5-10W liggen. De chipset is 22.2W en de ICH7R is 2.2W.

Allemaal bij elkaar: 96+7+10+22.2+2.2 = 137W max tijdens het opstarten.

137 tot 150.. Het kan wel, maar je moet er niet veel meer aan hangen.. Plus er zullen nog wat componenten zitten op het MB die ook nog wat gaan snoepen. Krap... Ik zou het persoonlijk niet doen, maarja, ik hou van extra capaciteit.. Daarintegen is het vermogen bij normaal running een _stuk_ lager. ~47W, dus daar heb je zat ruimte..

Rob

Be more, use Linux.


Acties:
  • 0 Henk 'm!

  • STolsma
  • Registratie: December 2008
  • Laatst online: 07-09 17:57
heren, duidelijk antwoord, bedankt! dus ik ga dat niet doen en hou gewoon de be quiet power. Thanks voor het snelle antwoord

Acties:
  • 0 Henk 'm!

  • bum
  • Registratie: Juli 2001
  • Laatst online: 20-04 20:33

bum

Ik wil nu eindelijk eens aan de gang met mijn NASje en m'n eerste linux avontuur beginnen :)

Graag zou ik jullie vragen of het volgende een beetje reële configuratie is, of te duur/overkill?

Gigabyte GA-MA785GM-UD2H (ivm DDR-2, solid caps, 5 SATA connectors en goede ervaring met Gigabyte)
AMD Athlon II X2 235e (Beetje zware processor, maar kon in het Intel/Athlon gebeuren niet veel anders vinden met 45W TDP, de Brisbane Athlons zijn blijkbaar niet meer te koop).

Wat moet ie kunnen:
Het wordt een NAS voor 4 of 5 schijven in software RAID. Verder wil ik 'm ook foto's en dergelijke kunnen laten serveren op internet en videorecording laten doen van IP webcams (vergelijkbaar met Synology's Surveillance Station).

Schieten maar ;)

HP Zbook G8 | Synology DS1511+


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
campr112 schreef op dinsdag 27 oktober 2009 @ 20:16:
[...]


Simpel rekenwerk toch? De WD schijf neemt een piek van 1.6A op 12V tijdens spinup (volgens WD) (in het pdfje: http://www.wdc.com/en/products/products.asp?driveid=575) plus ~6W (max tijdens r/w). Da's dus een absolute max van 24W tijdens het opspinnen. Je hebt 4 stuks is 96Watt.
CPU is 7W TDP, geheugen zal rond de 5-10W liggen. De chipset is 22.2W en de ICH7R is 2.2W.

Allemaal bij elkaar: 96+7+10+22.2+2.2 = 137W max tijdens het opstarten.

137 tot 150.. Het kan wel, maar je moet er niet veel meer aan hangen.. Plus er zullen nog wat componenten zitten op het MB die ook nog wat gaan snoepen. Krap... Ik zou het persoonlijk niet doen, maarja, ik hou van extra capaciteit.. Daarintegen is het vermogen bij normaal running een _stuk_ lager. ~47W, dus daar heb je zat ruimte..

Rob
Sterker nog, piek is 1.759A op de 12V lijn, ofwel 21W per schijf. Toch wel een schokkende waarde wat mij betreft. Ik snap alleen niet waarom je de r/w erbij optelt, want piek is piek :) Daarnaast zal het in de praktijk wel wat lager uitvallen. Ik kan mij niet voorstellen dat de pieken van alle vier de schijven op exact hetzelfde moment zijn. Maar mooie berekening (veel gefundeerder ook dan die van mij :))
Wel irritant overigens dat de Engelse PDF niet werkt, mocht gaan klooien met een Chinese PDF en Google translate :)

@bum
Het moederbord heeft ook nog een eSATA poort :) Maar voor een NAS vind ik het moederbord nogal overkill dat in dit geval extra zonde is ook omdat je met een zuinigere opstelling toe kan. Je hebt geen 780g / 785g chipset nodig omdat je toch niet met video's loopt te klooien. Een 740g, 760g, zou ook voldoen en die zijn toch wat zuiniger. Gigabyte heeft een leuke 740g die 6 SATA poorten heeft (vraag wel van te voren welke revisie het betreft! de nieuwste heeft maar 4 poorten)

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • bum
  • Registratie: Juli 2001
  • Laatst online: 20-04 20:33

bum

Dadona schreef op donderdag 29 oktober 2009 @ 17:58:
[...]
Het moederbord heeft ook nog een eSATA poort :) Maar voor een NAS vind ik het moederbord nogal overkill dat in dit geval extra zonde is ook omdat je met een zuinigere opstelling toe kan. Je hebt geen 780g / 785g chipset nodig omdat je toch niet met video's loopt te klooien. Een 740g, 760g, zou ook voldoen en die zijn toch wat zuiniger. Gigabyte heeft een leuke 740g die 6 SATA poorten heeft (vraag wel van te voren welke revisie het betreft! de nieuwste heeft maar 4 poorten)
Ik had er ook niet bijverteld dat ik nog een beetje in gedachten had om 'm over een tijdje naar m'n dochter door te schuiven als desktop :*) Dus dan zou die IGP wel handig zijn, maar dat kan ik maar beter loslaten: tegen die tijd is er toch al weer iets beters...
Maar dat 740G boardje (rev 3.0) is idd wat zuiniger en ook goedkoper. En die 6e SATA intern is ook wel handig.

HP Zbook G8 | Synology DS1511+


Acties:
  • 0 Henk 'm!

  • axis
  • Registratie: Juni 2000
  • Laatst online: 26-01-2023
campr112 schreef op dinsdag 27 oktober 2009 @ 00:44:
Interessant PDFje van samba.org over voordelen SMBv2 en historie:
http://svn.samba.org/samba/ftp/cifs-cvs/ols2007-smb2.pdf

Idd, je hebt Samba 4 nodig voor SMBv2. En het is nog een alpha technology preview.... Holy, dan heb je ballen, als je dat draait _/-\o_

Ik ga gewoon vrolijk NFS gebruiken. Geen windows machines meer 8)

Rob
Ik haal met Samba3 met 2 clients meer dan 200MB/s, en een client trekt in z'n eentje ook wel Gbit vol..

Ik merkte trouwens wel veel verschil toen ik op deze freebsd machines van samba 3.0 naar samba 3.3 ging, met aio (asynchronous i/o), performance ging een heel stuk omhoog..

Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!


Acties:
  • 0 Henk 'm!

  • axis
  • Registratie: Juni 2000
  • Laatst online: 26-01-2023
Leuk bordje, die Supermicro X7SLA-H waar STolsma mee aan komt.. Maar die atom bordjes ondersteunen allemaal maar max. 2GB?! wtf? Voor een gewone nas misschien niet boeiend, maar aangezien ik een pimp-ass nasje wil maken met ZFS, is meer geheugen nooit weg (vaker gebruikte data wordt in-memory gecached).

En zijn die realtek chipsets tegenwoordig nog zo brak als ze vroeger waren? Heb al een tijd geen realtek met gebruikt (alleen intel of broadcom).

Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 21:39
Weet je zeker dat je zoveel moeite wilt doen voor ZFS? Voor thuisgebruik is ZFS eigenlijk meer een speeltje en een gimmick. Maakt je keuze voor hardware misschien wat makkelijker?

Acties:
  • 0 Henk 'm!

  • axis
  • Registratie: Juni 2000
  • Laatst online: 26-01-2023
Q schreef op vrijdag 30 oktober 2009 @ 21:08:
Weet je zeker dat je zoveel moeite wilt doen voor ZFS? Voor thuisgebruik is ZFS eigenlijk meer een speeltje en een gimmick. Maakt je keuze voor hardware misschien wat makkelijker?
Geloof me, als je eenmaal een tijd met ZFS werkt wil je nooit meer anders.. Heb nu thuis een virtuele nas met een 1TB zpool, en ik vind het geweldig.. Alleen is de performance niet echt om over naar huis te schrijven, met 12 andere guests op 1 ESX server. Sequentiele doorvoersnelheid vind ik prima (80MB/s), maar iops en latency vallen tegen. En de ruimte raakt op :)

Ik maak ook steeds vaker gebruik van ZFS features. Even een snapshot maken voordat ik weer iets ga proberen, of incrementele snapshots over een ssh pipe offsite sturen, of on-the-fly compressie voor logfile folders, etc..

Tuurlijk, ik zou wel zonder kunnen, maar ik zou niet zonder willen.. En voor mij is het 'spelen' aspect aan het uitzoeken, bouwen en gebruiken van een NAS ook een belangrijk aspect, het is mijn hobby, het gaat me niet slechts om de gigabytjes :)


Trouwens, voor de mensen die het leuk vinden, bekijk de Sun Storage 7000 systems software simulator (gratis registratie vereist) eens.. Dit is een kant-en-klare VMware image met volgens mij 16 1GB schijfjes om te demonstreren hoe de software werkt. Dat is zo'n beetje de biggest and baddest nas-interface die je ooit hebt gezien, met allerlei ontzettend gave realtime statistieken enzo. OpenSolaris is gratis, ZFS is gratis, maar FishWorks, deze software die ze daar bovenop hebben gebouwd helaas niet :'( Toch erg leuk om eens te zien (en misschien kom je dit over een paar jaar tegen in freenas-achtige distributies)

Afbeeldingslocatie: http://t3.gstatic.com/images?q=tbn:ei4_sJcg74o8NM:http://blogs.sun.com/brendan/resource/cifs-1/cifs-1-miops-crop.png%5D

Afbeeldingslocatie: http://t2.gstatic.com/images?q=tbn:-kzq08AXSYWYDM:http://www.gaeltd.com/wp-content/uploads/2008/11/b8348cae-5c42-4fdf-817f-683949a90983.jpg

[ Voor 6% gewijzigd door axis op 30-10-2009 21:47 ]

Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!


Acties:
  • 0 Henk 'm!

  • Bylie
  • Registratie: April 2002
  • Laatst online: 18:05
axis schreef op vrijdag 30 oktober 2009 @ 21:44:
[...]
Geloof me, als je eenmaal een tijd met ZFS werkt wil je nooit meer anders..
...
Ik geef je helemaal gelijk! Qua design, filosofie en features is ZFS (ver) vooruit op de meeste andere FS's van nu. Ik hoop alleen dat ze bij Sun stilaan gaan inzien dat er meer nodig is dan enkel een technisch hoogstaand FS. Waarop kan je ZFS nu draaien? Volgens mij enkel op (Open)Solaris en FreeBSD (Linux met ZFS-Fuse tel ik even niet mee). Koppel dit aan de afgesprongen deal met Apple mede veroorzaakt door de nog lopende NetApp rechtzaken.
Dan is het ook nog maar de vraag wat er in de toekomst gaat gebeuren als de overname van Sun door Oracle door zal gaan. Oracle heeft zelf Btrfs in huis wat vergelijkbare features heeft als ZFS en wat zonder problemen op Linux kan/mag draaien.

Die FishWorks is inderdaad NAS/SAN heaven _/-\o_.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Voor statistieken op zich kun je ook denken aan tools als Nagios :)

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • STolsma
  • Registratie: December 2008
  • Laatst online: 07-09 17:57
bum schreef op donderdag 29 oktober 2009 @ 22:02:
[...]

Ik had er ook niet bijverteld dat ik nog een beetje in gedachten had om 'm over een tijdje naar m'n dochter door te schuiven als desktop :*) Dus dan zou die IGP wel handig zijn, maar dat kan ik maar beter loslaten: tegen die tijd is er toch al weer iets beters...
Maar dat 740G boardje (rev 3.0) is idd wat zuiniger en ook goedkoper. En die 6e SATA intern is ook wel handig.
Ik zou toch dan zoeken naar een board met SB750 southbridge. Die zou ook RAID 5 moten ondersteunen.

Acties:
  • 0 Henk 'm!

  • PeterPan
  • Registratie: Oktober 2005
  • Laatst online: 13:51
Die FishWorks zit dus niet in Solaris zelf maar alleen in de 7000 serie storage?
Zodra dit in (Open)Solaris komt ben ik de eerste die er een dikke NAS box mee gaat bouwen.

Een leuke optie als je met ZFS aan de gang wilt maar geen Unix knots bent is misschien NexentaStor (nexenta.com), commerciële NAS software op basis van OpenSolaris/Nexenta.
Het gebruikt net als b.v. FreeNAS een web interface, de command line hoef je niet te zien.
De developer versie tot 2TB is gratis. Een onbeperkte versie 45 dagen trial.

Het blijft verre van wat ik van FishWorks gezien hebt maar (samen met FreeNAS) de meest eenvoudige ZFS implementatie die ik ken.
(als er meer/betere zijn hoor ik het graag!).

Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
STolsma schreef op zaterdag 31 oktober 2009 @ 08:49:
[...]


Ik zou toch dan zoeken naar een board met SB750 southbridge. Die zou ook RAID 5 moten ondersteunen.
Ik zou zeggen lees eens dit topic door wat de voor :? en vooral nadelen :Y zijn van fake-raid. Want het is gewoon software raid maar dan met de beperking die chipset. IPV echte software raid waarbij je gewoon elke mobo kunt gebruiken en ook gewoon RAID 5 kunt gebruiken.

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • Nvidiot
  • Registratie: Mei 2003
  • Laatst online: 03-06 16:38

Nvidiot

notepad!

axis schreef op vrijdag 30 oktober 2009 @ 20:25:
[...]

Ik haal met Samba3 met 2 clients meer dan 200MB/s, en een client trekt in z'n eentje ook wel Gbit vol..

Ik merkte trouwens wel veel verschil toen ik op deze freebsd machines van samba 3.0 naar samba 3.3 ging, met aio (asynchronous i/o), performance ging een heel stuk omhoog..
Ik draai zo te zien nog samba 3.0, maar trek (sinds windows 7) moeiteloos mijn gbit dicht. Met windows XP en dezelfde samba implementatie op mijn server haalde ik ~40 mbyte/sec.

Het verschil zit 'm dus niet in SMBv2, wat ik dacht, maar in andere wijzigingen in Windows 7.

What a caterpillar calls the end, the rest of the world calls a butterfly. (Lao-Tze)


Acties:
  • 0 Henk 'm!

  • wessel99
  • Registratie: November 2000
  • Laatst online: 29-09-2024
En wat voor server draai je dan?

Acties:
  • 0 Henk 'm!

  • Nvidiot
  • Registratie: Mei 2003
  • Laatst online: 03-06 16:38

Nvidiot

notepad!

Ubuntu 8.04 LTS

What a caterpillar calls the end, the rest of the world calls a butterfly. (Lao-Tze)


Acties:
  • 0 Henk 'm!

  • axis
  • Registratie: Juni 2000
  • Laatst online: 26-01-2023
Was voor mezelf nog wat vergelijkingsmateriaal aan het opschrijven, kan ik natuurlijk met zo goed met jullie delen.. Ben nog eens van plan als ik extra storage nodig heb om een nasje te maken met een Chenbro ES34069 case en 4 schijven, en ik ben me eens aan het orienteren.. Stroomverbruik is belangrijkst, dan performance. Maar ja, 't kost allemaal wel een boel geld. Of ga ik voor de goedkopere optie, met een stuk minder performance? Moeilijk moeilijk.. Ik laat het maar eens een tijdje bezinken.

De power usage die je zelf kunt bereken is een leuke leidraad, maar ik hecht meer waarde aan mensen die hun systeempje zelf aan de meter hangen. Hier wat ervaringen van anderen die ik bij elkaar heb gesprokkeld:

enclosure: Chenbro ES34069
mobo+cpu: MSI IM-945GC (onboard Atom 330)
memory: ?
disks: 4xWD green disks
extra: sata controller
power: 40W idle, 50W loaded
netwerk: 25MB/s

enclosure: Chenbro ES34069
mobo+cpu: Intel D945GCLF2 (onboard Atom 330)
memory: ?
disks: 4xWD green disks
extra: sata controller
power: 50-55W
netwerk: 40MB/s

enclosure: Chenbro ES34069
mobo+cpu: Gigabyte GA-6KIEH-RH, Core 2 Duo T8300
memory: 2x2GB DDR2
disks: 4x80GB antiek (50W)
extra: wireless card
power: 103W loaded

enclosure: Chenbro ES34069
mobo+cpu: Intel D945FC, E5200
memory: 2GB
disks: 4x1TB WD Green
power: 33W idle, 50-60W loaded

enclosure: Chenbro ES34069
mobo+cpu: Intel DQ45EK, E8400
memory: 4GB
disks: 4x1TB WD Green + SSD bootdisk
power: 50W idle, 64W loaded, 53W average

[ Voor 7% gewijzigd door axis op 31-10-2009 20:09 ]

Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 21:39
In plaats je over die 10 wat meer of minder druk te maken, koop iets wat je wilt en zet het ding uit als je hem niet gebruikt. Met Wake On Lan zet je hem zo aan. Of je zet een timer in het bios zodat hij aan staat als je thuis bent / komt. Hier doe je jezelf je portemonnee en het milieu het meeste plezier mee.

[ Voor 13% gewijzigd door Q op 31-10-2009 20:29 ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 21:39
axis schreef op vrijdag 30 oktober 2009 @ 21:44:
[...]

Geloof me, als je eenmaal een tijd met ZFS werkt wil je nooit meer anders..
ZFS is geweldig, dat meen ik zeker en gezien mijn NAS wel overwogen. Maar hoe gaaf ZFS ook is, ik geloof niet in een toekomst voor ZFS omdat ik weinig toekomst zie in Sun en Solaris, dat door Oracle is overgenomen.

btrfs?

Acties:
  • 0 Henk 'm!

  • axis
  • Registratie: Juni 2000
  • Laatst online: 26-01-2023
Q schreef op zaterdag 31 oktober 2009 @ 20:28:
In plaats je over die 10 wat meer of minder druk te maken, koop iets wat je wilt en zet het ding uit als je hem niet gebruikt. Met Wake On Lan zet je hem zo aan. Of je zet een timer in het bios zodat hij aan staat als je thuis bent / komt. Hier doe je jezelf je portemonnee en het milieu het meeste plezier mee.
Tot nu toe nog nooit bedacht dat je een server NIET 24x7 aan zou hebben. Ik gebruik mijn nas vrij intensief (staan een boel VMs op waaronder exchange, torrent clients, etc), en daarnaast zie ik mijn vriendin ook niet wol packets sturen en wachten tot ze films kan kijken of kan backuppen. Maar misschien kan ik wel wat rollen scheiden, zal er eens over nadenken..
Q schreef op zaterdag 31 oktober 2009 @ 20:38:
[...]
ZFS is geweldig, dat meen ik zeker en gezien mijn NAS wel overwogen. Maar hoe gaaf ZFS ook is, ik geloof niet in een toekomst voor ZFS omdat ik weinig toekomst zie in Sun en Solaris, dat door Oracle is overgenomen.
btrfs?
Als zou Sun en Solaris in de vuilnisbak gaan, dan nog is ZFS here to stay. De OpenSolaris community, die het meest aan ZFS werken overlapt met de Sun loonlijst, maar er zijn ook een boel onafhankelijke developers. ZFS is ook al geport door onder andere het FreeBSD team en Apple (hoewel die nu ontwikkeling staken), dus wat Sun/Oracle ook doet, ZFS zal blijven, daar ben ik zeker van. (En ik weet zeker dat als Oracle een andere kant op gaat dan de ZFS developers willen, er zo een fork plaatsvindt.)

Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!


Acties:
  • 0 Henk 'm!

  • Coenen
  • Registratie: September 2000
  • Laatst online: 11-09 20:01

Coenen

=LoT= IJsbier @ ET

axis schreef op vrijdag 30 oktober 2009 @ 21:44:
[...]
Trouwens, voor de mensen die het leuk vinden, bekijk de Sun Storage 7000 systems software simulator (gratis registratie vereist) eens.. Dit is een kant-en-klare VMware image met volgens mij 16 1GB schijfjes om te demonstreren hoe de software werkt. Dat is zo'n beetje de biggest and baddest nas-interface die je ooit hebt gezien, met allerlei ontzettend gave realtime statistieken enzo. OpenSolaris is gratis, ZFS is gratis, maar FishWorks, deze software die ze daar bovenop hebben gebouwd helaas niet :'( Toch erg leuk om eens te zien (en misschien kom je dit over een paar jaar tegen in freenas-achtige distributies)
Het leek mij wel leuk dit eens te proberen, gisteravond gedownload, gestart, ip adressen ingevuld en helaas niks. Vandaag nog twee geprobeerd. Helaas weer geen toegang via een webbrowser. Pingen lukt ook niet. Ik ben op (of is het in) de console bezig geweest, daar heb ik gezien dat ie het door mij opgegeven IP adres heeft en dat de interface up is. Maar ik kom er niet in....is het jou wel gelukt?

Acties:
  • 0 Henk 'm!

  • PeterPan
  • Registratie: Oktober 2005
  • Laatst online: 13:51
Als ik he goed herinner gaat het web management niet over een standaard poort (80 of 443).

Acties:
  • 0 Henk 'm!

  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 18:33
Ik draai nu al een tijdje Freenas met 4x500GB in raid 5 ( zfs ).
Nu heb ik nog 2x500GB toegevoegd en wil daar 1 raid config van maken omdat ik me nas gebruik om me pc op te back-uppen.
Nu stopt straks Freenas en wil ik me server herinstalleren met Debian of Ubuntu server ( 8.04 LTS ).
Freenas staat nu op een CF kaartje van 2GB. Ik heb kort getest met de linux versies en zie weinig verschil tussen deze 2.
Iemand nog tips ? Ik ga waarschijnlijk gewoon een raid 5 maken van deze 6x500GB of eventueel een raid 6.
Als ik tijd heb wil ik ze beide in een VM installeren om zo te kijken welke mij het beste lijkt.

Acties:
  • 0 Henk 'm!

  • axis
  • Registratie: Juni 2000
  • Laatst online: 26-01-2023
wooohooo!
ZFS Deduplication

You knew this day was coming: ZFS now has built-in deduplication.

If you already know what dedup is and why you want it, you can skip the next couple of sections. For everyone else, let's start with a little background.

http://blogs.sun.com/bonwick/en_US/entry/zfs_dedup
Ben benieuwd wanneer deze code in OpenSolaris en BSD komt, maar dit beloofd veel spannends..

Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!


Acties:
  • 0 Henk 'm!

  • The_wave
  • Registratie: December 2000
  • Laatst online: 09-08 00:14
Met de steeds groter wordende schijven ben ik aan het overwegen om een raid5 setup aan te schaffen.
Momenteel heb ik voor data 2 x 500GB en 1 x 1TB in mijn thuisserver zitten.

Bij een tekort aan schijfruimte plaats ik gewoon een schijf bij. Ik neem meestal een schijf met de beste prijs/MB.
Met de huidige prijzen zou het een 1.5TB moeten worden, maar uiteindelijk zit je dan met schijven van verschillende groottes. (500GB, 1TB, 1,5TB)

Ik lees op forums veel over de Dell perc5/i raid controller welke je op ebay tegen scherpe prijzen kan terugvinden.
Deze heeft 8 sata poorten en kan raid5 aan.
Om alle ruimte volledig te kunnen benutten zou ik dan op zen minst 3 x 1.5TB moeten kopen.
Wanneer een 2TB schijf goedkoper wordt heb ik wel een probleem, ik kan deze dan wel toevoegen aan het array met 1.5TB schijven maar dan verlies ik toch veel rumte...wat spijtig is.

Is het daarom niet voordeliger om je data te backuppen naar een tapedrive? bv. LTO3 welke 400GB native kan opslaan? Je schijven kan je dan apart laten werken ipv raid5...(ook geen verlies ivm pariteit)
Als je elke maand een volledige backup maakt is het wel even werk...

Wat is jullie mening hierover?

Acties:
  • 0 Henk 'm!

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 19:38
Lijkt me pas rendabel als je heel veel data hebt. Wat ik zo snel kan vinden kost een 400GB tape (400-800) rond de € 25,- terwijl je al een 500GB harde schijf hebt voor rond de € 40,-
Voordat je de kosten van de tapedrive zelf (± € 2000,- ?) eruit hebt mag je nog wel even.

Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Maar als je voor 2000 euro schijven + goede controller en bv behuizing -> iets in de geest van Q heeft. Dan heb je voor het gemak gezegd een budget van 1300 euro voor hdd's en de rest voor controller behuizing en voeding. Even voor het gemak gezegd 13x 1.5TB = 19.5 TB - 3TB voor pariteit (RAID 6) = 16.5 TB beschikbaar. Nou moet je daarvoor 40 tapes aanschaffen a 25 euro ... weer 1000 euro en is dus 1000 euro duurder terwijl je dat veel minder makkelijk toegankelijk is. Daar bij moet er wel gezegd worden dat die back-up tapes weer veel makkelijker op een externe locatie te bewaren is. Maar die Nocro of Norco behuizing heeft 20 hot-swap bays waardoor je dat probleem dus ook makkelijk kunt verhelpen.

Daarnaast zijn er ook USB behuizingen waar je 4 hdd's in kwijt kunt. Dus even makkelijk wat data back-upen kan ook op die manier.

Dus eigenlijk is het korte antwoord. Nee tapes is niet goedkoper :P

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • daan08
  • Registratie: Augustus 2008
  • Laatst online: 05-07-2023

daan08

PEBKAC

The_wave schreef op zaterdag 07 november 2009 @ 14:04:
Ik lees op forums veel over de Dell perc5/i raid controller welke je op ebay tegen scherpe prijzen kan terugvinden.
Deze heeft 8 sata poorten en kan raid5 aan
Ik vraag me af hoe het kan dat al minstens een jaar deze Dell (eigenlijk LSI) de meest populaire kan zijn, juist dankzij de populariteit zijn de prijzen helemaal niet meer zo goed op ebay. Ook de moderne Adaptec controllers zijn voor relatief weinig te vinden.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 21:39
Nielson schreef op zaterdag 07 november 2009 @ 14:51:
Lijkt me pas rendabel als je heel veel data hebt. Wat ik zo snel kan vinden kost een 400GB tape (400-800) rond de € 25,- terwijl je al een 500GB harde schijf hebt voor rond de € 40,-
Voordat je de kosten van de tapedrive zelf (± € 2000,- ?) eruit hebt mag je nog wel even.
Tape drives sloegen ergens op ten tijde dat de capaciteit van je storage nog in verhouding stond ten opzichte van de capaciteit van een tape. Dat is al lang niet meer zo. Die technologie uit 1870 mag wel eens een keer bij het grofvuil gezet worden. We lopen verdomme anno 2009 nog steeds met cassette bandjes te spelen wtf?

Acties:
  • 0 Henk 'm!

  • axis
  • Registratie: Juni 2000
  • Laatst online: 26-01-2023
Kijk even in het grote backup topic mbt de voordelen van tapes, ik gebruik zelf op de zaak ook met alle plezier LTO4 tapes, ik vind een cassettebandje waar 800GB native op kan wel handig, en daarnaast is een maximale transfer rate van 240MB/s ook wel fijn om je backup window klein te houden.

En die tapes blijven jaaaaaren houdbaar op de plank, ze zijn daar immers voor gemaakt. En ze kunnen tegen een behoorlijke stoot.. Ik zou niet mijn data op een sata diskje willen zetten en hopen dat ie over 5 jaar nog opspint.. Misschien wel, misschien niet, maar daar heb ik meer vertrouwen in tapes.. Zeker omdat we die al zo lang gebruiken, dus de techniek is ver geevolueerd :)

[ Voor 3% gewijzigd door axis op 08-11-2009 11:15 ]

Two advices for network troubleshooting.. learn to draw diagrams in Visio, and THINK IN LAYERS!


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 21:39
axis schreef op zondag 08 november 2009 @ 11:14:
Kijk even in het grote backup topic mbt de voordelen van tapes, ik gebruik zelf op de zaak ook met alle plezier LTO4 tapes, ik vind een cassettebandje waar 800GB native op kan wel handig, en daarnaast is een maximale transfer rate van 240MB/s ook wel fijn om je backup window klein te houden.

En die tapes blijven jaaaaaren houdbaar op de plank, ze zijn daar immers voor gemaakt. En ze kunnen tegen een behoorlijke stoot.. Ik zou niet mijn data op een sata diskje willen zetten en hopen dat ie over 5 jaar nog opspint.. Misschien wel, misschien niet, maar daar heb ik meer vertrouwen in tapes.. Zeker omdat we die al zo lang gebruiken, dus de techniek is ver geevolueerd :)
Ik denk dat 70% van de bedrijven die nu tape backups maakt de genoemde voordelen van tapes niet nodig heeft en meer gebaat zou zijn bij off-site backups via het netwerk met snapshots en/of disks.

Ik ben bekend met de positieve eigenschappen van tapes, maar drives zijn gebruiksvriendelijker in mijn beleving. Overigens werken we op het bedrijf ook (nog) met tapes.

Acties:
  • 0 Henk 'm!

  • Mr_Light
  • Registratie: Maart 2006
  • Niet online

Mr_Light

Zo-i-Zo de gekste.

Q schreef op zondag 08 november 2009 @ 11:59:
[...]

Ik denk dat 70% van de bedrijven die nu tape backups maakt de genoemde voordelen van tapes niet nodig heeft en meer gebaat zou zijn bij off-site backups via het netwerk met snapshots en/of disks.
Waar haal jij de benodigde bandbreedte vandaan voor een prijs die in verhouding staat?

Het laaste wat je wilt bij een backup is achteraf achter komen dat je te conservatief met het selecteren van wat je backupped bent geweest.
axis schreef op vrijdag 30 oktober 2009 @ 21:44:
Geloof me, als je eenmaal een tijd met ZFS werkt wil je nooit meer anders.. Heb nu thuis een virtuele nas met een 1TB zpool, en ik vind het geweldig.. Alleen is de performance niet echt om over naar huis te schrijven, met 12 andere guests op 1 ESX server. Sequentiele doorvoersnelheid vind ik prima (80MB/s), maar iops en latency vallen tegen. En de ruimte raakt op :)
Wat is je setup? en gebruiksprofiel?

IceManX schreef: sowieso


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 21:39
Mr_Light schreef op zondag 08 november 2009 @ 12:23:
[...]

Waar haal jij de benodigde bandbreedte vandaan voor een prijs die in verhouding staat?
Ik schreef 'en/of'. Glas is nu dermate betaalbaar dat dit realistisch wordt.

Acties:
  • 0 Henk 'm!

  • L201
  • Registratie: November 2005
  • Laatst online: 10-09 12:58
Pff... na het doorlezen van het hele topic ben ik al een aardig stukje wijzer geworden.. Toch zit ik nog met een aantal zaken te worstelen.

Ik heb momenteel een linux servertje draaien met daarin 1 disk van 500GB. Een klein gedeelte is daarvan afgesnoept voor het OS, de rest wordt dmv Samba ingezet als netwerkstorage.
Ik wil deze nu gaan vervangen door een NAS systeem in raid. Deels omdat de capaciteit niet meer voldoende is, deels omdat ik wat extra zekerheid wil bij harddisk failure, en deels omdat het gewoon leuk is :9

Er komen vooral foto's, documenten en software installers op te staan. De eerste 2 zijn uiteraard het belangrijkst, en ik wil daarvoor dus ook nog een goed backupscenario bedenken.

In eerste instantie wilde ik voor een Raid-1 systeem gaan. Inmiddels is mijn visie al wat richtin raid-5 verschoven, voornamelijk vanwege de prijs en het makkelijker later uit kunnen breiden. Toch blijf ik nog twijfelen, want bij het later uitbreiden moet ik een schijf van dezelfde grootte erin zetten (of een stuk ruimte ongebruikt laten), dus vraag 1: klopt dit?

Nu draai ik zelf al jaren Gentoo, met een raid systeem heb ik geen ervaring. Komen we bij vraag 2: zijn er ervaringen met Gentoo/raid combinatie hier?. Of zijn er zwaarwegende argumenten om in dit geval niet voor Gentoo te kiezen? Zelf vindt ik Gentoo een ideale distro omdat je altijd up-to-date kan blijven, en je niet vastzit aan een base-version.

Verder... vraag 3, heeft iemand nog suggesties voor een goeie kast? Mijn meterkast is niet zo diep, 36cm, dus dan zou ik op een kastdiepte van max 30cm uitkomen (een beetje ruimte nog voor de kabels aan de achterkant). De kasten die ik dan vindt kunnen maar 1 of max 2 schijven kwijt. Zou ik dat ook kunnen doen icm met een externe behuizing voor disks?

En wat zou (vraag 4) een goeie strategie mbt backuppen zijn? Een optical station erin waarin ik dmv een cronjob elke nacht een backup doe? Een extra harddisk erin die ik alleen voor backup gebruikt?

Nu schiet me ook gelijk nog een vraag 5 binnen: hoe werkt dat met hd's downspinnen/uitschakelen wanneer ze niet gebruikt worden? Voor een eventuele backup schijf (als hij niet draait is de kans op uitval kleiner), maar ook voor de raid, om stroomkosten te beperken.

Ik hou mezelf zeer weinig bezig met de hardware kant in de IT, dus ben hiernaast ook nog naar de rest van de combi aan het kijken (proc/mainboard/etc), maar daar wilde ik nu nog maar even niet over beginnen ;) Heb wel begrepen dat ik het beste richting een AMD kan kijken :?

Acties:
  • 0 Henk 'm!

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 19:38
L201 schreef op maandag 09 november 2009 @ 15:59:
In eerste instantie wilde ik voor een Raid-1 systeem gaan. Inmiddels is mijn visie al wat richtin raid-5 verschoven, voornamelijk vanwege de prijs en het makkelijker later uit kunnen breiden. Toch blijf ik nog twijfelen, want bij het later uitbreiden moet ik een schijf van dezelfde grootte erin zetten (of een stuk ruimte ongebruikt laten), dus vraag 1: klopt dit?
Als een extra schijf/partitie aan je raid5 array wilt toevoegen moet deze inderdaad minstens zo groot zijn als de andere.
Nu draai ik zelf al jaren Gentoo, met een raid systeem heb ik geen ervaring. Komen we bij vraag 2: zijn er ervaringen met Gentoo/raid combinatie hier?. Of zijn er zwaarwegende argumenten om in dit geval niet voor Gentoo te kiezen? Zelf vindt ik Gentoo een ideale distro omdat je altijd up-to-date kan blijven, en je niet vastzit aan een base-version.
Software raid ondersteuning zit in de Linux kernel, en is dus op de verschillende distro's allemaal hetzelfde.
..

Nu schiet me ook gelijk nog een vraag 5 binnen: hoe werkt dat met hd's downspinnen/uitschakelen wanneer ze niet gebruikt worden? Voor een eventuele backup schijf (als hij niet draait is de kans op uitval kleiner), maar ook voor de raid, om stroomkosten te beperken.
Met hdparm kun je instellen dat na een bepaalde tijd van inactiviteit de schijf in standby gaat.
Ik hou mezelf zeer weinig bezig met de hardware kant in de IT, dus ben hiernaast ook nog naar de rest van de combi aan het kijken (proc/mainboard/etc), maar daar wilde ik nu nog maar even niet over beginnen ;) Heb wel begrepen dat ik het beste richting een AMD kan kijken :?
Zoals je in dit topic kunt lezen zijn de AMD'tjes (en Atoms) inderdaad aardig populair voor de zuinige thuisservertjes, lees ook dit topic eens: Nieuwe Zuinige Server (discussie)

[ Voor 8% gewijzigd door Nielson op 09-11-2009 16:08 ]


Acties:
  • 0 Henk 'm!

  • L201
  • Registratie: November 2005
  • Laatst online: 10-09 12:58
Nielson schreef op maandag 09 november 2009 @ 16:08:
Met hdparm kun je instellen dat na een bepaalde tijd van inactiviteit de schijf in standby gaat.
Even één quote eruit halen (en bedankt voor die andere antwoorden!), het uit standby halen gaat dan automatisch neem ik aan? Dus zodra de disk/raid aangesproken wordt? En heeft dat dan gevolgen voor de accestime? Ik las een aantal pagina's terug namelijk iets van 5-10 sec voor het upspinnen van een disk??

Acties:
  • 0 Henk 'm!

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 19:38
Net even voor je getimed, duurde 12,5 seconden voordat ik een bestandje kon wegschrijven. Komt ws ook omdat 'ie alle 4 schijven netjes één voor één opspint.

Acties:
  • 0 Henk 'm!

  • L201
  • Registratie: November 2005
  • Laatst online: 10-09 12:58
Thanks! Met die tijd kan ik wel leven ;)
Wat is het voordeel van de disken 1 voor 1 opspinnen? Is dat puur een piekspanningsissue, of verkleind dat ook de kans op fouten in je raid oid?

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 21:39
Nielson schreef op maandag 09 november 2009 @ 16:41:
Net even voor je getimed, duurde 12,5 seconden voordat ik een bestandje kon wegschrijven. Komt ws ook omdat 'ie alle 4 schijven netjes één voor één opspint.
Daarom maak ik ook geen gebruik van spin down... :X

Acties:
  • 0 Henk 'm!

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 19:38
Q schreef op maandag 09 november 2009 @ 20:12:
[...]


Daarom maak ik ook geen gebruik van spin down... :X
Hoezo? Zo hinderlijk is het echt niet om bij de eerste keer benaderen even te moeten wachten.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Omdat Q misschien vijf keer zo lang moet wachten? :+ Jij hebt 'maar' vier schijven, Q twintig...

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • onsgeluk
  • Registratie: Juli 2002
  • Laatst online: 09-11-2022

onsgeluk

Beroepsprutser

Wat ik eerlijk gezegd niet snap is waarom Q lang zou moeten wachten, met een 600W PSU is staggered toch niet strikt noodzakelijk?

iR Profiel


Acties:
  • 0 Henk 'm!

  • latka
  • Registratie: Januari 2002
  • Laatst online: 13:50
Q schreef op zaterdag 31 oktober 2009 @ 20:28:
In plaats je over die 10 wat meer of minder druk te maken, koop iets wat je wilt en zet het ding uit als je hem niet gebruikt. Met Wake On Lan zet je hem zo aan. Of je zet een timer in het bios zodat hij aan staat als je thuis bent / komt. Hier doe je jezelf je portemonnee en het milieu het meeste plezier mee.
Inderdaad, zo doe ik het nu ook na teleurstellende low-power NAS ervaring. Heb een Alix board met een totaal vermogen van een whopping 5 watt als always-on machine. Zodra iemand in het netwerk zijn PC aanzet is de server na max. 1 minuut gezien (gewoon alles pingen). De server monitort zelf of de werkstations er nog zijn en doet een shutdown indien alle IPs verdwenen zijn. Perfecte oplossing voor een snelle server die alleen stroom slurpt indien nodig. De always-on Alix doet saaie dingen als DHCP, Bind en Proxy server. Hiervoor heeft'ie ruim voldoende kracht.

Acties:
  • 0 Henk 'm!

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 19:38
Ah, had z'n ondertitel niet gezien :)

Wat misschien met zoveel schijven dan wel interessant is de (naar mijn idee vrij nieuwe) -s optie van hdparm, een soort staggered spinup voor een softraid array:

Enable/disable  the power-on in standby feature, if supported by
the drive.  VERY DANGEROUS.  Do not use  unless  you  are  absoâ
lutely  certain  that both the system BIOS (or firmware) and the
operating system kernel (Linux >= 2.6.22)  support  probing  for
drives  that  use this feature.  When enabled, the drive is powâ
ered-up in the standby mode to allow the controller to  sequence
the  spin-up of devices, reducing the instantaneous current draw
burden when many drives share a power supply.  Primarily for use
in  large RAID setups.  This feature is usually disabled and the
drive is powered-up in the active mode  (see  -C  above).   Note
that  a  drive may also allow enabling this feature by a jumper.
Some SATA drives support the control of this feature by  pin  11
of the SATA power connector. In these cases, this command may be
unsupported or may have no effect.

Acties:
  • 0 Henk 'm!

  • L201
  • Registratie: November 2005
  • Laatst online: 10-09 12:58
Hoe zit het trouwens met het hotswappen van harddisks? Zo'n 4-in-3 bay lijkt me op zich wel mooi, maar kan ik de harddisk dan ook echt hot-swappen? Dus met een raid-5 van zeg 3 disks in gebruik, kan ik een 4e disk erbij stoppen waarna hij automatisch gerebuild wordt? Of moet ik dat dan wel eerst via de commandline aanzwengelen?
En wat wanneer ik een schijf eruit trek? Kan dat zomaar, of moet ik die dan eerst via cmd eruit halen/stoppen?

Aangezien dat iets is wat ik waarschijnlijk niet vaak zal doen heb ik het het liefst gewoon realtime zonder dat ik er bij na hoef te denken... want ik voorzie nu al dat ik tegen die tijd eerst weer op zoek zal moeten gaan in de man van mdadm hoe ik dat moet doen...

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
In principe kan het, maar als je een raid kaartje gebruikt wil het nog wel eens tegenvallen. Zo heb ik wel eens gehad dat mijn systeem vastliep bij een hotswap.
Maar goed, wat wie dan ook hier zal zeggen, het belangrijkste blijft om het te proberen. Zo heb ik in de eerste week (ja een rebuild duurt lang) diverse scenarios getest om te weten wat mij te wachten staat als er daadwerkelijk iets fout gaat.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • L201
  • Registratie: November 2005
  • Laatst online: 10-09 12:58
Ik ben van plan om software raid te draaien (linux, mdadm dus), daaronder kan dat ook gewoon?
Ik ga er eigenlijk wel vanuit, maar voor de zekerheid..

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 21:39
Inderaad, 'proberen' is de enige optie, dan weet je wat je te wachten staat. Probeer het ook meerdere keren.

Voordat ik mijn array in productie heb genomen heb ik er ook mee gespeeld. Een van die spelletjes was 'simuleer' een defecte drive.

Sata is van nature al gebouwd op hot-swap, alleen de controller moet het ondersteunen. Die van mij ondersteunen het. Ik heb met software raid gewoon een disk er uit getrokken en daarvoor in de plaats een nieuwe gestopt. Werkte probleem loos. Kwestie van nieuwe disk als spare aan de array toevoegen en de rebuild start automatisch. Ik heb 1 disk op spare liggen mocht het mis gaan.

[ Voor 9% gewijzigd door Q op 11-11-2009 21:54 ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 21:39
onsgeluk schreef op maandag 09 november 2009 @ 22:24:
Wat ik eerlijk gezegd niet snap is waarom Q lang zou moeten wachten, met een 600W PSU is staggered toch niet strikt noodzakelijk?
Precies, ik gebruik dus bewust ook geen stagered spinup.

Maar de disks gaan ook niet in stand-by. Dat had ik wel leuk ingesteld met een scriptje dat loopt over alle sd? devices en een stand-by tijd instelt van 10 minuten. Dat heb ik geweten.

Ik was 'zegmaar vergeten' dat een RAID 6 array zijn disks sequentieel aanroept, dus niet gelijktijdig. Als een disk opspint dan 'hangt' de read-request even in het luchtledige totdat de spinup klaar is. En dat dan voor 20 disks.

Dat duurt 'even'. 8) Ik heb het maar snel weer uit gezet.

Dat ding van mij is belachelijk maar los daarvan durf ik qua energie gebruik wel te concurreren met al die mensen die een 40 watt kastje 27/4 draaien. Zet die zooi ut. Ook nog eens minder kans op brand.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Q schreef op woensdag 11 november 2009 @ 21:53:
Kwestie van nieuwe disk als spare aan de array toevoegen en de rebuild start automatisch. Ik heb 1 disk op spare liggen mocht het mis gaan.
In principe kan het niet (volgens mij heb je geen SATA poort meer vrij en geen nette plek meer voor een 3.5" schijf), maar er is een weg als je echt zou willen, vandaar heb ik een vraag. Waarom heb je die spare ergens in een kast liggen en niet als dusdanig aangesloten? Ik neem aan dat je RAID1 zo goed als niets doet, dus zou je er één of zelfs twee op een IDE kanaal kunnen plaatsen. De spare op een 'normale' SATA poort zodat er in geval van een fout automatisch een rebuild kan plaatsvinden. Of staat het ding nooit aan als jij er niet bent? (Ik neem aan dat dit ding wel een serieuze taak heeft.)

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 21:39
Dadona schreef op woensdag 11 november 2009 @ 22:14:
[...]
In principe kan het niet (volgens mij heb je geen SATA poort meer vrij en geen nette plek meer voor een 3.5" schijf), maar er is een weg als je echt zou willen, vandaar heb ik een vraag. Waarom heb je die spare ergens in een kast liggen en niet als dusdanig aangesloten? Ik neem aan dat je RAID1 zo goed als niets doet, dus zou je er één of zelfs twee op een IDE kanaal kunnen plaatsen. De spare op een 'normale' SATA poort zodat er in geval van een fout automatisch een rebuild kan plaatsvinden. Of staat het ding nooit aan als jij er niet bent? (Ik neem aan dat dit ding wel een serieuze taak heeft.)
Het is een cold spare. Ik zal de defecte disk er uit moeten trekken, uit de bay moeten schroeven en de nieuwe disk er in vast schroeven en dan de slede er weer in schuiven.

Het is geen Hot-spare.

Je kunt een IDE kanaal gebruiken mits er niets anders op zit dan die ene disk. Een recente IDE disk van gelijkwaardige capaciteit trekt IDE zo vol. Die disk zou wel eens de vertragende factor voor je hele array kunnen worden. Beter zou zijn om een extra sata controllertje in je computer te steken en ergens met ductape nog een disk in je kast te plamuren als hot-spare.

Mijn systeem kan dus geen automatische rebuild starten, maar is geconfigureerd en getest dat een mail wordt gestuurd als de array een disk verliest. Met RAID 6 heb ik dan nog alle tijd om even de disk om te zetten en een rebuild te starten.

Mijn NAS staat altijd uit als ik er niet ben en ook als ik hem niet nodig heb. Hij staat erg veel uit. Maar het leuke is dat hij ook heel functioneel is als hij uit staat. Hij bewaart mijn bestanden immers. Hij gaat alleen aan als ik bij die bestanden moet.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Daarom had ik het er ook over de RAID1 array (deels) over de IDE te laten lopen. Maar als het beest alleen aanstaat als jij thuis bent dan maakt het inderdaad niet zoveel uit.

De CSL/OT kroeg !


  • L201
  • Registratie: November 2005
  • Laatst online: 10-09 12:58
Q schreef op woensdag 11 november 2009 @ 23:14:
[...]
Mijn systeem kan dus geen automatische rebuild starten, maar is geconfigureerd en getest dat een mail wordt gestuurd als de array een disk verliest. Met RAID 6 heb ik dan nog alle tijd om even de disk om te zetten en een rebuild te starten.
Is dat omdat jij een dergelijke hot-swap functionaliteit niet geconfigureerd hebt, of omdat het uberhaupt niet mogelijk is?

Ik begin dan nog wat kleiner dan jij, maar zelf lijkt het me wel mooi om een 3-disks raid 5 array te maken, met een 4e disks als hot-swap ernaast. En dan zo configureren dat zodra er een disk failure is, mdadm automatisch de kapotte disk uit het array haalt en de 4e disks erin zet. En mij daarvan uiteraard met een mailtje ook op de hoogte brengt zodat ik de defecte disk gelijk kan vervangen ;)

  • L201
  • Registratie: November 2005
  • Laatst online: 10-09 12:58
Ik zit nu zelf aan deze combinatie te denken:
#ProductPrijsSubtotaal
1Addonics 4-Port RAID 5 / JBOD SATA II PCI Controller€ 62,50€ 62,50
1AMD Athlon II X2 250€ 54,72€ 54,72
2Chieftec SST-3141SAS€ 86,20€ 172,40
1Kingston ValueRAM KVR800D2N6/2G€ 29,-€ 29,-
1MSI 760GTM-P33€ 48,90€ 48,90
4Samsung EcoGreen F2 EG HD154UI, 1.5TB€ 81,-€ 324,-
1Samsung Spinpoint M5 HM160HC€ 41,-€ 41,-
1Scythe Kamariki 4 450W Plug-in€ 65,76€ 65,76
1Sharkoon Rebel9 Economy Zwart€ 35,90€ 35,90
ImporterenTotaal€ 834,18


Dit alles is grotendeels gebaseerd op de BBG van een thuisserver, met hier en der wat modificaties.

Zo heb ik de behuizing vervangen door één met 9 5,25" bays. Hierin wil ik 2x een Chieftec 4-in-1 hotswap cabinet steken. Waarvan ik in eerste instantie 4 schijven vul (en dus 4 reserve heb voor in de toekomst m'n array uit te breiden). Daarmee ben ik dan 6 van mijn 5,25" ruimtes kwijt.
Daarnaast wil ik er een verwisselbare harddisk inhangen, bijvoorbeeld een Addonics Diamond cartridge systeem. Dit wil ik gebruiken voor backups, daarvoor heb ik dus nog eens 2 hd's nodig (die nog niet in bovenstaand overzicht staan), zodat ik die om kan wisselen (de ene erin, de andere buitenshuis en af en toe switchen).
In totaal ben ik dan 7 5,25" bays kwijt, misschien hang ik er dan nog een dvd-rom of brander in zodat ik ook af en toe een disk kan branden mocht het nodig zijn.

Omdat ik dus 8 sata poorten nodig heb voor mijn hd's en nog eens 2 (een voor dvd, een voor verwisselbare hd), en het moederbord er maar 6 levert moet ik er dus 4 bij toveren. Wat zou ik daarvoor het beste kunnen gebruiken? Een 4-port PCI controller (de snelheid is van ondergeschikt belang, mits binnen grenzen. Zou er dan 2 gebruiken voor backup/dvd, en nog 2 voor mijn 8 disk-arrys. Bijv. een Promise SATA300 TX4 - Controller voor opslag - SATA II - 300 MBps - PCI / 66 MHz) of een Addonics AD5HPMSXA - Controller voor opslag - 5 kanaal - SATA. Als ik het goed begrijp offer je bij die laatste 1 sata poort op en splits je die in vijven?? Dat zal ook vast effect hebben op de snelheid??

Als voeding heb ik dan voor een Scythe voeding gekozen, omdat deze al standaard 6 sata-power aansluitingen heeft. In totaal heb ik er 10 nodig, dus 4x een verloop stekker? Of zijn er nog andere oplossingen die ik beter zou kunnen gebruiken (een verloop met 2x sata-power? of een andere voeding misschien?)

En zie ik verder nog wat over het hoofd??

  • deCube
  • Registratie: Mei 2006
  • Laatst online: 11-09 11:51
Ik zit al een jaar o.i.d. aan het bouwen van een NAS te denken. Ik wilde dit doen i.c.m. het verhuizen naar een van de grond af opgebouwd nieuwe woning. Hierdoor konden we alles zo optimaal indelen en dergelijke.

Het is eindelijk zover, begin december gaan we verhuizen, en nu wil ik dus een NAS bouwen. Omdat er back-ups van 2 bedrijven op komen en verder nog een stuk of 6 gebruikers (tegelijk) op werken moet het een vrij stevige worden.

Bij het bepalen van de hardware heb ik stiekem een beetje bij Q afgekeken. Dit is het lijstje wat ik nu voor ogen heb:

#ProductPrijsSubtotaal
1Corsair HX620W€ 90,90€ 90,90
1Gigabyte GA-P55-UD5€ 158,31€ 158,31
1Highpoint RocketRAID 2340€ 376,56€ 376,56
1Intel Core i5 750€ 155,60€ 155,60
1Kingston ValueRAM KVR1333D3N9K2/4G€ 79,55€ 79,55
10Samsung Spinpoint F3 HD103SJ, 1TB€ 65,-€ 650,-
ImporterenTotaal€ 1.510,92


Daarnaast ga ook ik een Norco RPC-4020 (misschien de RPC-4220) uit Amerika bestellen.

Dit alles wil ik in RAID6 draaien en later extra HDD's bij kunnen plaatsen.

Nu heb ik een aantal vragen:
  • De Core i5 schijnt het wel aardig te doen onder linux, maar hoe zit dat precies met de specifieke taken bij het draaien van een NAS? Kan ik misschien beter een C2D E8500 nemen of?
  • Dit moederbord heb ik speciaal boven een UD3 verkozen omdat deze 2 LAN-poorten heeft (ik wil de verbinding trunken), hoe verhoud de Realtek RTL8111D zich ten opzichte van de Intel 82571GB (losse netwerkkaart, Intel Pro/1000 PT Server)?
Daarnaast sta ik natuurlijk open voor kritiek!

Work hard & be brave.


  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Het trunken is leuk als je dus met meerdere clients tegelijk wil connecten en bv je GBit wil voltrekken (x2)
Ik weet allleen niet hoe die F3 schijven zich houden in RAID. Wat ik wel weet is dat de RR2340 hardware matig alleen geen RAID 6 ondersteund. Als je software raid gaat draaien dan is de opmerking over die F3 icm RAID natuurlijk ook weer niet echt nodig.

Persoonlijk zou ik alleen voor 5400rpm schijven gaan ivm stroom verbruik in idle toestand. Het is +/- 2 watt verschill met 7200rpm maar x10 = 20 watt wat je dan al continu bespaard. Die "discussie" heb ik destijds ook met Q gehad ;)

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


  • onsgeluk
  • Registratie: Juli 2002
  • Laatst online: 09-11-2022

onsgeluk

Beroepsprutser

Q schreef op woensdag 11 november 2009 @ 22:00:
[...]Precies, ik gebruik dus bewust ook geen stagered spinup.
.....
Ik was 'zegmaar vergeten' dat een RAID 6 array zijn disks sequentieel aanroept, dus niet gelijktijdig. Als een disk opspint dan 'hangt' de read-request even in het luchtledige totdat de spinup klaar is. En dat dan voor 20 disks.

Dat duurt 'even'. 8) Ik heb het maar snel weer uit gezet.
Dat sequentieel aanroepen, gaat dat ook op voor R5? Dan zou in jouw geval R5 met een hotspare in een bay tot dezelfde capaciteit leiden. Al kom je dan in de probs door het aantal schijven...
L201 schreef op donderdag 12 november 2009 @ 09:02:
[...]

Is dat omdat jij een dergelijke hot-swap functionaliteit niet geconfigureerd hebt, of omdat het uberhaupt niet mogelijk is?
With stupid ^^ erg benieuwd nml

iR Profiel


  • deCube
  • Registratie: Mei 2006
  • Laatst online: 11-09 11:51
Bedankt voor je reactie.

Ik wil inderdaad trunken omdat er vooral veel vanaf gestreamd gaat worden. Ik wil net als Q de RR2340 enkel gebruiken om genoeg SATA poorten te hebben. Verder gaat alles via software RAID werken.

Ik kan ook F2 Ecogreen gebruiken inderdaad, geen idee wat dat precies met de performance doet. Daarnaast zorg ik er wel voor dat de server uit gaat als er geen clients online zijn.

Work hard & be brave.


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 21:39
Ik heb geen hot-spare simpelweg omdat ik alle 20 disks in een RAID6 heb gestopt en geen vrije SATA poorten meer heb voor nog een disk. Een hot-spare is prima mogelijk en triviaal om in te stellen onder Linux, maar ik heb er voor gekozen om alle disks aan de array toe te wijzen. Een hot-spare is mooier, dat wel.

Als ik mijn build nu over zou doen, dan zou ik niet meer met de Highpoint aan de slag gaan, maar met SAS port-multipliers en een simpele kaart die dit ondersteund. Koop dan ook qua kast de RPC-4220 die al ingebouwde SAS expanders heeft en niet de 4020. Din de 4220 kun je met 4 kabeltjes 20 disks aan. Geschikte (non-raid?) SAS controller en klaar. In mijn kast is het toch wel een draden bende. Met die port multipliers of expanders werken is veel mooier. Je levert wel bandbreedte in, maar boeie, je trekt makkelijk x keer gigabit vol.

Ik mag geen kwaad spreken over die highpoint kaarten, ze doen het uitstekend, maar het blijft altijd spannend met driver ondersteuning.

Volgens mij is 1 TB niet meer kosten-efficent. Je kunt beter voor 1.5 TB gaan denk ik. Kun je een 27 TB NAS neerzetten ;)

Mijn mening: een NAS met 10 disks laat je thuis niet 24/7 aan staan. Period. Dan kun je er net zo goed gewoon 7200 RPM disks in douwen.

Ik heb nog maar 5 TB van de 18 in gebruik, maar ik droom er wel van om zo goedkoop mogelijk nog eens wat bruters te bouwen. Maar er is geen noodzaak en voorlopig ben ik prima tevreden.

code:
1
2
3
4
5
6
 -- 22 -- | -- 21 --
| 13 | 13 | 14 | 15 |
| 14 | 15 | 13 | 15 |
| 13 | 14 | 15 | 14 |
| 15 | 13 | 15 | 14 |
| 15 | 15 | 15 | 15 |


Ik heb een scriptje gemaakt dat de temps weergeeft van de disks, precies volgens de fysieke lay out, inclusief bovenaan de 2 boot disks. Als je ook zo'n case koopt en het boeit je wat: zie mijn blogje voor het script. In het voorbeeld zijn de temps zo laag omdat het systeem net is aangezet. Het opwarmen en afkoelen wat gepaard gaat met aan/uitzetten is iets wat mij niet helemaal lekker zit moet ik toegeven. Maar met de frequentie waarmee dat gebeurt is het denk ik niet echt een issue.

code:
1
/dev/md5               17T  5.2T   12T  32% /storage


>:)

[ Voor 41% gewijzigd door Q op 13-11-2009 00:41 ]


Acties:
  • 0 Henk 'm!

  • utilman
  • Registratie: Juli 2002
  • Laatst online: 04-08 08:12
klaasbram schreef op zaterdag 24 oktober 2009 @ 17:18:
Win7 bevalt me op het moment goed want de filetransfer gaat nu toch wel een stukje sneller en stabieler.
[afbeelding]

En zoals je aan de tijdsbalk ziet is het niet iets van de 1e secondes maar pas na een paar GB de screenshot gemaakt. (piek was 120MB/s laagste 105MB/s)
Verder scheelt een lege hdd natuurlijk ook wel als daar je data op wordt geschreven (Samsung F1)
Dit is van NAS naar Client 1:1 gbit verbinding over Cat5 soepel :X
Lees hier dat je naar een NAS over Gbit connectie 109MB/sec blaast..
Ik haal naar een 6disk RAID server 12MB/sec of naar een 5disk synology (DS508) iets van 11MB/sec
en naar een 12HD MSA20 (HP) iets van 35MB/sec. Snap dus niet hoe je over 100MB/sec haalt en lees
zelfs 200MB/sec naar een samba server iets verder in deze topic. Zou graag meer specs weten...

Acties:
  • 0 Henk 'm!

  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 18:33
@ Q welk os gebruik jij?
Gebruik nu Freenas met ZFS raid5 met 6x500GB ( schijven heb ik gehad ).
Heb heel even Debian geprobeerd met raid6 maar haalde maar 16mb per seconde.
Ik bedacht later dat me raid config nog aan het builden was vandaar dat hij waarschijnlijk zo langzaam was.
Solaris wil ik nog even niet aan beginnen ken net een beetje Debian :P ben een linux noob maar vind het wel prachtig om mee te spelen en aan de praat te krijgen.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 21:39

Acties:
  • 0 Henk 'm!

  • deCube
  • Registratie: Mei 2006
  • Laatst online: 11-09 11:51
Interessant gegeven over de RPC-4220, bedankt!

Ik ga dus voor die behuizing, scheelt een hoop op de kosten van een hardeschijfcontroller omdat ik nu een goedkopere non-RAID kan kopen. Ik zit alleen met het probleem dat ik nog geen mSAS-naar-mSASx4 heb gevonden. Of zie ik iets over het hoofd en volstaat een mSAS-naar-SATAx4?

Op dit moment is dit mijn lijstje:

#ProductPrijsSubtotaal
1Areca ARC-1300-4i€ 132,09€ 132,09
1Corsair HX620W€ 90,90€ 90,90
1Gigabyte GA-P55-UD5€ 158,31€ 158,31
1Intel Core i5 750€ 155,60€ 155,60
1Kingston ValueRAM KVR1333D3N9K2/4G€ 79,55€ 79,55
10Samsung Spinpoint F3 HD103SJ, 1TB€ 65,-€ 650,-
ImporterenTotaal€ 1.266,45


Daar komt nog de behuizing bij á ~355 euro en nog 2 speciale kabels (ieder iets van 30-40 euro).

Ik heb bewust niet voor 1,5TB schijven gekozen omdat dit, met ongeveer dezelfde performance, duurder uitpakt:

10x1TB in RAID6 = 8TB netto, 650 euro
7x1,5TB in RAID6 = 7,5TB netto, 665 euro

Wel ben je met 1,5TB schijven veiliger...

Iemand nog tips/opmerkingen?

Ik heb er in ieder geval zin an!!!! :P

Work hard & be brave.


Acties:
  • 0 Henk 'm!

  • Demo
  • Registratie: Juni 2000
  • Laatst online: 15:27

Demo

Probleemschietende Tovenaar

deCube: nu iets meer uitgeven aan 1,5TB-schijven, bespaar je over een tijdje weer als die dingen per gigabyte goedkoper zijn dan de 1TB-exemplaren. (ik neem aan dat je nog flink wil uitbreiden in de toekomst anders koop je niet zo'n enorme kast toch?) Daarbij verbruiken de grotere schijven minder energie per gigabyte, wat ook weer voor besparing zorgt. En je NAS blijft langer uitbreidbaar :)

Ik heb deze week zelfs zitten twijfelen om voor 2TB-schijven te gaan ipv 1,5TB maar dat prijsverschil was me toch nog iets te gortig..

Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done


Acties:
  • 0 Henk 'm!

  • deCube
  • Registratie: Mei 2006
  • Laatst online: 11-09 11:51
Daar heb je inderdaad gelijk in, het nadeel blijft wel het verbruik.

Als ik dan voor 1,5TB ga dan ga ik voor de Seagate Barracuda LP 1.5TB t.o.v. de Seagate Barracuda 7200.11 1,5TB.

Ga je verschil in snelheid merken tussen die twee?

Work hard & be brave.


Acties:
  • 0 Henk 'm!

  • PeterPan
  • Registratie: Oktober 2005
  • Laatst online: 13:51
Hoe sluit je in die RPC-4220 de 5 backplanes aan op 1 enkele non RAID SAS controller zoals de genoemde Areca ARC-1300-4i?
Of wat zou eventueel een geschikt RAID(6) controller zijn voor deze behuizing?

Moet je voor software of hardware RAID 5 of 6 nog slim omgaan met de plaatsing van de disks en verdeling over de expanders/channels of maakt dat niet (veel) uit?

Is die Areca ARC-1300-4i RPC-4220 ergens leverbaar in Nederland want invoeren vanuit de US lijkt me nogal kostbaar, of niet? Ik zit er sterk aan te denken om ook iets te gaan bouwen met dergelijke kast maar er moet wel normaal aan te komen zijn.

Ik zou overigens op dit moment toch ook voor 1,5TB schijven gaan aangezien het prijsverschil met 1TB schijven heel klein is. Ik heb echter nog geen een type gevonden dat vrij is van problemen :(

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 21:39
Ik begrijp het hele verhaalmet SAS expanders enzo nog niet helemaal. Maar van wat ik nu begrijp zou je bijvoorbeeld een SAS kaart met 4 poorten op die 4 backplane aansluitingen moeten kunnen koppelen. Je moet dan wel 1 SAS/SATA kanaal delen met 5 drives, maar of dat erg is?

Die Areca kaart stelt je volgens mij in staat om maar 1 rij met drives aan te sluiten. De connector is volgens mij gelijk aan 1 zo'n connector op de backplane. Je moet eigenlijk een kaart hebben met vijf van die poorten

Ik las nog een review van de RPC-4220, maar dat is echt 'de' kast. Ook de ventilator indeling is verbeterd. Mocht je ooit een vergelijkbare build maken, neem deze kast, niet die 4020.

[ Voor 15% gewijzigd door Q op 14-11-2009 10:32 ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 21:39
Demoniac schreef op zaterdag 14 november 2009 @ 01:19:
deCube: nu iets meer uitgeven aan 1,5TB-schijven, bespaar je over een tijdje weer als die dingen per gigabyte goedkoper zijn dan de 1TB-exemplaren. (ik neem aan dat je nog flink wil uitbreiden in de toekomst anders koop je niet zo'n enorme kast toch?) Daarbij verbruiken de grotere schijven minder energie per gigabyte, wat ook weer voor besparing zorgt. En je NAS blijft langer uitbreidbaar :)

Ik heb deze week zelfs zitten twijfelen om voor 2TB-schijven te gaan ipv 1,5TB maar dat prijsverschil was me toch nog iets te gortig..
20 TB heb je voor 1500 euro (10x 150 euro (2TB). Ik heb daar bij elkaar nog zo'n 1700 voor moeten betalen denk ik. Maar dan heb je nog 10 slots vrij en kun je groeien naar de 40 TB :o

Als ik het over zou doen dan zouden er nu zeker op zijn minst 1.5 TB disks in gaan. Die worden toch alleen maar goedkoper.

Met dit soort storage oplossingen is verbruik eigenlijk niet iets meer waar je je nog druk over zou moeten maken. Je weet toch al dat het 'veel' gaat worden en die 20 watt die je bespaart zet ook niet zoveel zoden aan de dijk op het totaalverbruik. Dit soort kasten moet je gewoon niet 24/7 laten draaien. RAID 5 en RAID 6 vraagt wel wat IO van de disks en dan zijn 7200 RPM disks toch een betere keuze. De vraag is alleen terecht: wat merk je er van in de praktijk? Op zijn minst langere rebuild times denk ik,maar verder weet ik het niet.

[ Voor 22% gewijzigd door Q op 14-11-2009 10:50 ]


Acties:
  • 0 Henk 'm!

  • deCube
  • Registratie: Mei 2006
  • Laatst online: 11-09 11:51
De Areca ARC-1300-4i zou tot 128 SAS/SATA schijven kunnen ondersteunen. Er zit inderdaad maar één mSAS aansluiting op. Ik had het gevoel dat je dan met een mSAS1x1-to-mSAS4x1 4 backplanes kan aansluiten. Maar die kabel heb ik helaas nog niet gevonden en weet niet of het technisch ook wel mogelijk is.

De laatste backplane sluit je aan met een SATA4x1-to-mSAS1x1 kabel, op de SATA headers op het moederbord, welke gewoon bij bijv. Norco te koop is.

In principe zou ik dan opzoek moeten naar een kaart met 4 mSAS aansluitingen. Helaas zijn deze erg duur (lees: 500+ euro) en kan ik net zo goed voor de RR2340 gaan. (dit heb ik even snel in 10 minuten uitgezocht, zal zo even goed onderzoeken)

Work hard & be brave.


Acties:
  • 0 Henk 'm!

  • PeterPan
  • Registratie: Oktober 2005
  • Laatst online: 13:51
Zo te zien zit er maar 1 SAS aansluiting per backplane (afgaande op de foto's, ik heb nog geen manual kunnen vinden), dus de backplanes onderling door koppelen lijkt me niet mogelijk. Misschien dat je een SAS/RAID controller kunt aansluiten op losse SAS expander (zoals campr112 ze gebruikt in zijn "NAS, 1.1")? Maar dan ga je wel heel erg veel drives aansluiten op 1 enkele SAS poort (en mainboard bus).
Pagina: 1 ... 7 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.