Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
WoRsTeNBoY schreef op vrijdag 24 juli 2009 @ 12:52:
er moet toch een manier te vinden zijn om deze spinups in parrallel te laten lopen?
Alleen trek je voeding dat dan weer niet. 20x 25w (F2) of 20x 30W (F1) is dus alleen al 600 watt voor de hdd's neem dan de rest van het systeem bij en je gaat naar de duurdere klasse voedingen die dat ff op de 12V rail kwijt kunnen. En daarnaast nog een 80PLUS bronze certificering hebben.
De staggered spin-up van de 2340 is gewoon elke afzonderlijke hdd pas opstarten wanneer de vorige opgespint is. +/- 10 a 15 sec per hdd. Is dus zo'n 5 minuten opspinnen... om bv 1 bestandje weg te schrijven van 20MB.

Ik gebruik voorlopig zelf nog geen stagered spin-up omdat ik nu nog maar 4hdd's er aan heb zitten. En straks wil ik ook losse array's maken van elk +/- 3 a 6TB (afhankelijk van gebruikte HDD's)
En dan duurt de staggered spin-up ook minder lang omdat je een specifieke array aanspreekt ;)
Q schreef op donderdag 23 juli 2009 @ 21:09:
[...]

Ik had al 6 F1's en wil ze niet mixen. Met rebuilden gok ik dat de F1's ook wat sneller zijn ivm IO. Qua energie, tja. Weet niet of het veel had gescheeld.
Ik had persoonlijk juist wat schijven gemixt en anders in ieder geval verschillende batches proberen te bemachtigen van dezelfde type hdd's -> de kans dat hdd's dan tegelijk uitvallen wordt alleen maar kleiner.
Ik weet zelf niet of het veel scheeld met rebuilden omdat het zover ik weet veel sequentieel schrijf werk is dan de F2 daar weinig voor onderdoet aan de F1. Random een stukje data op zoeken is de F1 gewoon sneller maar dat komt vooral door de 5400rpm (F2) tegen de 7200rpm (F1)

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
klaasbram schreef op vrijdag 24 juli 2009 @ 19:30:
[...]

Alleen trek je voeding dat dan weer niet. 20x 25w (F2) of 20x 30W (F1) is dus alleen al 600 watt voor de hdd's
Het hele systeem piekt tijdens boot even naar de 450 watt. Het systeem zelf doet 100 watt. Hou ik zelf ongeveer 350 over tijdens de piek voor de schijven, dat is dus 350 / 20 = 17,5 per disk?

Ik heb expres de coolermaster voeding gekozen omdat die 1 grote 40 A 12 volt rail heeft, juist vanwege de spinup.
Ik had persoonlijk juist wat schijven gemixt en anders in ieder geval verschillende batches proberen te bemachtigen van dezelfde type hdd's -> de kans dat hdd's dan tegelijk uitvallen wordt alleen maar kleiner.
Ik weet zelf niet of het veel scheeld met rebuilden omdat het zover ik weet veel sequentieel schrijf werk is dan de F2 daar weinig voor onderdoet aan de F1. Random een stukje data op zoeken is de F1 gewoon sneller maar dat komt vooral door de 5400rpm (F2) tegen de 7200rpm (F1)
Qua dagelijks gebruik met sequentieel lees/schrijf werk maakt het niet zoveel uit, maar ik vermoed (heb geen bewijs/test) dat rebuilds (veel) langer zullen duren omdat het dan echt op io aan komt. De rebuild tijd wil je zo kort mogelijk houden. Maar ach. Idle krap 200 watt voor deze setup vind ik nog wel meevallen.

Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Nou ik draai me NAS hoogstens een uurtje of 4 per dag omdat ik me indeling nog niet naar wens heb.
Straks (over een week) vakantie en dan maar eens wat tijd in gaan steken. Zoals bv back-up stratiegien zowel lokaal als op NAS. Goede download manager en remote desktop software.

@Q volgens specs van de samsung site trekt de F1 2.4A @ spin-up. 2.4 * 12 = 28.8watt De F2 trek 2A = 24watt Nou is dat verschil op basis van 1 schijf te verwaarlozen natuurlijk maar het kan wel voor voeding problemen als je er geen rekening mee houd en dus bv 20 schijven neemt ;)
Verder vind ik die kleine verschillen wel belangrijk want ik betaal zelf de energie rekening ;)
Misschien wel interessant voor de andere NAS bouwers: de verschillen in verbruik tussen de F1 en F2
F1F2
Idle6.7watt4.4watt
Read / Write8.4watt5.6watt

En zolang je bv geen multi GBit verbindingen doet truncen maakt de iets hogere doorvoer snelheid van de F1 niets uit. <-- mijn mening en geld alleen bij meerdere HDD's ( 4 of meer) in een RAID 1 / 5(0) / 6(0)

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
Dus idle 2.3 watt per disk x 20 = 46 watt verschil. Dat maakt wel uit.

Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Scheelt 400KW op jaar basis + dan nog de inefficiëntie van je voeding daar boven doen. Dit zal tussen de 15 en 23 % zijn (weet niet of je een 80PLUS voeding hebt..) Gemakshalve uitgaan van 18%. Dan komt daar nog 72KW bij. Weet ff niet wat een KW doet in € maar komt in de buurt van 100euro op jaarbasis. En dat is alleen het verschil tussen de hdd's.

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
100 euro op jaarbasis, als je 24/7 draait. Maar dat was ik bij voorbaat niet van plan met zo'n ding als dit.

Als ik reken met 20 cent per kw dan klopt 100 euro per jaar wel voor 40 watt.

[ Voor 74% gewijzigd door Q op 25-07-2009 11:32 ]


Acties:
  • 0 Henk 'm!

  • vargo
  • Registratie: Januari 2001
  • Laatst online: 11-09 11:19
Q schreef op donderdag 23 juli 2009 @ 00:51:
Mijn NAS is af.

Het resultaat is een op Debian Linux (Lenny) gebaseerde NAS met 18 TB capaciteit. Gebaseerd op 20 disks. Read performance: 1.2 GB/s, Write performance: 350 MB/s.

[afbeelding]

Case: Norco RPC-4020
Processor: Core 2 duo E7400 @ 2.8GHz
RAM: 4 GB
Motherboard: Asus P5Q-EM DO
LAN: Intel Gigabit
Controller: HighPoint RocketRAID 2340 (16) and on-board controller (6).
Disks: 20 x Samsung Spinpoint F1, 1 TB(array) and 2 x FUJITSU MHY2060BH (60 GB)
Arrays: Boot: 2x 60 GB RAID 1 and 20 x 1 TB RAID 6 ( 18 TB storage )
RAID: Linux Software RAID build using mdadm
Read performance: 1.2 GB/s
Write performance: 350 MB/s.
OS: Linux Debian Lenny 64-bit, based on backported 2.6.28 kernel.
Filesystem: XFS (can handle > 16 TB partitions.)
Rebuild time: about 5 hours.
UPS: Back-UPS RS 1200 LCD using Apcupsd
Idle power usage: about 200 Watt.

[afbeelding]
Wat een bak zeg! Meer dan menig middel-groot bedrijf heeft staan :P

Waarom heb je voor XFS gekozen (en andere file systemen laten afvallen als ZFS of geom)? (of puur keuze voor linux?)
En nog een specifieke reden om 1 groot array te bouwen, en niet 2x RAID6 array (main + backup bijvoorbeeld)?
En ga je op netwerk niveau nog iets doen om de disk performance te kunnen benutten?

Acties:
  • 0 Henk 'm!

  • redfoxert
  • Registratie: December 2000
  • Niet online
Q schreef op zaterdag 25 juli 2009 @ 11:24:
100 euro op jaarbasis, als je 24/7 draait. Maar dat was ik bij voorbaat niet van plan met zo'n ding als dit.

Als ik reken met 20 cent per kw dan klopt 100 euro per jaar wel voor 40 watt.
Je mag tegenwoordig al best met 24/25ct per kWh rekenen. Uiteraard afhankelijk van je provider. Tijdje terug nog zelf een vergelijking gedaan van goedkoopste leveranciers en onder de 21ct (zonder netwerkkosten!) kwam ik eigenlijk nergens.

https://discord.com/invite/tweakers


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
vargo schreef op maandag 27 juli 2009 @ 14:57:
[...]

Wat een bak zeg! Meer dan menig middel-groot bedrijf heeft staan :P
Klinkt gek, maar veel mensen hebben thuis een snellere computer en sneller internet thuis dan op het werk. In die lijn moet je het zien.
Waarom heb je voor XFS gekozen (en andere file systemen laten afvallen als ZFS of geom)? (of puur keuze voor linux?)
Vanwege de 16 TB bariere. ZFS is leuk, maar ik zie solaris als een doodlopende weg en dat is het enige os waar het echt stabiel op werkt.

Mijn oude NAS draaide uitstekend op basis van het zelfde ontwerp, inclusief FS.
En nog een specifieke reden om 1 groot array te bouwen, en niet 2x RAID6 array (main + backup bijvoorbeeld)?
En ga je op netwerk niveau nog iets doen om de disk performance te kunnen benutten?
Dit is het meest efficient qua diskruimte, ik vertrouw op de dubbele redundancy van RAID6 + een UPS. Backups maak ik niet echt. Alleen van het hoognodige natuurlijk.

Zolang het gigabit voltrekt vind ik het wel prima. Het is een NAS, een storage bak, geen SAN. De performance was bijzaak, een gimmick. Misschien dat ik nog eens met iscsi ga spelen, maar dat gaat niet voorbij de gigabit.

Netwerk bonding/teaming heb ik getest maar ik kreeg het niet aan de praat, zodat er 1 verbinding die 2GB haalt ontstaat.

Nog een leuke copy/paste:

code:
1
2
3
4
5
6
7
8
9
52428800000 bytes (52 GB) copied, 47.9495 s, 1.1 GB/s
Bunny:~# ./show-hdd-temp.sh 

-- 29 -- | -- 28 --
| 26 | 27 | 28 | 27 |
| 30 | 31 | 30 | 30 |
| 30 | 32 | 32 | 30 |
| 32 | 31 | 34 | 31 |
| 31 | 33 | 33 | 32 |


De layout in het scriptje weerspiegeld de layout qua disks in het nas, inclusief de 2x 60 gb laptop diskjes die als bootdisk in RAID 1 draaien.

Volgens mijn UPS pakt mijn nas 130 watt wanneer hij idle, is, disks niet in slaap ofzo. Of dat getal klopt echt niet, of het ding is toch zuiniger dan gedacht. Met 20x F1 idle @ 7 watt zou je al op de 140 watt zitten zonder het systeem. Dus wat klopt er niet?

code:
1
2
3
LOADPCT  :  18.0 Percent Load Capacity
NOMPOWER : 720 Watts
APCMODEL : Back-UPS RS 1200 LC


Als je voor de disks meer iets van 4 watt idle per stuk neemt dan klopt het vele meer -> 80 watt voor de disks plus 50 watt voor het systeem.

[ Voor 29% gewijzigd door Q op 28-07-2009 00:48 ]


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Groen dit, groen dat ... boeiend !!! :O

Dit is het Tweakers DIY NAS Topic en Q zijn beeste bak is gewoon super gaaf en geeky _O_ Keep it up! zou ik zeggen d:)b

* nero355 mede storage addict steunt :P

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
nero355 schreef op dinsdag 28 juli 2009 @ 17:17:
Groen dit, groen dat ... boeiend !!! :O

Dit is het Tweakers DIY NAS Topic en Q zijn beeste bak is gewoon super gaaf en geeky _O_ Keep it up! zou ik zeggen d:)b

* nero355 mede storage addict steunt :P
>:)

Thanks. Maar serieus; ik denk dat ik uiteindelijk veel milieu vriendelijker ben met mijn nas die ik overdag uit zet dan mensen die een uber-zuinig nas neerzetten maar wel 24/7 draaien.

Maar helemaal eerlijk ben ik niet, want ik laat altijd een mac mini continue aan staan (30 watt) voor het verkrijgen van content.

Overigens gaat het niet zozeer om groen maar om kosten wat mij betreft. Alhoewel dat in mijn geval wel een beetje vreemd klinkt.

[ Voor 9% gewijzigd door Q op 28-07-2009 19:08 ]


Acties:
  • 0 Henk 'm!

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Heeft iemand hier ervaring met een raid 5 array van 5400 rpm 2tb wd green power schijven ?
Ik ben op zoek naar schijven welke vrij stil zijn en niet te veel hitte produceren maar ik wil wel een beetje redelijke prestaties, volgens mij ben ik dan toch beter af met bijvoorbeeld de spinpoint f2 of valt dit wel mee ?

@Q
Leuke bak :P, ontlast die raid controller de hardware voldoende ?

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
Het hele idee van Linux software RAID is dat juist de CPU wordt gebruikt zodat je een goedkope RAID controller kan gebruiken. Het is een NAS dus hij heeft toch niets beters te doen.

Mag ik vilein opmerken dat ik nog geen hardware controller (zonder SSD's) 1+ GB/s heb zien doen ;) Als het op io komt ren ik weg maar ruwe doorvoer....

Anyway, mijn getallen hierboven over het verbruik 130 watt, of 200 watt als dat ding idle is moeten maar gewoon even genegeerd worden.

Mijn watt meter zegt namelijk Idle 220 watt. Mijn UPS zegt idle 130 watt. De ups gebruikt zelf volgens de watt meter 30 watt. 130 + 30 = 160. Dan mis ik nog 60 watt. Rara, liegt de UPS of liegt de watt meter?

Mijn gevoel zegt dat de UPS liegt, maar dat is juist het apparaat dat het nog wel enigszins goed zou moeten hebben?

[ Voor 3% gewijzigd door Q op 28-07-2009 22:01 ]


Acties:
  • 0 Henk 'm!

  • Demo
  • Registratie: Juni 2000
  • Laatst online: 15:27

Demo

Probleemschietende Tovenaar

Sowieso is een RocketRAID 23x0 trager dan sw RAID :P En afgezien daarvan is het ook een kleine ramp (iets met staggered spinup, ik wil er niet eens meer aan denken :X)
Waar ik wel benieuwd naar ben, zijn de cpu loads tijdens een stresstestje van de array :)

Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done


Acties:
  • 0 Henk 'm!

  • dutch_warrior
  • Registratie: Mei 2005
  • Laatst online: 29-05-2023
Ik vraag me dus ook af wat de load op het ram en de cpu is tijdens zware belasting van de schijven.
Het lijkt me dat zelfs een goedkopere raid controller nog wel enigszins verschil kan maken in vergelijking met een puur onboard oplossing.
Ik kon tenminste niet echt zeggen dat 4x 500 Gb in raid 5 op de onboard controller van mijn rampage formula super presteerde met een E6600 en 2 Gb ram zowel met "hardware" raid als met geom raid was de systeem load vrij hoog.

Als de hardware load meevalt kan ik het geld van een sata raid controller voorlopig uitsparen.
Ik heb hier een gigabyte p45-ds5 bord liggen op de extra silicon image sata raid chips kan ik dan een os schijf en een sata dvd drive aansluiten. Dan heb ik 6 poorten over van de intel south bridge.

Dan kan ik alvast een beetje geld opzij zetten zodat ik later de scsi schijven en controller van mijn virtualisatie cluster storage kan vervangen voor een sata controller met 4 ssd's. Mijn ervaring is namelijk dat het verschil tussen spinpoint F1's en 15k ultra 320 scsi schijven al goed merkbaar is wanneer je via iscsi een os op deze schijven installeert.

[ Voor 41% gewijzigd door dutch_warrior op 29-07-2009 20:10 ]


Acties:
  • 0 Henk 'm!

  • redfoxert
  • Registratie: December 2000
  • Niet online
Q schreef op dinsdag 28 juli 2009 @ 22:00:
Het hele idee van Linux software RAID is dat juist de CPU wordt gebruikt zodat je een goedkope RAID controller kan gebruiken. Het is een NAS dus hij heeft toch niets beters te doen.

Mag ik vilein opmerken dat ik nog geen hardware controller (zonder SSD's) 1+ GB/s heb zien doen ;) Als het op io komt ren ik weg maar ruwe doorvoer....

Anyway, mijn getallen hierboven over het verbruik 130 watt, of 200 watt als dat ding idle is moeten maar gewoon even genegeerd worden.

Mijn watt meter zegt namelijk Idle 220 watt. Mijn UPS zegt idle 130 watt. De ups gebruikt zelf volgens de watt meter 30 watt. 130 + 30 = 160. Dan mis ik nog 60 watt. Rara, liegt de UPS of liegt de watt meter?

Mijn gevoel zegt dat de UPS liegt, maar dat is juist het apparaat dat het nog wel enigszins goed zou moeten hebben?
Als je niet te ver weg woont (Zuid-Limburg of Zuid-Oost Brabant) wil ik wel eens een keertje met mijn VoltCraft Energy Logger 4000 langskomen voor een second opinion :) Ding is behoorlijk nauwkeurig moet ik zeggen.

Anders is het toch een leuke aanwinst. Ik heb er bijvoorbeeld inmiddels zo'n 25% aan stroomverbruik mee weten te achterhalen in huis, EN uiteraard afschieten :)

Die 50 euro die het ding gekost heeft heb ik allang terugverdiend.

https://discord.com/invite/tweakers


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
redfoxert schreef op woensdag 29 juli 2009 @ 19:56:
[...]


Als je niet te ver weg woont (Zuid-Limburg of Zuid-Oost Brabant) wil ik wel eens een keertje met mijn VoltCraft Energy Logger 4000 langskomen voor een second opinion :) Ding is behoorlijk nauwkeurig moet ik zeggen.

Anders is het toch een leuke aanwinst. Ik heb er bijvoorbeeld inmiddels zo'n 25% aan stroomverbruik mee weten te achterhalen in huis, EN uiteraard afschieten :)

Die 50 euro die het ding gekost heeft heb ik allang terugverdiend.
Bedankt voor het aanbod, maar ik zit voorbij Hoorn. Zo'n VoltCraft is misschien een leuk verjaardags cadeautje. ;)
Demoniac schreef op woensdag 29 juli 2009 @ 10:17:
Sowieso is een RocketRAID 23x0 trager dan sw RAID :P En afgezien daarvan is het ook een kleine ramp (iets met staggered spinup, ik wil er niet eens meer aan denken :X)
Waar ik wel benieuwd naar ben, zijn de cpu loads tijdens een stresstestje van de array :)
Wat had je precies met staggered spinup? Anyway u vraagt wij draaien (belasting tijdens schijven):

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
top - 23:51:01 up 14 min,  2 users,  load average: 5.08, 3.92, 2.04
Tasks:  81 total,   4 running,  77 sleeping,   0 stopped,   0 zombie
Cpu0  :  0.0%us, 46.4%sy,  0.0%ni, 20.9%id, 16.6%wa,  1.0%hi, 15.2%si,  0.0%st
Cpu1  :  0.0%us, 49.8%sy,  0.0%ni, 18.6%id, 14.3%wa,  1.3%hi, 15.9%si,  0.0%st
Mem:   4023108k total,  3999580k used,    23528k free,     1568k buffers
Swap:  1967864k total,        0k used,  1967864k free,  3776632k cached

  PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND                                         
 2731 root      15  -5     0    0    0 S   48  0.0   4:36.72 md5_raid5                                        
 3548 root      18  -2 10352 1688  552 D   38  0.0   3:37.03 dd                                               
  219 root      20   0     0    0    0 D   14  0.0   0:58.61 pdflush                                          
  218 root      20   0     0    0    0 D    8  0.0   1:00.14 pdflush                                          
  220 root      15  -5     0    0    0 S    5  0.0   0:27.62 kswapd0           

HTOP:

  1  [||||||||||||||||||||||||||||||          64.7%]     Tasks: 32 total, 1 running
  2  [||||||||||||||||||||||||||              56.9%]     Load average: 4.60 4.09 2.33 
  Mem[|||||||||||||||||||||||||||||||||||216/3928MB]     Uptime: 00:16:25
  Swp[                                     0/1921MB]

  PID USER     PRI  NI  VIRT   RES   SHR S CPU% MEM%   TIME+  Command                                         
 3548 root      18  -2 10352  1668   532 D 35.8  0.0  4:23.62 dd if /dev/zero of /storage/bla.bin bs 1M


Ik heb dus wel een RAID controller met 16 poorten, maar het zijn 16 losse 'jbod arrays' van 1 disk per stuk. Het is gewoon voor mij een veredelde sata controller die me 16 poorten geeft. De HighPoint driver doet niets qua RAID. Dat is het werk van de Linux kernel. Die 1.1 GB duidt op een bottleneck ergens, omdat het theoretisch veel harder moet kunnen. Maar geen idee wat het kan zijn.


Afbeeldingslocatie: http://members.multiweb.nl/nan1/img/titanslotfan.jpg

Vanwege de crappy airflow in mijn Norco 4020 heb ik twee slotfans in de kast gemonteerd. 1 kleine, 1 slot groot, koelt de HighPoint controller (noodzaak), de 2e (grote) is om die warme lucht uit die kast te zuigen zodat de disks koel blijven. Echt stil zijn ze niet, maar wel functioneel.

[ Voor 10% gewijzigd door Q op 30-07-2009 00:14 ]


Acties:
  • 0 Henk 'm!

  • databeestje
  • Registratie: Oktober 2002
  • Nu online

databeestje

Von PrutsHausen

Ik zie wat nieuwe mogelijkheden voor een NAS servertje.

In de Informatique webshop zie ik net een Point of View ION330 Nvidia Atom 330 Dual core alles in 1 bordje.
Deze heeft ook een PCI-e x16 slot wat genoeg zou moeten zijn voor een sata controller met veel poorten.

Als het opgenomen vermogen een beetje overeen komt met de Asrock ION 330 dan zou het circa 11 Watt vermogen opnemen voor enkel het moederbord.

Moet in ieder geval 300x sneller zijn dan mijn Qnap TS409 Pro. De 500Mhz arm processor die daar in zit kan mij niet echt bekoren.

Acties:
  • 0 Henk 'm!

  • remmelt
  • Registratie: Januari 2001
  • Laatst online: 09-04 12:25
databeestje: wil je daar dan software RAID op gaan draaien? Ik weet niet of de Atom dat gaat trekken. Wel interessant, anders!

Acties:
  • 0 Henk 'm!

  • Bierkameel
  • Registratie: December 2000
  • Niet online

Bierkameel

Alle proemn in n drek

Ik heb een Intel bordje met een N330 en dat ding is best snel hoor, viel me niets tegen.
Heb er een tijdje Windows Home Server enzo op gedraaid en dat ging wel lekker.

Acties:
  • 0 Henk 'm!

  • loser180
  • Registratie: Maart 2002
  • Laatst online: 05-09 13:44
Bierkameel schreef op donderdag 30 juli 2009 @ 12:07:
Ik heb een Intel bordje met een N330 en dat ding is best snel hoor, viel me niets tegen.
Heb er een tijdje Windows Home Server enzo op gedraaid en dat ging wel lekker.
En war draai je er nu op?
Toevallig iets met Ubuntu en soft raid 5 ;) Ik ben namelijk wel geïnteresseerd in de performance.

Jouw naam in onder mijn Post


Acties:
  • 0 Henk 'm!

  • Demo
  • Registratie: Juni 2000
  • Laatst online: 15:27

Demo

Probleemschietende Tovenaar

Q schreef op woensdag 29 juli 2009 @ 23:58:
Wat had je precies met staggered spinup? Anyway u vraagt wij draaien (belasting tijdens schijven):
Belasting valt nog best mee :)
Wat ik had met staggered spinup: op de een of andere manier was de firmware van de disken aangepast door de Highpoint controller, als ik mijn disken aan zo'n HP hing spinden ze vrolijk op, kon ik ze formatteren en alles, maar aan een andere controller (Intel ICH, Silicon Image, Areca) werden ze niet herkend, of als schijven met een probleem.. En ik had geen plek meer voor die kaart (was vervangen door een Areca) dus kon ik de schijven niet meer gebruiken :X

Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Q schreef op zondag 28 juni 2009 @ 20:22:

Nu blijkt dat mijn nieuwe systeem, op basis van die 20-bay Norco + Intel cpu, met 10 disks idle maar 145 watt doet. Opmerkelijk. Maar ik had al eerder gezien dat Intel cpu's idle veel minder verstoken dan AMD cpu, maar daar kwam ik destijds pas later achter, ik gok dat dit hier wel mee te maken heeft.
Q schreef op dinsdag 28 juli 2009 @ 22:00:


Anyway, mijn getallen hierboven over het verbruik 130 watt, of 200 watt als dat ding idle is moeten maar gewoon even genegeerd worden.

Mijn watt meter zegt namelijk Idle 220 watt. Mijn UPS zegt idle 130 watt. De ups gebruikt zelf volgens de watt meter 30 watt. 130 + 30 = 160. Dan mis ik nog 60 watt. Rara, liegt de UPS of liegt de watt meter?

Mijn gevoel zegt dat de UPS liegt, maar dat is juist het apparaat dat het nog wel enigszins goed zou moeten hebben?
Ik denk dat je zelf eigenlijk al beantwoord hebt in het verleden ;) Kwam deze post tegen toen in je naar je 1.1GB grens zocht. Want ik kan het ff niet zo 1 2 3 vinden of de kaart nou PCIe 4x of 8x is. Want als het 4x is dan zit je kaart op max 1GB doorvoer + nog wat voor je onboard sata aansluitingen en je hebt je 1.1GB/s ;)

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
Demoniac schreef op donderdag 30 juli 2009 @ 16:16:
[...]
Belasting valt nog best mee :)
Wat ik had met staggered spinup: op de een of andere manier was de firmware van de disken aangepast door de Highpoint controller, als ik mijn disken aan zo'n HP hing spinden ze vrolijk op, kon ik ze formatteren en alles, maar aan een andere controller (Intel ICH, Silicon Image, Areca) werden ze niet herkend, of als schijven met een probleem.. En ik had geen plek meer voor die kaart (was vervangen door een Areca) dus kon ik de schijven niet meer gebruiken :X
Zou het niet gewoon het 'bekende' probleem zijn dat spinpoints altijd lijken te 'crappen' op andere hardware raid controllers? Lijkt me zo onwaarschijnlijk dat een controller een disk 'owned'.
klaasbram schreef op donderdag 30 juli 2009 @ 18:34:
[...]

[...]

Ik denk dat je zelf eigenlijk al beantwoord hebt in het verleden ;) Kwam deze post tegen toen in je naar je 1.1GB grens zocht. Want ik kan het ff niet zo 1 2 3 vinden of de kaart nou PCIe 4x of 8x is. Want als het 4x is dan zit je kaart op max 1GB doorvoer + nog wat voor je onboard sata aansluitingen en je hebt je 1.1GB/s ;)
Kaart is 8x --> dat zou 8x300 = 2,4 GB moeten geven. De array zou theoretisch 18x100 = 1,8 GB aan moeten kunnen. 1,1 GB/s haalde ik al met 10 disks.

Het zou nog kunnen dat de controller op PCI-e 4x staat maar hoe je dat kunt zien weet ik niet.

[ Voor 30% gewijzigd door Q op 30-07-2009 20:56 ]


Acties:
  • 0 Henk 'm!

  • lintweaker
  • Registratie: Oktober 2002
  • Laatst online: 15-08 14:59
Q schreef op donderdag 23 juli 2009 @ 00:51:
Mijn NAS is af.

Het resultaat is een op Debian Linux (Lenny) gebaseerde NAS met 18 TB capaciteit. Gebaseerd op 20 disks. Read performance: 1.2 GB/s, Write performance: 350 MB/s.

<snip>

Controller: HighPoint RocketRAID 2340 (16) and on-board controller (6).
RAID: Linux Software RAID build using mdadm

<snip>
Heeft die RR 2340 niet alleen zo'n 'opensource' driver met een binary blob net als mijn kleinere 2310? Op zich werkt deze driver prima alleen is het altijd maar afwachten of nieuwe kernels ondersteund gaan worden. Tot nog toe gaat dat goed.

Ik heb geprobeerd mijn RR2310 met de standaard Linux driver (sata_mv, marvell chip) te gebruiken maar zag een vette warning in de kernel logs staan dat de RR2310 bios mogelijk sectoren overschrijft voor zijn RAID5 config. Heeft de RR2340 hier geen last van?

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
lintweaker schreef op vrijdag 31 juli 2009 @ 14:42:
[...]

Heeft die RR 2340 niet alleen zo'n 'opensource' driver met een binary blob net als mijn kleinere 2310? Op zich werkt deze driver prima alleen is het altijd maar afwachten of nieuwe kernels ondersteund gaan worden. Tot nog toe gaat dat goed.

Ik heb geprobeerd mijn RR2310 met de standaard Linux driver (sata_mv, marvell chip) te gebruiken maar zag een vette warning in de kernel logs staan dat de RR2310 bios mogelijk sectoren overschrijft voor zijn RAID5 config. Heeft de RR2340 hier geen last van?
Geen idee. Tot en met 2.6.28 gaat het goed. Een 2.6.30 kernel gaat fout. Af en toe brengt HP echter netjes een nieuwe driver uit, voor veel Linux-smaakjes. Dat is wel een risico.

Het is inderdaad een 'open source' driver zoals jij beschrijft. Ik heb nooit met een 'gewone' sata driver lopen spelen. Hoe heb jij die aan de praat gekregen, ondanks de 'vette' warning? Ik heb ook nog een 2320 waarmee ik eens kan testen.
sata_mv: Warn about HPT RocketRAID BIOS treatment of "Legacy" drives

The Highpoint RocketRAID boards using Marvell 7042 chips
overwrite the 9th sector of attached drives at boot time,
when those drives are configured as "Legacy" (the default)
in the HighPoint BIOS.

This kills GRUB, and probably other stuff.
But it all happens *before* Linux is even loaded.

So, for now we'll log a WARNING when such boards are detected,
and advise users to configure BIOS "JBOD" volumes instead,
which don't appear to suffer from this problem.

[ Voor 24% gewijzigd door Q op 01-08-2009 09:54 ]


Acties:
  • 0 Henk 'm!

  • Bierkameel
  • Registratie: December 2000
  • Niet online

Bierkameel

Alle proemn in n drek

loser180 schreef op donderdag 30 juli 2009 @ 15:08:
[...]


En war draai je er nu op?
Toevallig iets met Ubuntu en soft raid 5 ;) Ik ben namelijk wel geïnteresseerd in de performance.
Nu Windows 7 dus ik kan het helaas niet testen.

Acties:
  • 0 Henk 'm!

  • vargo
  • Registratie: Januari 2001
  • Laatst online: 11-09 11:19
Q schreef op zaterdag 01 augustus 2009 @ 09:47:
[...]


Geen idee. Tot en met 2.6.28 gaat het goed. Een 2.6.30 kernel gaat fout. Af en toe brengt HP echter netjes een nieuwe driver uit, voor veel Linux-smaakjes. Dat is wel een risico.

Het is inderdaad een 'open source' driver zoals jij beschrijft. Ik heb nooit met een 'gewone' sata driver lopen spelen. Hoe heb jij die aan de praat gekregen, ondanks de 'vette' warning? Ik heb ook nog een 2320 waarmee ik eens kan testen.


[...]
Mijn onboard SiL 3114 controller (@Asus K8N-E Deluxe) heeft de zeer vervelende neiging om altijd (ook bij JBOD!) aan de 1e sectoren te zitten. Gevolg: na een herstart is het array verdwenen.

Om die reden zorg ik ervoor dat het array over een slice wordt gecreeerd, waarbij de 1e en laatste sectoren vrij worden gehouden (het verlies in data capaciteit is verwaarloosbaar klein).

Misschien sowieso wel verstandig, want:
- mogelijk moet je in de toekomst naar een andere controller switchen. Beetje jammer als deze je 1e sectoren alsnog overschrijft.
- een disk kan kwa grootte verschillen per merk / model of zelfs versie. Ik ben al verhalen tegen gekomen waarbij dit verschil op liep t/m 300MB! Om deze reden zou je misschien moeten overwegen zelfs 1 GB vrij te houden.

Acties:
  • 0 Henk 'm!

  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 31-08 10:48
Heb een vreemd probleem met mijn FreeBSD NAS. Gisteren 3 additionele disken opgehaald en geinstalleerd. Perc 5/i controller herkent de disken en met 8 disken heb ik een RAID 5 virtual disk gemaakt. 1 disk dient als hot-spare.

(6 + 1 RAID5) + 1 hot spare = 8 disken

Tijdens fdisk in sysinstall gaat alles ook nog lekker:

Afbeeldingslocatie: http://files.me.com/maartendevries/0zny9p

Echter wanneer ik een disklabel wil aanmaken is er maar ongeveer 1.5TB beschikbaar. Wanneer ik vervolgens fdisk open zie ik de oorzaak. De partitie is verkleind. Ik kan extra partities aanmaken, maar de bedoeling is dat ik een partitie krijg van 5.6TB. Geen 3 partities van 1.5TB:

Afbeeldingslocatie: http://files.me.com/maartendevries/cvo022

Iemand een idee?

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Nou weet ik niet hoe het in Linux zit maar in Windows kon ik kiezen uit een GPT disk (volledige grootte beschikbaar) of een bootable disk.(in andere woorden dan) en daarbij had ik ook een beperking van 1.5TB maar dat zou ook door de NTFS limitaties van bootdisk te maken kunnen hebben.
Alleen wat ik hiermee wil zeggen is dat een GPT disk er los van stond hoe ik de hdd ging formateren.

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 31-08 10:48
Probleem opgelost (zie ander topic)

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
^^ zat ik toch aardig goed met me GPT disk suggestie ;)

Nou op dit moment zit ik op +/- 80MB/s write snelheid naar me NAS toe en denk dat ik daarover niet mag klagen ;) Moest er wel wat voor aanpassen maar naast een directe link naar me nas (geen switch er tussen) en wat software aanpassingen was het te overzien.
Me NAS zit nu met 10/100 MBit kaartje aan me router. Me pc zit met Gbit aan router en andere Gbit aan me NAS.
Toen ik via gbit switch -> gbit router -> NAS verbonden zat haalde ik maar rond de 40MB/s met drops naar 25MB/s. Toen ik de gbit switch er tussen uit haalde maakt dat eigenlijk niets uit. Later nog getest met me Gbit router (switch er tussen uit) waren er wel minder drops maar nog steeds geen hoge snelheid. Dat de switch problemen zou geven op snelheid gebied had ik wel verwacht omdat er ook continu een 100Mbit apparaat zit te babbelen met de router en dat komt de performance niet ten goede ;)

[ Voor 3% gewijzigd door The-Source op 14-08-2009 10:54 ]

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • vargo
  • Registratie: Januari 2001
  • Laatst online: 11-09 11:19
Zware Unit schreef op zondag 09 augustus 2009 @ 10:05:
Heb een vreemd probleem met mijn FreeBSD NAS. Gisteren 3 additionele disken opgehaald en geinstalleerd. Perc 5/i controller herkent de disken en met 8 disken heb ik een RAID 5 virtual disk gemaakt. 1 disk dient als hot-spare.

(6 + 1 RAID5) + 1 hot spare = 8 disken
Waarom geen RAID6 array over de 8 disks?
De kans op data verlies vanwege disk failure kan al snel oplopen tot een factor 100+ (in het voordeel van RAID6 natuurlijk).

Zie ook:
* http://www.intel.com/design/storage/papers/308122.htm
* http://storageadvisors.ad...reliability-calculations/
* http://storageadvisors.ad...ty-calculations-for-raid/

Acties:
  • 0 Henk 'm!

  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 31-08 10:48
De Dell Perc 5/i ondersteunt geen RAID 6. Misschien ooit een Areca, maar vind ik momenteel te duur. Tevens draai ik Raid 5 met een hot spare, dus 6 + 1 + 1. Valt er een disk uit dan nog geen probleem. Vallen er twee disken op hetzelfde moment heb ik een probleem.

[ Voor 45% gewijzigd door Zware Unit op 14-08-2009 16:08 ]

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Zware Unit schreef op vrijdag 14 augustus 2009 @ 16:06:
De Dell Perc 5/i ondersteunt geen RAID 6. Misschien ooit een Areca, maar vind ik momenteel te duur. Tevens draai ik Raid 5 met een hot spare, dus 6 + 1 + 1. Valt er een disk uit dan nog geen probleem. Vallen er twee disken op hetzelfde moment heb ik een probleem.
Nou zie de eerste regels van dit artikel http://www.enhance-tech.c...How%20RAID%206%20Work.htm
Er kunnen dus 2 schijven uitvallen zonder problemen.

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

Verwijderd

klaasbram schreef op vrijdag 14 augustus 2009 @ 18:55:
Nou zie de eerste regels van dit artikel http://www.enhance-tech.c...How%20RAID%206%20Work.htm
Er kunnen dus 2 schijven uitvallen zonder problemen.
Hij zegt juist dat hij RAID 5 draait met een hotspare, dus kan hij maar 1 schijf hebben die uitvalt zonder dataverlies.

Acties:
  • 0 Henk 'm!

  • mschol
  • Registratie: November 2002
  • Niet online
ik heb sinds een paar dagen een Areca 1261ML inclusief 5 Hitachi HDT721010SLA360 in raid 5
hier heb ik wat mee zitten spelen (voornamelijk met 4 disks, de 5de wilde met moeite in mijn disk array)
de schijven zijn qua data wel leeg, geen idee of dit nog invloed heeft op de perfomance?
array build time (4x1TB raid 5): 002:59:38
array rebuild time (4x1TB raid 5): 002:54:49
array migration (4x1TB R5 -> 5x1TB R5): 017:16:59
vooral die laatste vind ik bizar lang...

de 4disk array geeft de volgende resultaten:
Afbeeldingslocatie: http://images.mschol.eu/HDD_Crystaldiskmark.JPG
Afbeeldingslocatie: http://images.mschol.eu/HDD_Crystaldiskmark1.JPG
de stripe size is 64Kbytes en blocksize is 512Bytes

ik heb geen flauw idee of dit een beetje op snelheid is..
iemand die hier wat zinnings op kan zeggen?

Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Lees snelheid van boven de 500MB/s lijkt me niet echt mogelijk met maar 5 disks in RAID 5.
Heeft je RAID kaart soms onboard geheugen? want dan zal hij wel een groot gedeelte uit de cache halen.
Schrijf snelheiden zouden kunnen kloppen maar een hoop is afhankelijk van de cache. Er zijn van de tools die bv 10GB over pompen naar de hdd's om een goed beeld te kunnen vormen en ik denk dat als je werkelijke resultaten wil zien je dat moet proberen. ;)
Verwijderd schreef op vrijdag 14 augustus 2009 @ 22:02:
[...]


Hij zegt juist dat hij RAID 5 draait met een hotspare, dus kan hij maar 1 schijf hebben die uitvalt zonder dataverlies.
Nou hij zou 2 uitvallers kunnen hebben alleen moet de 2e uitvaller niet tijdens rebuilden ontstaan. En juist dan is de kans op een 2e uitvaller het grootst (iets met zelfde serie / batch hdd's, warmte en uptime). Met RAID 6 kun je 2 uitvallers tegelijk hebben zonder data verlies en het kost je ook gewoon 2 hdd's als pariteit. Voordeel van een hotspare is vooral als je meerdere array's heb draaien zodat hij in elke array kan bijspringen.

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 31-08 10:48
Precies. Mocht er tijdens de rebuild nog een disk uitvallen dan ben ik de sjaak.

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


Acties:
  • 0 Henk 'm!

  • lintweaker
  • Registratie: Oktober 2002
  • Laatst online: 15-08 14:59
Q schreef op zaterdag 01 augustus 2009 @ 09:47:
[...]


Geen idee. Tot en met 2.6.28 gaat het goed. Een 2.6.30 kernel gaat fout. Af en toe brengt HP echter netjes een nieuwe driver uit, voor veel Linux-smaakjes. Dat is wel een risico.

Het is inderdaad een 'open source' driver zoals jij beschrijft. Ik heb nooit met een 'gewone' sata driver lopen spelen. Hoe heb jij die aan de praat gekregen, ondanks de 'vette' warning? Ik heb ook nog een 2320 waarmee ik eens kan testen.

[...]
Een beetje late reactie.....met de gewone std sata_mv driver heb ik even gespeeld en het leek ook allemaal goed te werken. Na het zien van de warning heb ik toch maar besloten naar de HP driver te gaan, gelukkig ondersteunde deze nu de 2.6.29 kernel.

Ik zie op de HighPoint site dat er ook een versie is 'zonder raid', misschien is dit voor mij wel een goede optie om hiermee op de std kernel driver over te stappen. Ik zal de driver op de site eens bekijken of er alsnog geen binary blobs inzitten.

Acties:
  • 0 Henk 'm!

  • mschol
  • Registratie: November 2002
  • Niet online
klaasbram schreef op zaterdag 15 augustus 2009 @ 09:20:
Lees snelheid van boven de 500MB/s lijkt me niet echt mogelijk met maar 5 disks in RAID 5.
Heeft je RAID kaart soms onboard geheugen? want dan zal hij wel een groot gedeelte uit de cache halen.
Schrijf snelheiden zouden kunnen kloppen maar een hoop is afhankelijk van de cache. Er zijn van de tools die bv 10GB over pompen naar de hdd's om een goed beeld te kunnen vormen en ik denk dat als je werkelijke resultaten wil zien je dat moet proberen. ;)
hij heeft inderdaad onboard geheugen (mag ook wel voor een kaartje van 700 euro)
om precies te zijn: 512MB, 533Mhz DDR2 (up te graden naar 2GB)

Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Dan mag je er ook gelijk weer een backup batterij bij gaan nemen want 2GB is niet zomaar weg geschreven bij stroom uitval ;)

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
lintweaker schreef op zaterdag 15 augustus 2009 @ 09:52:
[...]

Een beetje late reactie.....met de gewone std sata_mv driver heb ik even gespeeld en het leek ook allemaal goed te werken. Na het zien van de warning heb ik toch maar besloten naar de HP driver te gaan, gelukkig ondersteunde deze nu de 2.6.29 kernel.

Ik zie op de HighPoint site dat er ook een versie is 'zonder raid', misschien is dit voor mij wel een goede optie om hiermee op de std kernel driver over te stappen. Ik zal de driver op de site eens bekijken of er alsnog geen binary blobs inzitten.
Ik zie dat de drivers voor de 2320 op 1.9 zitten maar die voor de 2340 nog op 1.6. Vraag me af of die drivers eigenlijk verschillen, maar ga het niet proberen. Het toont wel aan dat Highpoint netjes haar kaarten bij houdt.

Ik ga misschien nog eens testen met de standaard driver, rekening houdend met de bekende issues.

[ Voor 5% gewijzigd door Q op 15-08-2009 13:51 ]


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Wat ik zelf een beetje jammer vind is dat de drivers niet werken in de SBS 2003 setup. Dus drivers laden wanneer er gevraagd wordt. Setup antwoord met dat de setup opnieuw moet opstarten om de drivers te gebruiken en daardoor niet bruikbaar zijn :S (geld voor de drivers op cd en vers gedownloade)

edit gaat over de 2340

edit 2: @ Q ik zie dat je geen PM hebt dus hopelijk lees je hier nog mee:
Wat heb jij ongeveer voor je behuizing uit gegeven. (in dollars of euro's)
En weet je toevallig hoe zwaar deze was lbs of kg's ?
Ik kom er namelijk 1tje voor 299 dollar tegen en ik denk dat het geen geld is. En voor de toekomst wel makkelijk is :P

[ Voor 37% gewijzigd door The-Source op 16-08-2009 00:36 ]

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • mschol
  • Registratie: November 2002
  • Niet online
klaasbram schreef op zaterdag 15 augustus 2009 @ 14:30:
Wat ik zelf een beetje jammer vind is dat de drivers niet werken in de SBS 2003 setup. Dus drivers laden wanneer er gevraagd wordt. Setup antwoord met dat de setup opnieuw moet opstarten om de drivers te gebruiken en daardoor niet bruikbaar zijn :S (geld voor de drivers op cd en vers gedownloade)

edit gaat over de 2340

edit 2: @ Q ik zie dat je geen PM hebt dus hopelijk lees je hier nog mee:
Wat heb jij ongeveer voor je behuizing uit gegeven. (in dollars of euro's)
En weet je toevallig hoe zwaar deze was lbs of kg's ?
Ik kom er namelijk 1tje voor 299 dollar tegen en ik denk dat het geen geld is. En voor de toekomst wel makkelijk is :P
ik dacht te lezen dat Q. in totaal (basis bedrag + douanebelastingen enzo iets van 450 euro kwijt was voor de kast)

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
mschol schreef op zondag 16 augustus 2009 @ 23:18:
[...]

ik dacht te lezen dat Q. in totaal (basis bedrag + douanebelastingen enzo iets van 450 euro kwijt was voor de kast)
kast 300 dollar, verzendkosten 150 dollar (rechtstreeks bij Norco) totaal 450 dollar (nu 314 euro ) + 70 euro douane kosten. Nog geen 400 dus.

Acties:
  • 0 Henk 'm!

  • lampie1979
  • Registratie: Maart 2005
  • Laatst online: 24-08 17:04

lampie1979

Hoepla!

Q schreef op zondag 16 augustus 2009 @ 23:29:
[...]


kast 300 dollar, verzendkosten 150 dollar (rechtstreeks bij Norco) totaal 450 dollar (nu 314 euro ) + 70 euro douane kosten. Nog geen 400 dus.
+75 euro douane

They call her... c*ck juggeling Thunderc*nt!


Acties:
  • 0 Henk 'm!

  • Nvidiot
  • Registratie: Mei 2003
  • Laatst online: 03-06 16:38

Nvidiot

notepad!

Windows 7 als client van mijn Ubuntu Samba server (backend: linux softraid 5, 4x1TB Hitachi):

Afbeeldingslocatie: http://www.hueck.net/Network%20speed.PNG
102 mbyte/sec, 88.85% van m'n gigabit link in gebruik :)

Samba tweaks:
code:
1
2
[global]
    socket options = TCP_NODELAY IPTOS_LOWDELAY SO_KEEPALIVE SO_RCVBUF=40960 SO_SNDBUF=40960

Tevens de MTU op de Ubuntu machine op 4088 gezet (groter gaf vreemde issues). Op de Windows 7 machine de MTU op 9K gezet.

What a caterpillar calls the end, the rest of the world calls a butterfly. (Lao-Tze)


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Uit wat voor chips bestaat je Gbit NIC's (marvell, realtek, intel etc)

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • Nvidiot
  • Registratie: Mei 2003
  • Laatst online: 03-06 16:38

Nvidiot

notepad!

klaasbram schreef op zaterdag 22 augustus 2009 @ 22:34:
Uit wat voor chips bestaat je Gbit NIC's (marvell, realtek, intel etc)
Beide kanten zijn onboard Realtek chipjes.

What a caterpillar calls the end, the rest of the world calls a butterfly. (Lao-Tze)


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
Ik haal vergelijkbare snelheden met mijn nas zonder TCP/IP tweaks zoals jumbo frames e.d. tussen Vista en het NAS. Vraag me af of die mtu zoveel uitmaakt.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
In het kader van 'geef de man een hengel, niet een vis', ik ben op zoek naar een:
- pci-e kaart met sata aansluitingen
- zonder onboard ondersteuning van (driver) RAID
Maar helaas heb ik niet echt een goede zoekopdracht. Ik eindig met name bij pci-e kaartjes met raid ondersteuning. Ik ben er maar één tegengekomen van supermicro, maar die is niet leverbaar in Nederland. Bij die supermicro viel al meteen op dat ik 8 poorten kreeg terwijl ik voor dezelfde prijs voor een kaart met (matige) raid functionaliteit maar 4 poorten kreeg.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

Verwijderd

Is de RAIDcore 5210 niet wat voor je? Stond bij Webconnexxion voor 75 euro.

edit: deze dus.

[ Voor 41% gewijzigd door Verwijderd op 01-09-2009 18:53 . Reden: linkje toegevoegd ]


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
En als je een RAID kaart hebt kun je ook alle schijven als afzonderllijke JBOD array's maken waarnaar je gewoon via software raid iets kunt maken ;)
Q heeft dat ook gedaan bij zijn nas met een highpoint 2340 kaart (die ik zelf ook heb :P )

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • John2B
  • Registratie: Mei 2000
  • Laatst online: 17-08 00:38

John2B

I Love RAID5..!!

mschol schreef op vrijdag 14 augustus 2009 @ 23:05:
array migration (4x1TB R5 -> 5x1TB R5): 017:16:59
vooral die laatste vind ik bizar lang...
Op zich niet zo vreemd, Alle "DATA" op de 4 disken moet geheel opnieuw worden berekend en weer verdeeld worden over 5 disken incl. parity.

De DATA die verspreid staat over de 4 disken moet eerst hersteld, en tijdelijke verplaatst naar de nieuwe toegevoegde disk, vervolgens herberekend/gesplits over 5 disken (incl. parity). En dat ON THE FLY met behoud van data.... _/-\o_
de stripe size is 64Kbytes en blocksize is 512Bytes
Al sinds Areca op de markt is al bekend dat de performance bij een STRIPE SIZE van 128KBytes het meest optimaal is. ;) Default is inderdaad 64Kb. :(

Scheelt ongeveer 4 a 5 % aan extra performance :P

A friendship founded on business is better than a business founded on friendship


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
Verwijderd schreef op dinsdag 01 september 2009 @ 18:51:
Is de RAIDcore 5210 niet wat voor je? Stond bij Webconnexxion voor 75 euro.

edit: deze dus.
De maker van Raidcore is failliet, verwacht geen toekomstige driver ondersteuning.
klaasbram schreef op dinsdag 01 september 2009 @ 19:04:
En als je een RAID kaart hebt kun je ook alle schijven als afzonderllijke JBOD array's maken waarnaar je gewoon via software raid iets kunt maken ;)
Q heeft dat ook gedaan bij zijn nas met een highpoint 2340 kaart (die ik zelf ook heb :P )
Het blijft een issue. Er zijn geen domme sata controllers met meer dan 4 poorten zonder iets van reet.

Een highpoint 2320 of 2340 is het minst duur, maar duur blijft het. Zoals Klaasbram schrijft, gewoon met jbods aan de slag vervolgens.
John2B schreef op dinsdag 01 september 2009 @ 20:49:
[...]


Op zich niet zo vreemd, Alle "DATA" op de 4 disken moet geheel opnieuw worden berekend en weer verdeeld worden over 5 disken incl. parity.

De DATA die verspreid staat over de 4 disken moet eerst hersteld, en tijdelijke verplaatst naar de nieuwe toegevoegde disk, vervolgens herberekend/gesplits over 5 disken (incl. parity). En dat ON THE FLY met behoud van data.... _/-\o_
Een grow onder Linux met software raid doet er even lang over, afhankelijk van de capaciteit van een enkele disk maal de transfersnelheid, die laag ligt door de vele lees/schrijf bewerkingen.

Is dus inderdaad conform verwachting. Ik wil een grow of rebuild met 2 TB schijven eigenlijk liever nooit meemaken. Ik vraag me af of dat voor het einde van het heelal klaar is. De controller, hardware of software emulatie, kan er weinig aan doen. Hardeschijven zijn gewoon trage on-dingen als het op IO aankomt en laten we hopen dat de SSDs die krengen snel vervangen.

[ Voor 79% gewijzigd door Q op 01-09-2009 21:19 ]


Acties:
  • 0 Henk 'm!

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 27-08 10:26

DJ-Visto

Aye aye, sir!

Q schreef op dinsdag 01 september 2009 @ 21:12:
[...]
De maker van Raidcore is failliet, verwacht geen toekomstige driver ondersteuning.
Echt :( ?

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
Zou wel aparte humor zijn, niet? Maar als je het niet gelooft, search dit topic naar een eerdere post van mij.

Acties:
  • 0 Henk 'm!

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 27-08 10:26

DJ-Visto

Aye aye, sir!

Q schreef op dinsdag 01 september 2009 @ 21:19:
[...]


Zou wel aparte humor zijn, niet? Maar als je het niet gelooft, search dit topic naar een eerdere post van mij.
Nee, maar ik vindt het jammer wouw namelijk die met 8 halen, binnenkort.. Alleen als ze failet zijn geen driver ondersteuning moet ik bijna 100% weten of hij werkt @ windows server 2008 r2

offtopic:
jij had toch een xbox of een ps3 omgebouwt voor je broertje? ik ben die topic kwijt

Acties:
  • 0 Henk 'm!

  • John2B
  • Registratie: Mei 2000
  • Laatst online: 17-08 00:38

John2B

I Love RAID5..!!

Q schreef op dinsdag 01 september 2009 @ 21:12:
De maker van Raidcore is failliet, verwacht geen toekomstige driver ondersteuning.
RAIDCore (Was van Ciprico) is overgenomen door DottHill. :)

Driver pagina op hun website:
http://crc.dothill.com/di....asp?aid=2266&r=0.8542749

A friendship founded on business is better than a business founded on friendship


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
John2B schreef op dinsdag 01 september 2009 @ 21:50:
[...]


RAIDCore (Was van Ciprico) is overgenomen door DottHill. :)

Driver pagina op hun website:
http://crc.dothill.com/di....asp?aid=2266&r=0.8542749
Overname na faillissement naar ik meen.
Product
RAIDCore

Subject
Legacy RAIDCore Software

Summary of Article

Here are the links to the Legacy RAIDCore Products on the CRC. Separate link for each version.
Sleutelwoord = Legacy.

[ Voor 3% gewijzigd door Q op 01-09-2009 23:32 ]


Acties:
  • 0 Henk 'm!

  • Demo
  • Registratie: Juni 2000
  • Laatst online: 15:27

Demo

Probleemschietende Tovenaar

Grrrr, de Dell PERC 5/i blijkt geen capacity expansion te ondersteunen vanuit de firmware, daar moet je een tooltje voor gebruiken en dat draait natuurlijk weer enkel onder Windows of Red Hat :/
Nouja.. dan maar een schijfje aan m'n NAS hangen en daar even snel Windows op zetten..

Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
klaasbram schreef op dinsdag 01 september 2009 @ 19:04:
En als je een RAID kaart hebt kun je ook alle schijven als afzonderllijke JBOD array's maken waarnaar je gewoon via software raid iets kunt maken ;)
Q schreef op dinsdag 01 september 2009 @ 21:12:
[...]
Het blijft een issue. Er zijn geen domme sata controllers met meer dan 4 poorten zonder iets van reet.

Een highpoint 2320 of 2340 is het minst duur, maar duur blijft het. Zoals Klaasbram schrijft, gewoon met jbods aan de slag vervolgens.
Een JBOD tussen hoeveel schijven? 4x een JBOD van twee schijven, of 8x één (kan dat?)
Worst case scenario: je kaart werkt niet meer. In dat geval zit je volgens mij vast aan diezelfde kaart. Je kunt niet besluiten om de harde schijven op onboard sata controllers aan te sluiten en ook een andere RAID kaart met 8 of meer poorten snapt er volgens mij niets van. Zou je pure software raid doen (bv. onboard sata controller + software raid) dan ben je onafhankelijk van de hardware. Of kunnen jullie nog steeds er een willekeurige andere 8 poorts kaart inhangen en de schijven daarop aansluiten?

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

Verwijderd

8x 1 is ook mogelijk. Dan maak je dus arrays aan met 1 schijf erin.
Wat betreft een andere kaart gebruiken, dit zou geen probleem moeten zijn. In principe hoort de vontroller niks met de scijf te doen bij een JBOD van 1 disk, maar mogelijk dat sommige controllers dat wel doen. Misschien nog iemand die hier ervaring mee heeft?

[ Voor 66% gewijzigd door Verwijderd op 02-09-2009 08:52 ]


Acties:
  • 0 Henk 'm!

  • remmelt
  • Registratie: Januari 2001
  • Laatst online: 09-04 12:25
Is die JBOD indeling dan weer afhankelijk van de RAID controller? Dat zou ik wel een nadeel vinden. Een van de grote voordelen van software RAID is dat je totaal niet afhankelijk meer bent van de hardware, zo lang je de benodigde SATA poorten maar hebt. Als de RAID kaart "speciale" (kan dat?) hardware-afhankelijke JBOD schijven maakt, dan is moet je dus altijd weer zo'n zelfde kaart hebben.

Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Afhankelijk hoe ver je met je NAS wilt gaan is een mobo met 12 sata poorten nog een optie + bv een kaarten van 4 poorten.
Nadeel is dat zo'n bord gericht is op Gamers en dus duur is. Maar meestal wel weer 2x Gbit LAN en meerdere PCI-e 16x sloten heeft. Waarin je later weer een leuke RAID kaart kunt stoppen :P

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
remmelt schreef op woensdag 02 september 2009 @ 09:20:
Is die JBOD indeling dan weer afhankelijk van de RAID controller? Dat zou ik wel een nadeel vinden. Een van de grote voordelen van software RAID is dat je totaal niet afhankelijk meer bent van de hardware, zo lang je de benodigde SATA poorten maar hebt. Als de RAID kaart "speciale" (kan dat?) hardware-afhankelijke JBOD schijven maakt, dan is moet je dus altijd weer zo'n zelfde kaart hebben.
Helaas heb ik dmv tests moeten ondervinden dat een harde schijf niet wordt herkend door een gewone sata poort als hij aan een rocket raid heeft gehangen. Laat ik het zo zeggen: de raid partitie wordt niet gedetecteerd. Een hp rocket raid moet een disk ook eerst initialseren, anders kun je hem niet gebruiken. Daarmee zet hi jwat aan het begin van de disk naar ik meen. Mogelijk dat hier nog mee te trucen is door wat met een parted te spelen en de eerste sectoren niet te gebruiken.

Kortom, mocht mijn controller klappen, dan moet ik eenzelfde nieuwe kopen. Ik had het liever anders gezien, maar er is geen andere optie wat de highpoint betreft.

Voor kleinere controllers die gewoon 4 sata poorten aanbieden heb je dit probleem niet.

Ik accepteer het risico. Dit probleem heb je met hw-raid sowieso.

[ Voor 14% gewijzigd door Q op 02-09-2009 12:59 ]


Acties:
  • 0 Henk 'm!

  • redfoxert
  • Registratie: December 2000
  • Niet online
klaasbram schreef op woensdag 02 september 2009 @ 12:53:
Afhankelijk hoe ver je met je NAS wilt gaan is een mobo met 12 sata poorten nog een optie + bv een kaarten van 4 poorten.
Nadeel is dat zo'n bord gericht is op Gamers en dus duur is. Maar meestal wel weer 2x Gbit LAN en meerdere PCI-e 16x sloten heeft. Waarin je later weer een leuke RAID kaart kunt stoppen :P
Laat mij eens een bord met 12 SATA poorten zien dan :)

Voor mijn softraid in Windows en veel poorten heb ik een RAIDcore controller met 8 poorten in gebruik. Deze heb ik verder niet geconfigureerd en Windows ziet de disks die er aan hangen prima. Ik kan deze disks ook prima onderling wisselen met mijn onboard poorten waarna de raid5 nog gewoon functioneert.

Ik verwacht dat het met Linux niet anders zal zijn. Andere controllers, zoals Q al zegt, kunnen wellicht wel iets met de schijven doen waardoor ze door een andere controller niet meer zomaar als losse disk worden gezien.

https://discord.com/invite/tweakers


Acties:
  • 0 Henk 'm!

  • remmelt
  • Registratie: Januari 2001
  • Laatst online: 09-04 12:25
redfoxert schreef op woensdag 02 september 2009 @ 13:00:
[...]


Laat mij eens een bord met 12 SATA poorten zien dan :)
Asus P5Q Premium
http://www.asus.com/produ...hR6dGjcvkYnazE&templete=2
OK, het zijn er maar 10, verdeeld over twee controllers, maar je hebt dan wel 4x Gb ethernet.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Q schreef op woensdag 02 september 2009 @ 12:57:
Helaas heb ik dmv tests moeten ondervinden dat een harde schijf niet wordt herkend door een gewone sata poort als hij aan een rocket raid heeft gehangen. Laat ik het zo zeggen: de raid partitie wordt niet gedetecteerd. Een hp rocket raid moet een disk ook eerst initialseren, anders kun je hem niet gebruiken. Daarmee zet hi jwat aan het begin van de disk naar ik meen. Mogelijk dat hier nog mee te trucen is door wat met een parted te spelen en de eerste sectoren niet te gebruiken.

Kortom, mocht mijn controller klappen, dan moet ik eenzelfde nieuwe kopen. Ik had het liever anders gezien, maar er is geen andere optie wat de highpoint betreft.
Dan is er nog een andere vraag, moet je daadwerkelijk dezelfde kaart kopen (die dan misschien end of life is) of zou iedere nieuwere 8(+) poort van Highpoint volstaan. Of er moet inderdaad iets zijn om te kunnen recoveren.
Overigens bleek mijn vraag een gevalletje RTFF :X :+ Op de site van Highpoint kwam ik de volgende quote tegen, die betrekking heeft op de 22xx en 23xx:
Yes. Disks that already contain data (or valid partition tables) will be recognized as "Legacy" disks. If the disks are new, you can crate a single-disk JBOD "array" - the operating system should recognize JBOD disks as single drives.
Je zou dus mogelijk wel een software raid kunnen draaien, zonder afhankelijk te zijn van de Highpoint, door van legacy gebruik te maken :)
Voor kleinere controllers die gewoon 4 sata poorten aanbieden heb je dit probleem niet.
Waarom bij kleine controllers niet? Highpoint heeft ook 4 sata poort kaarten die de schijven eerst initialiseren.

Weet iemand overigens of de RAIDcore 5210 ook op FreeBSD 7 werkt? Ik kom alleen maar drivers en utilities voor Linux en Windows tegen.

[ Voor 17% gewijzigd door Dadona op 02-09-2009 14:50 ]

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Dadona schreef op woensdag 02 september 2009 @ 14:42:
Weet iemand overigens of de RAIDcore 5210 ook op FreeBSD 7 werkt? Ik kom alleen maar drivers en utilities voor Linux en Windows tegen.
http://www.freebsd.org/releases/7.1R/hardware.html#DISK
Check of de chip erbij staat ;)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Staat niet in de lijst, maar...
Other configurations may also work, but simply have not been tested yet.
;)

De CSL/OT kroeg !


  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
redfoxert schreef op woensdag 02 september 2009 @ 13:00:
[...]


Laat mij eens een bord met 12 SATA poorten zien dan :)
http://www.asus.com/searc...earchkey=L1N64-SLI+WS%2FB
^^ server bord maar wel 12x sata

Gigabyte EP45-DQ6 (ff geen link maar wel review)
Afbeeldingslocatie: http://hothardware.com/articleimages/item1192/big_19.jpg

edit: telde eerst toch echt 12 sata poorten :P

[ Voor 9% gewijzigd door The-Source op 03-09-2009 18:07 ]

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


  • Quadro!
  • Registratie: Maart 2004
  • Laatst online: 08-09 14:10
Oud: 4x 1TB (Samsung Spinpoint F1 HD103UJ)
Vanaf morgen: 4x 2TB (Western Digital Caviar Green WD20EADS)

In beide situaties gebruik makend van een RAID5 array dmv mdadm onder Debian/Linux 5.0. Ik zal morgenavond of zaterdag even wat benchmarks met jullie delen.

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Quadro! schreef op donderdag 03 september 2009 @ 18:31:
Oud: 4x 1TB (Samsung Spinpoint F1 HD103UJ)
Vanaf morgen: 4x 2TB (Western Digital Caviar Green WD20EADS)

In beide situaties gebruik makend van een RAID5 array dmv mdadm onder Debian/Linux 5.0. Ik zal morgenavond of zaterdag even wat benchmarks met jullie delen.
Is je array dan al geïnitialiseerd ? Want dat zal bij 8TB ook wel "iets" meer dan 2 uur duren ;)

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
Okee,

Kom ik aanzetten met 18 TB maar dit is andere koek:

http://blog.backblaze.com...uild-cheap-cloud-storage/

67 TB voor krap $8000

Afbeeldingslocatie: http://blog.backblaze.com/wp-content/uploads/2009/08/backblaze-cheap-cloud-server-storage2.jpg

En tot mijn genoegen gebouwd op drie RAID 6 arrays met (uiteraard) Debian Linux MDADM.

De truc die ze hier uithalen om het goedkoop te houden, is SATA Port Multipliers. Dit is de truc dus om van die dure raidcontrolers af te komen. Wat je nodig hebt zijn sata poorten, meer niet.

Daar heb je speciale backplates voor nodig, die nu eindelijk in de nieuwere Norco cases zit. Dan kun je 1 sata poort naar 5 poorten converteren. Dan kun je met relatief goedkope non-raid sata controllertjes per poort 5 disks aansturen. Je levert performance in maar dat is met dit soort aparatuur nooit een issue: je Gigabit is meestal de bottleneck.

Afbeeldingslocatie: http://blog.backblaze.com/wp-content/uploads/2009/08/backblaze-storage-pod-sata-cable-wiring-diagram.jpg
SATA Chipsets

SiI3726 on each port multiplier backplane to attach five drives to one SATA port.
SiI3132 on each of the three PCIe SATA cards to attach two backplanes each (six ports total)
SiI3124 on the one PCI SATA card to attach up to four port multiplier backplanes (we only use three of the four ports)

[ Voor 39% gewijzigd door Q op 03-09-2009 19:50 ]


  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 27-08 10:26

DJ-Visto

Aye aye, sir!

Q schreef op donderdag 03 september 2009 @ 19:41:
Okee,

Kom ik aanzetten met 18 TB maar dit is andere koek:

http://blog.backblaze.com...uild-cheap-cloud-storage/

67 TB voor krap $8000

En tot mijn genoegen gebouwd op drie RAID 6 arrays met Linux MDADM.

De truc die ze hier uithalen om het goedkoop te houden, is SATA Port Multipliers. Dit is de truc dus om van die dure raidcontrolers af te komen. Wat je nodig hebt zijn sata poorten, meer niet.

Daar heb je speciale backplates voor nodig, die nu eindelijk in de nieuwere Norco cases zit. Dan kun je 1 sata poort naar 5 poorten converteren. Dan kun je met relatief goedkope non-raid sata controllertjes per poort 5 disks aansturen. Je levert performance in maar dat is met dit soort aparatuur nooit een issue: je Gigabit is meestal de bottleneck.
Het is wel mooi, als je hem op de server zelf dan als download server gebruikt
* DJ-Visto Denkt aan die man met die 90TB aan downloads in zijn kelder @ nieuws

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Q schreef op donderdag 03 september 2009 @ 19:41:
De truc die ze hier uithalen om het goedkoop te houden, is SATA Port Multipliers. Dit is de truc dus om van die dure raidcontrolers af te komen. Wat je nodig hebt zijn sata poorten, meer niet.

Daar heb je speciale backplates voor nodig, die nu eindelijk in de nieuwere Norco cases zit. Dan kun je 1 sata poort naar 5 poorten converteren. Dan kun je met relatief goedkope non-raid sata controllertjes per poort 5 disks aansturen. Je levert performance in maar dat is met dit soort aparatuur nooit een issue: je Gigabit is meestal de bottleneck.
Tenzij je dus die Gigabyte EP45-DQ6 van hierboven pakt. Vier onboard gigabit poorten, doe aan trunking en aan de server zal het niet meer liggen :)

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

Verwijderd

Dadona schreef op donderdag 03 september 2009 @ 21:16:
[...]
Tenzij je dus die Gigabyte EP45-DQ6 van hierboven pakt. Vier onboard gigabit poorten, doe aan trunking en aan de server zal het niet meer liggen :)
Dat hangt er vanaf wat je ermee doet, trunking heeft pas nut bij meerdere verbindingen naar die machine.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
Verwijderd schreef op zaterdag 05 september 2009 @ 01:40:
[...]


Dat hangt er vanaf wat je ermee doet, trunking heeft pas nut bij meerdere verbindingen naar die machine.
Bonding is wat je wilt. Onder Linux heb ik dat nooit werkende gekregen zodat je met 1 tcp/ip verbinding meer dan 100 MB/s haalt.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Bonding == trunking
En natuurlijk heeft het alleen maar nut met meerdere verbindingen naar de NAS. Maar mijn werkstation heeft zelf ook al twee gigabit poorten die trunking ondersteunen. Maar in mijn geval zou vier poorten wel overkill zijn inderdaad. (Los van het feit dat ik dan een aantal cross cables of een grotere switch nodig heb.)

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
Dadona schreef op zaterdag 05 september 2009 @ 09:06:
Bonding == trunking
En natuurlijk heeft het alleen maar nut met meerdere verbindingen naar de NAS. Maar mijn werkstation heeft zelf ook al twee gigabit poorten die trunking ondersteunen. Maar in mijn geval zou vier poorten wel overkill zijn inderdaad. (Los van het feit dat ik dan een aantal cross cables of een grotere switch nodig heb.)
Naar mijn weten zou je met 1 verbinding weldegelijk 2 GB moeten kunnen halen (cross kabels met gigabit is nit nodig) maar zelfs met 2 kabels tussen 2 machines werkte dat niet. Of ik heb het verkeerd begrepen.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Hoe het precies werkt weet ik ook nog niet (ik heb nog geen tweede bak die een trunked verbinding heeft. Maar als je met één verbinding 2GB kan halen dan mag er sowieso geen switch tussenzitten. Ook zal de andere kant ook op die manier moeten werken (2GB over één poort). Persoonlijk denk ik dat je voor trunking toch echt beide poorten moet gebruiken.
Het zal dan wel op een RAID-0 manier verlopen. Helft van de packets langs lan1, andere deel langs lan2. De switch moet dan wel snappen dat beide lans hetzelfde ip adres delen.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

Verwijderd

Voor zover ik weet gaat het alleen werken als je meerdere dingen tegelijk kopieert. Wat hierboven geschetst wordt, een soort RAID0 over 2 Gb poorten schijnt niet mogelijk te zijn omdat je timing verschil krijgt waardoor je packets out of order raken. Ik heb ook maar 1 systeem staan die meer dan 125 MB/s throughput kan leveren, dus echt realistisch testen kan ik het ook niet.

  • jayvol09
  • Registratie: Augustus 2009
  • Laatst online: 02-09-2020
noob vraagje maar moet ik bij mn NAS letten op t file format? Dus als mn bestanden in bv. FAT32 op mn NAS staan heeft een NTFS systeem er geen problemen mee?

"Between the weak and the strong one it is the freedom which oppresses and the law that liberates" [Jean Jacques Rousseau]


  • redfoxert
  • Registratie: December 2000
  • Niet online
jayvol09 schreef op donderdag 10 september 2009 @ 17:59:
noob vraagje maar moet ik bij mn NAS letten op t file format? Dus als mn bestanden in bv. FAT32 op mn NAS staan heeft een NTFS systeem er geen problemen mee?
Erh ... que? :)

Ik mag hopen dat je geen FAT32 op je NAS gaat zetten. File groter dan 4GB kan je dan wel dik vergeten. Een NAS zal waarschijnlijk het file format aanhouden wat de fabrikant vanuit zn firmware erop formatteerd.

Wanneer je deze via een netwerkshare aanspreekt maakt de rest niet meer uit.

https://discord.com/invite/tweakers


  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 15:55
jayvol09 schreef op donderdag 10 september 2009 @ 17:59:
noob vraagje maar moet ik bij mn NAS letten op t file format? Dus als mn bestanden in bv. FAT32 op mn NAS staan heeft een NTFS systeem er geen problemen mee?
Met ^^, wat een vage vraag :)

Het NAS OS gebruikt gewoon z'n eigen filesystem, bv UFS voor BSD of ext2/3 for Linux, deze wordt dan geexporteerd als netwerkshare door bv Samba. De Windows pc ziet dit vervolgens gewoon als netwerkshare met NTFS als filesystem (of FAT, in te stellen in Samba).

  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Verwijderd schreef op woensdag 09 september 2009 @ 17:42:
Voor zover ik weet gaat het alleen werken als je meerdere dingen tegelijk kopieert. Wat hierboven geschetst wordt, een soort RAID0 over 2 Gb poorten schijnt niet mogelijk te zijn omdat je timing verschil krijgt waardoor je packets out of order raken. Ik heb ook maar 1 systeem staan die meer dan 125 MB/s throughput kan leveren, dus echt realistisch testen kan ik het ook niet.
Trunking heeft als doel om de prestaties te verhogen. Maar als je aan parallele transfers gaat doen, dan kan een harde schijf toch al snel tussen de 150 en 240 MB/sec op z'n dak krijgen. Als dan voortdurend moet worden geswitched omdat de data 'ver uit elkaar' staat lijkt me dat averechs werken. Een RAID-0 oplossing pakt één bestand en splitst die op. De afstanden zullen dan gering zijn.
Timing verschillen en out of order packets maakt naar mijn idee niet uit. Dat wordt afgehandeld door hogere lagen uit de TCP/IP stack (programma zelf of één van de tussenlagen) :)

De CSL/OT kroeg !


Verwijderd

Dadona schreef op donderdag 10 september 2009 @ 19:32:
[...]
Trunking heeft als doel om de prestaties te verhogen. Maar als je aan parallele transfers gaat doen, dan kan een harde schijf toch al snel tussen de 150 en 240 MB/sec op z'n dak krijgen. Als dan voortdurend moet worden geswitched omdat de data 'ver uit elkaar' staat lijkt me dat averechs werken. Een RAID-0 oplossing pakt één bestand en splitst die op. De afstanden zullen dan gering zijn.
Timing verschillen en out of order packets maakt naar mijn idee niet uit. Dat wordt afgehandeld door hogere lagen uit de TCP/IP stack (programma zelf of één van de tussenlagen) :)
Mijn bedoeling was om het duidelijker te maken, maar dat is blijkbaar niet helemaal gelukt.
Mijn opmerking over RAID0 was alleen bedoeld om aan te geven dat ze samen zouden werken als 1 verbinding, maar dat dit niet werkt. Als je 1 groot bestand, bijv. een m2ts stream van 30 GB over een 2 Gbit trunk van 2x 1 Gbit heen zou trekken zou je nog steeds niet meer dan 125 MB/s halen, omdat deze over 1 Gbit verbinding gaat. Als je echter nog een verbinding zou opzetten, bijv. gelijktijdig een andere m2ts file van 30 GB naar een andere pc kopieren, dan zou wel gebruik kunnen maken van 2 Gbit omdat je 2 verschillende connecties hebt.

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
Verwijderd schreef op donderdag 10 september 2009 @ 20:52:
[...]


Mijn bedoeling was om het duidelijker te maken, maar dat is blijkbaar niet helemaal gelukt.
Mijn opmerking over RAID0 was alleen bedoeld om aan te geven dat ze samen zouden werken als 1 verbinding, maar dat dit niet werkt. Als je 1 groot bestand, bijv. een m2ts stream van 30 GB over een 2 Gbit trunk van 2x 1 Gbit heen zou trekken zou je nog steeds niet meer dan 125 MB/s halen, omdat deze over 1 Gbit verbinding gaat. Als je echter nog een verbinding zou opzetten, bijv. gelijktijdig een andere m2ts file van 30 GB naar een andere pc kopieren, dan zou wel gebruik kunnen maken van 2 Gbit omdat je 2 verschillende connecties hebt.
Dat werkt ook prima onder Linux. Maar ik wil 1 enkele TCP of UDP verbinding load-balancen of stripen over twee netwerk kaarten om zo 2 GBIT te halen met 1 transfer.

  • jayvol09
  • Registratie: Augustus 2009
  • Laatst online: 02-09-2020
thanks Nielson, superduidelijk. Je merkt wel dat ik nooit van netwerkshare en ftp enzo gehoord heb :P
Nu ben ik iets verder in het lezen van deze thread en naar voren is gekomen dat
- we willen geen pci sata uitbreidingen hebben? Waarom niet? Geeft dit problemen met RAID of gewoon langzaam?
- Maakt het verder veel uit wat je filesystem is, fat32 dan niet meegerekend

[ Voor 11% gewijzigd door jayvol09 op 10-09-2009 22:03 ]

"Between the weak and the strong one it is the freedom which oppresses and the law that liberates" [Jean Jacques Rousseau]


  • redfoxert
  • Registratie: December 2000
  • Niet online
jayvol09 schreef op donderdag 10 september 2009 @ 21:59:
thanks Nielson, superduidelijk. Je merkt wel dat ik nooit van netwerkshare en ftp enzo gehoord heb :P
Nu ben ik iets verder in het lezen van deze thread en naar voren is gekomen dat
- we willen geen pci sata uitbreidingen hebben? Waarom niet? Geeft dit problemen met RAID of gewoon langzaam?
- Maakt het verder veel uit wat je filesystem is, fat32 dan niet meegerekend
PCI heeft een maximale bandbreedte van 133MB/sec (1gbit) dus daar krijg je een bottleneck. Dit is verdeeld over de hele PCI bus. Dus als je een gbit netwerkkaart optimaal wilt gebruiken in een PCI slot kan je er al geen RAID controllers meer aan hangen. Hiermee wil ik niet zeggen dat het niet kan, het kan prima. Er zijn genoeg goede RAID controllers. Als je niet zoveel waarde hecht aan snelheid maar wel aan een grote hoeveelheid poorten (en dus harde schijven) dan is PCI prima. Voor het streamen van HD video heb je over het algemeen niet meer dan 50mbit nodig.

Welk filesystem je gebruikt is een beetje afhankelijk van het soort data je op wilt slaan en logischerwijs je OS FAT32 valt in de meeste gevallen al af. Meest gebruikt zijn NTFS en EXT2/3.

Zoals al gezegd zal een NAS veelal een linux variant draaien, eventueel uitgekleed en dan word het bijna automatisch al EXT3.

[ Voor 12% gewijzigd door redfoxert op 10-09-2009 22:10 ]

https://discord.com/invite/tweakers


  • jayvol09
  • Registratie: Augustus 2009
  • Laatst online: 02-09-2020
cool bedankt, ben nu halverwege deze thread :P
is ftp lastig voor iemand die als volledige technische ervaring spyware verwijderen heeft ^^? Want windows NAS spreekt me idd niet erg aan, ook omdat software RAID5 en RAIDZ efficiënter lijken en geen goede keus zijn op windows hoor ik.

Lees morgen verder^^

[ Voor 5% gewijzigd door jayvol09 op 10-09-2009 23:31 ]

"Between the weak and the strong one it is the freedom which oppresses and the law that liberates" [Jean Jacques Rousseau]


  • Dadona
  • Registratie: September 2007
  • Laatst online: 07-09 10:34
Verwijderd schreef op donderdag 10 september 2009 @ 20:52:
[...]


Mijn bedoeling was om het duidelijker te maken, maar dat is blijkbaar niet helemaal gelukt.
Mijn opmerking over RAID0 was alleen bedoeld om aan te geven dat ze samen zouden werken als 1 verbinding, maar dat dit niet werkt. Als je 1 groot bestand, bijv. een m2ts stream van 30 GB over een 2 Gbit trunk van 2x 1 Gbit heen zou trekken zou je nog steeds niet meer dan 125 MB/s halen, omdat deze over 1 Gbit verbinding gaat. Als je echter nog een verbinding zou opzetten, bijv. gelijktijdig een andere m2ts file van 30 GB naar een andere pc kopieren, dan zou wel gebruik kunnen maken van 2 Gbit omdat je 2 verschillende connecties hebt.
Dat kan natuurlijk ook zonder gebruik te maken van trunking. Zo heb ik tijdenlang een 'backbone' gehad. Het normale dataverkeer ging over lan-1, terwijl synchronisaties van servers over een dedicated lan-2 ging, zodoende maakte het mij niets uit hoe wat mensen op het netwerk deden.
Q en ik gingen in op een trunking tussen maar twee pc's, hoe kan die totale snelheid omhoog? Per slot van rekening zal menig raid opstelling tegenwoordig sneller data kunnen afleveren dan een gigabit netwerk kan doorvoeren. (Hoewel Q een belachelijke hoeveelheid gigabit kaartjes moet combineren wil hij ooit dat van de server kant de raid opstelling de beperkende factor zal worden.)

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

Verwijderd

Q schreef op donderdag 10 september 2009 @ 21:23:
[...]


Dat werkt ook prima onder Linux. Maar ik wil 1 enkele TCP of UDP verbinding load-balancen of stripen over twee netwerk kaarten om zo 2 GBIT te halen met 1 transfer.
Naar mijn weten is dat dus niet mogelijk.
Dadona schreef op donderdag 10 september 2009 @ 23:52:
[...]
Dat kan natuurlijk ook zonder gebruik te maken van trunking. Zo heb ik tijdenlang een 'backbone' gehad. Het normale dataverkeer ging over lan-1, terwijl synchronisaties van servers over een dedicated lan-2 ging, zodoende maakte het mij niets uit hoe wat mensen op het netwerk deden.
Q en ik gingen in op een trunking tussen maar twee pc's, hoe kan die totale snelheid omhoog? Per slot van rekening zal menig raid opstelling tegenwoordig sneller data kunnen afleveren dan een gigabit netwerk kan doorvoeren. (Hoewel Q een belachelijke hoeveelheid gigabit kaartjes moet combineren wil hij ooit dat van de server kant de raid opstelling de beperkende factor zal worden.)
Dat kan inderdaad wel zonder trunking, zo heb ik het momenteel op mijn fileserver ook draaien. Puur en alleen omdat het trunken niet helemaal goed ging onder Server 2k8, waar het onder Server 2k3 prima werkt. Helaas heb ik nog geen tijd gehad om dit op te lossen, maar ik hoop er over 2 weken aan toe te komen. Dan zal ik eens kijken of ik in 1 van mijn systemen nog een RAID0 kan zetten die meer dan 125 MB/s kan schrijven om te zien wat de snelheid dan wordt.

Acties:
  • 0 Henk 'm!

  • BCC
  • Registratie: Juli 2000
  • Laatst online: 13:48

BCC

Verwijderd schreef op vrijdag 11 september 2009 @ 09:30:
[...]
Naar mijn weten is dat dus niet mogelijk.
Dat kan wel, maar dan heb je een switch nodig die dit ondersteund. Zo heb ik ooit een fileserver in een netwerk gehangen met HP spullen die met 2x 1GB getrunked naar de switch ging en vanaf daar dus full speed 20 100Mbit clients kon bedienen.

Na betaling van een licentievergoeding van €1.000 verkrijgen bedrijven het recht om deze post te gebruiken voor het trainen van artificiële intelligentiesystemen.


Acties:
  • 0 Henk 'm!

  • ItsValium
  • Registratie: Juni 2009
  • Laatst online: 29-08 23:17
BCC schreef op vrijdag 11 september 2009 @ 19:12:
[...]

Dat kan wel, maar dan heb je een switch nodig die dit ondersteund. Zo heb ik ooit een fileserver in een netwerk gehangen met HP spullen die met 2x 1GB getrunked naar de switch ging en vanaf daar dus full speed 20 100Mbit clients kon bedienen.
Even nuanceren dit is niet wat er bedoeld wordt, in dit geval worden er 20 connecties aan 100Mbit opengezet en zal de logic in de switch dan wel de fileserver deze verspreiden over de beide NIC's. Wat er hier bedoeld wordt is eigenlijk 2 gigabit NIC's teamen of trunken of hoe je het wil noemen zodat je één connectie ernaartoe kan openzetten die hoger is dan 1 Gigabit. Dit is mogelijk maar dan zal je heel diep in je buidel moeten tasten voor zowel de NIC's zelf als de switch/router die eraan komt te hangen. Of je gaat voor Fiber connecties, die halen 4 gigabit connecties zonder problemen. Totdat 10Gbit NIC's mainstream worden zou ik de moeite niet doen om hierin tijd en geld te steken. Eénmaal die 10Gbit NIC's er zijn dan is het kwestie van de bestaande NIC's up te graden en voila ...

Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Scheelt dat ik vrij goedkoop Cat 6a kabel + outlets kan plaatsen dus 10Gbit netwerk is hier mogelijk. Alleen fatsoenlijke NICs is een heel ander verhaal ;)

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:14
10 GB Nics zou geweldig zijn, maar de prijzen zijn belachelijk.

  • jayvol09
  • Registratie: Augustus 2009
  • Laatst online: 02-09-2020
Ik zat net te kijken wat voor protocol handig is (net geleerd wat dat zijn maarja :P).
Nu zijn FTP en Samba genoemd, maar hoe verhouden deze zich met iSCSI en NFS?
En het belangrijkste verschil tussen NFS en iSCSI is effectief dat bij NFS alles gedeeld is terwijl met iSCSI schijven/mappen toegewezen worden aan een systeem?

Edit:
Oja, werkt spindown van schijven ook met een software RAID1 array van 2 schijven?
En met welke OS naast unRAID kan ik spindown functie van idle schijven krijgen? ubuntu, xp pro, freeNAS/BSD ?

Edit 2:
Zit aan te denken om het zo in te delen namelijk:

Backups van belangrijke bestanden op externe hdd.
OS op flash geheugen als t kan, anders op mn download schijf als partitie.
Downloads op 750GB drive via NFS(als dat werkt, of anders samba/ftp).
Films/muziek/fotos op 2TB (RAID keuze nader te bepalen) via NFS of iSCSI voor mn htpc.

Die 2TB word 2x2TB in RAID1 of 3 x 1 TB in RAID 4(linux)/RAID5(windows)/RAIDZ(FreeBSD)
Deze 2TB array laat ik de schijven uitschakelen als ik mn htpc niet in gebruik heb.

[ Voor 56% gewijzigd door jayvol09 op 12-09-2009 14:23 ]

"Between the weak and the strong one it is the freedom which oppresses and the law that liberates" [Jean Jacques Rousseau]

Pagina: 1 ... 5 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.