Maar tussen die switches zit ook een *hoop* kwaliteits verschil... SDR, DDR, QDR, x1, x4,x8 InfiniBand.
En het is niet echt super compatible allemaal, dus daar begin ik nog niet aan.

Ik heb zelf 2 x 10Gb AF DA kaartjes (nieuw 500 euro) voor 100,- /s op de kop getikt, dan is het nog wel leuk.
Maar ik heb wel wat problemen om ze boven de 4-5 Gbit uit te krijgen. Dus als er mensen zijn die het al geprobeerd hebben, wil ik graag ervaringen uitwisselen. :)

Volledige 10Gb switches zijn er trouwens ook wel, D-Link heeft er al een aantal voor 1500,- ofzo (24 x 10Gb).

Even niets...


  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
Ik heb hier een RAID6 config met MDADM.
Een uurtje geleden liep alleen mijn server compleet vast en moest ik een reboot uitvoeren.
Na deze reboot kreeg ik een faulty spare en hij ging meteen rebuilden.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
/dev/md0:
        Version : 1.2
  Creation Time : Tue Jul 10 17:49:04 2012
     Raid Level : raid6
     Array Size : 7814047744 (7452.06 GiB 8001.58 GB)
  Used Dev Size : 1953511936 (1863.01 GiB 2000.40 GB)
   Raid Devices : 6
  Total Devices : 6
    Persistence : Superblock is persistent

    Update Time : Thu Aug  2 16:45:56 2012
          State : active, degraded, resyncing
 Active Devices : 5
Working Devices : 5
 Failed Devices : 1
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

  Resync Status : 0% complete

           Name : fileserver:0  (local to host fileserver)
           UUID : 400895e6:1f25376f:9023b8fe:4937e34c
         Events : 25

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
       2       8       49        2      active sync   /dev/sdd1
       3       8       65        3      active sync   /dev/sde1
       4       8       81        4      faulty spare rebuilding
       5       8       97        5      active sync   /dev/sdg1


Alleen de snelheid is veel te traag:
code:
1
2
3
4
Personalities : [raid6] [raid5] [raid4]
md0 : active raid6 sdd1[2] sdf1[4](F) sdc1[1] sdb1[0] sde1[3] sdg1[5]
      7814047744 blocks super 1.2 level 6, 512k chunk, algorithm 2 [6/5] [UUUU_U]
      [>....................]  resync =  0.7% (13773076/1953511936) finish=19235.6min speed=1680K/sec


30 minuten later is die nog geen byte verder gekomen.
code:
1
2
3
4
5
6
Personalities : [raid6] [raid5] [raid4]
md0 : active raid6 sdd1[2] sdf1[4](F) sdc1[1] sdb1[0] sde1[3] sdg1[5]
      7814047744 blocks super 1.2 level 6, 512k chunk, algorithm 2 [6/5] [UUUU_U]
      [>....................]  resync =  0.7% (13773076/1953511936) finish=42445.1min speed=761K/sec

unused devices: <none>

Iemand een idee?

[ Voor 59% gewijzigd door FabiandJ op 02-08-2012 17:59 ]


  • 0xygen
  • Registratie: Januari 2012
  • Laatst online: 19-12 13:19
Verwijderd schreef op donderdag 02 augustus 2012 @ 11:51:

Welke software ging je draaien djrc18? Wat is natuurlijk cruciaal in welke configuratie je je NAS laat draaien.
Mijn plan is om VMware server er op te knallen en dan het een en ander wil uittesten wat ik het fijnst vindt. Dus heel concreet weet ik dat dus nog niet.
Heb je de max rebuild settings in /sys al gewijzigd?
@djrc18, VMware server of ESX? Want VMware server is echt uit het stenen tijdperk en al heel lang niet meer geupdate, en echt niet meer van deze tijd...

[ Voor 59% gewijzigd door FireDrunk op 02-08-2012 18:49 ]

Even niets...


  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
FireDrunk schreef op donderdag 02 augustus 2012 @ 18:48:
Heb je de max rebuild settings in /sys al gewijzigd?
Is dat een reactie voor mij? Indien dit zo is, nee die heb ik niet veranderd en ook nog nooit aangezeten en geen idee waar dit voor is :p

  • 0xygen
  • Registratie: Januari 2012
  • Laatst online: 19-12 13:19
van VMware server heb ik nog ergens een licentie kunnen vinden, daarom lag dat wat voor de hand. ESX ben ik nog niet bekend mee. Ik ga het nog maar even onderzoeken. Wat bied ESX als groot voordeel op server? Als het goed is heb ik zaterdag mijn onderdelen allemaal binnen. Helaas ben ik dit weekend nogal druk dus kan ik pas maandag beginnen met bouwen:)

EDIT: Ik zie niet dat die licentie gewoon gratis is XD

[ Voor 7% gewijzigd door 0xygen op 02-08-2012 19:02 ]

VMware server draait OP een OS.
ESXi IS een OS.

VEEEEEEL minder overhead dus...

Even niets...


  • 0xygen
  • Registratie: Januari 2012
  • Laatst online: 19-12 13:19
hmmm... oke, is het proberen waard. Even kijken hoe ik dat ga doen qua licentie.

Maar vmware server draait toch ook op een soort van eigen OS?
Nope. (En er is voor ESXi overigens een gratis licentie tot 32GB vRAM.)

[ Voor 86% gewijzigd door FireDrunk op 02-08-2012 19:22 ]

Even niets...


  • 0xygen
  • Registratie: Januari 2012
  • Laatst online: 19-12 13:19
Oke, die zou voor mij denk ik wel volstaan. vRAM = gewoon RAM geheugen? :P
Toegewezen RAM aan VM's.
!= in use of fysiek limiet.

[ Voor 40% gewijzigd door FireDrunk op 02-08-2012 20:04 ]

Even niets...


  • 0xygen
  • Registratie: Januari 2012
  • Laatst online: 19-12 13:19
Dat is meer dan genoeg voor mij;) Ik probeer het alleen te vinden op hun site maar kan het niet terug vinden ergens. Waar heb jij die wijsheid vandaan?:)

Verwijderd

Omdat ik het gedoe met externe hdd's een beetje moe ben heb ik besloten om zelf een NAS samen te stellen. Ik zat zelf eerst te denken aan de kant en klare oplossingen maar een zelfbouw projectje lijkt me toch leuker en makkelijker uitbreidbaar in de toekomst. Ik had het volgende in gedachten:

#ProductPrijsSubtotaal
1Intel Pentium G620€ 54,95€ 54,95
2Western Digital Red WD30EFRX, 3TB€ 167,50€ 335,-
1Fractal Design Node 304€ 0,-€ 0,-
1Kingston ValueRAM KVR16N11/8€ 39,95€ 39,95
1be quiet! Pure Power L7 300W€ 33,95€ 33,95
1Samsung 830 series 64GB€ 61,90€ 61,90
1Asus P8H77-I€ 91,95€ 91,95
Bekijk collectie
Importeer producten
Totaal€ 617,70


Het is de bedoeling is om hier Freenas op te draaien icm ZFS.

Gebruik:
Het streamen van 1080p films (mkv) en Blu-rays / muziek streaming
Sabnzbd
Torrents
Opslag foto's
Wake on Lan support

Dit lijkt me wel een aardig (en redelijk zuinig) syteem. Ik heb dan nog de vraag aan jullie of hier nog iets aan te verbeteren is / ik iets vergeten ben alvorens ik dit systeem bestel (zodra de kast leverbaar is).

Edit: Moederbord aangepast naar Asus p8h77 Mini-ITX. De kast die ik graag wil heeft een Mini-ITX form factor.
Edit2: Voeding toegevoegd en 1x8GB ipv 2x4gb.

[ Voor 15% gewijzigd door Verwijderd op 02-08-2012 20:52 ]

Je mist een voeding en de kast heb je al?

Waarom 2x4GB? 1x8 is later beter.

Wat bedoel je met "streamen"? Alleen het leveren over SMB/NFS?

Waarom de SSD? Een USB stick is voor FreeNAS genoeg.

Even niets...


Verwijderd

FireDrunk schreef op donderdag 02 augustus 2012 @ 20:29:
Je mist een voeding en de kast heb je al?

Waarom 2x4GB? 1x8 is later beter.

Wat bedoel je met "streamen"? Alleen het leveren over SMB/NFS?

Waarom de SSD? Een USB stick is voor FreeNAS genoeg.
Voeding toegevoegd, inderdaad vergeten.

Qua uitbreidbaarheid zou 1x8 misschien wel beter zijn ja.

Met streamen bedoel ik inderdaad het benaderen van video/audio via NFS.

Een SSD in geval ik eventueel iets anders zou willen draaien (Ubuntu server) oid.

  • johnkeates
  • Registratie: Februari 2008
  • Laatst online: 04-07 16:30
Waarom is iedereen zo veel bezig met VMWare? Er zijn toch veel betere dingen als Xen en KVM... ESXi is niet meer bare-metal dan Xen, en KVM is net zo snel en veel makkelijker dan ESXi. Daarnast is ESX(i) lang niet zo flexibel als de andere die ik net noem...
Xen en KVM zijn niet per definitie beter... Jij *vind* ze beter... Is een groot verschil.
Ik ken KVM bijna net zo goed als ESXi en het is echt niet sneller dan ESXi hoor...

ESXi is *by a fact* meer bare-metal dan Xen en KVM. Daar is weinig discussie over mogelijk.

En ik vind ESXi juist wel flexibel, het is tenminste fatsoenlijk supported dat het op een USB stick draait...

Bovendien is het installeren van ESXi veel makkelijker (next -> next -> finish)

Even niets...


  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
Iemand die mij kan helpen?

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 23:52
Ja
FireDrunk schreef op donderdag 02 augustus 2012 @ 18:48:
Heb je de max rebuild settings in /sys al gewijzigd?
Dutch3men schreef op donderdag 02 augustus 2012 @ 18:53:
[...]

Is dat een reactie voor mij? Indien dit zo is, nee die heb ik niet veranderd en ook nog nooit aangezeten en geen idee waar dit voor is :p
Ja, volgens mij kan je via deze settings de rebuild time sneller laten verlopen.

Sinds de 2 dagen regel reageer ik hier niet meer


  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
Die settings stel ik altijd direct in bij het booten, dus dat doet in dit geval helemaal niks.
Welke versie van MDADM draai je?

Even niets...


Verwijderd

ESXi is *by a fact* meer bare-metal dan Xen en KVM. Daar is weinig discussie over mogelijk.
Behalve dan wél natuurlijk dat je een XEN dom0 host voor méér zaken kunt gebruiken. Zo kun je native je ZFS server als host doen en via Xen nog Windows en Linux workstations draaien. Althans, dat is een setup die ik natuurlijk graag werkend zou willen zien.

Met ESXi kun je verder niets toch? Dat is natuurlijk wel een groot verschil ook voor normale virtualisatie (VMware workstation, virtualbox, kvm) die op de host draait. De host zelf is dan bare metal. ESXi zelf ook, maar daar kun je niets mee. Het beste is en blijft natuurlijk gewoon 'host' zijn. Ik zou zelf heel graag FreeBSD als ZFS host willen en Xen gebruiken om met PCI passthrough een 3D desktop te krijgen bijvoorbeeld. Dat lijkt me enorm gaaf, maar voorlopig nog een droom.
Nou ja, niet de features die wij thuisgebruikers nodig hebben, maar ESXi heeft natuurlijk vMotion, HA, VMDirectPath, I/O AT, SSD specifieke ondersteuning, Resource pools en ga maar even door :)

Even niets...


Verwijderd

Oke maar ik had het gevoel dat veel mensen hier ESXi gebruikte als workstation + server hybride? Dus server met RDM of vt-d passthrough en workstation dan gewoon windows of linux? Of denk ik verkeerd. :P

Niemand gebruikt ESXi als workstation? Nouja begint offtopic te worden nu. Maar ik heb nog wat bij te leren. :)

[ Voor 25% gewijzigd door Verwijderd op 02-08-2012 22:22 ]

Ik heb dat nog nooit gezien...

Even niets...


  • redfoxert
  • Registratie: December 2000
  • Niet online
Eerlijk gezegd zie ik ook niet hoe dat kan werken eigenlijk :)

https://discord.com/invite/tweakers


  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 23:52
Zoals ik het altijd begreep:

code:
1
2
3
4
5
6
7
8
ESXi (Host)
    ---> ZFSGuru (Client)
        ---> Disks via passthrough ---> Pools
        ---> Virtuele netwerkinterface
        ---> iSCSI en/of Samba en/of NFS
    ---> Windows / Linux (Client)
        ---> Virtuele netwerkinterface
        ---> Data via iSCSI of Samba of NFS vanuit ZFSGuru

[ Voor 15% gewijzigd door CurlyMo op 02-08-2012 22:25 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Verwijderd

:X .. eigenlijk speechless.. al die tijd dacht ik dat jullie gasten om die reden ESXi draaide :X

*kruipt weg onder een steen*

Oh wacht... ik heb dat geinige Afbeeldingslocatie: http://tweakimg.net/g/forum/images/icons/delete.gif knopje nog niet gebruikt... >:)

[ Voor 34% gewijzigd door Verwijderd op 02-08-2012 22:24 ]


  • redfoxert
  • Registratie: December 2000
  • Niet online
De eerste die ESXi als workstation aan de gang krijgt is een held en godslasteraar tegelijk :P

Gelukkig gaat het zo ver niet komen.

https://discord.com/invite/tweakers

Een VM is geen client... Het is een Guest... Nogal een verschil.

een 24" monitor op een ESXi bak aansluiten is altijd nutteloos...

Even niets...


  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
mdadm - v3.2.2 - 17th June 2011
Hmm, dat scheelt amper met die van mij (Ik zit op 3.2.3 23rd December 2011).
Heb je al gereboot?

Even niets...


  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024


Zo ik heb hem eindelijk online deel1 van mijn NAS build _/-\o_

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM


  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 00:19
Leuk om te zien! :)

  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
FireDrunk schreef op donderdag 02 augustus 2012 @ 23:22:
Hmm, dat scheelt amper met die van mij (Ik zit op 3.2.3 23rd December 2011).
Heb je al gereboot?
Ja, maar dat hielp niks. Ik heb maar even 3 disks die in een HDD bay zitten, waaronder de HDD die weg was eruit gehaald en direct op de controller en power gezet. Waarschijnlijk heeft de pcb in de hdd bay een keer op zijn donder gekregen waardoor soms een HDD eruit knalt.

En toen ging het resyncen een stuk sneller :)

[ Voor 9% gewijzigd door FabiandJ op 04-08-2012 01:59 ]


  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17-12 21:42
victorb schreef op vrijdag 03 augustus 2012 @ 12:15:
Zo ik heb hem eindelijk online deel1 van mijn NAS build _/-\o_
mooi filmpje!

  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM


Verwijderd

@victorb: dat is een enorm gaaf filmpje met veel aandacht; dank hiervoor! Hopelijk vind je het goed als ik jouw build als voorbeeld neem in een nieuwe deel van dit topic? Zou leuk zijn als mensen aan de hand van jouw filmpje een idee krijgen. Bovendien wordt je filmpje dan ook vaker bekeken. ;)

  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 21:46
Erg mooi filmpje victorb, de volgende keer weet ik dus ook welke case ik moet hebben.

  • sloth
  • Registratie: Januari 2010
  • Niet online
victorb schreef op vrijdag 03 augustus 2012 @ 12:15:
[video]

Zo ik heb hem eindelijk online deel1 van mijn NAS build _/-\o_
Leuk filmpje!

Enkele vraagjes:

-Vanwaar de keuze voor AMD? Uitzonderingen daargelaten is een intel systeempje vaker idle net wat zuiniger.
-Vanwaar de keuze voor de Corsair 500watt voeding? Deze lijkt me ook niet enorm efficiënt en met 350watt kom je ook al een heel eind.

* sloth wacht op het volgende filmpje, keep up the good work! _/-\o_

  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024
-Vanwaar de keuze voor AMD? Uitzonderingen daargelaten is een intel systeempje vaker idle net wat zuiniger.
-Vanwaar de keuze voor de Corsair 500watt voeding? Deze lijkt me ook niet enorm efficiënt en met 350watt kom je ook al een heel eind.
Ik ging in eerste instancie voor een Asus E35M1-I systeem in een mooie ITX behuizing. Alleen de Asus E35M1-I is niet meer leverbaar. 7(8)7 Toen heb ik dit systeem uitgezocht met veel meer uitbereidings mogelijkheden. :*)

En ik vind dat AMD eigenlijk mooiere moederborden hebben. Ik snap bijv niet waarom intel gekozen heeft voor 2x sata3 en 4x sata2 (Leuk bedacht dat 90% van de gebruikers dat niet nodig hebben enzo) Maar nu heb ik gewoon 6x sata3 op een goedkoop moederbord. Dit systeem ondersteund 64gb geheugen en intel platform maar 32gb. En als AMD totaal geen cpu´s meer verkoopt kan intel weer terug naar dure cpu's ;)

Idle klokt deze amd triple core 2.1ghz zichzelf terug naar 100 / 200 mhz. Omdat het verbruik van een diy NAS zeker belangrijk onderwerp is, heb ik vandaag een gebruikmeter gekocht. Helaas is die DOA :( vand e week maar even terug brengen. In deel2 wil ik zeker aandacht schenken aan het verbruik.

Ik gebruik nu 5 jaar Corsair voedingen en deze bevallen perfect. Waarom voor dit model ben gegaan is dat ik voldoende power wil hebben voor als ik in toekomst meer disken in eht systeem ga bouwen. Ik koop liever een voeding die iets zwaarder is. Toen ik 5 jaar terug mijn Q6600 systeem kocht (begon als een E6600) Had ik de keus uit een corsair HX520 en HX620. Ik had achteraf spijt dat ik de HX520 had gekocht vooral met 6x hd gtx570 raid controller enzo. Dus voor de toekomst liever nu stapje zwaarder voor paar euro meer. En de voeding was 57 euro dus ook niet gigantisch duur. En de voeding heeft gewoon knopje achterop om het blauwe licht uit te zetten :+

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM

Niet om te bashen hoor, en ik hoop echt dat je veel plezier van je server hebt! :+
Maar:

Intel heeft op zich wel een punt met maar 2 keer SATA3, de enige apparaten die momenteel SATA3 snelheden halen zijn SSD's en er zijn maar een paar mensen die meer dan 2 SSD's in 1 PC zetten (uitzonderingen daar gelaten natuurlijk). Harddisks halen nog lang niet de snelheid van SATA3, de snelste momenteel (Nieuwste WD Black geloof ik, doet 180MB/s sequentieel.)

En de cores gaan terug naar 100Mhz? Dat moet ik zien, de HyperTransport bus kan dat misschien, of de front side bus, maar de cores zelf? Als dat zo is, ben ik aangenaam verrast, dat kan ik je zeggen :+

Over het feit dat AMD 64GB geheugen ondersteund: 16GB DIMM's worden nog amper geproduceerd. Er zijn er al wel een paar Registered ECC, maar die zijn niet te betalen.

Gewone DIMM's zijn er nog niet van 16GB.
Zie: http://tweakers.net/price...gJm_3VVlxviD-z2bFVlQwz_ML

En last but not least: Intel is zuiniger, zowel Sandy Bridge als Ivy Bridge doen het performance/watt gewoon beter, juist daarom word er veel voor Intel gekozen. Performance/Watt/Euro is een ander verhaal, en veel moelijker te meten. :)

Heb je een Cresta meter toevallig? Daar moet een los batterijtje in :+

[ Voor 8% gewijzigd door FireDrunk op 04-08-2012 22:09 ]

Even niets...


  • Wouter.S
  • Registratie: Maart 2009
  • Laatst online: 08-12 16:24

Wouter.S

e^(i*pi ) +1 = 0

victorb schreef op zaterdag 04 augustus 2012 @ 21:55:
[...]
Ik gebruik nu 5 jaar Corsair voedingen en deze bevallen perfect. Waarom voor dit model ben gegaan is dat ik voldoende power wil hebben voor als ik in toekomst meer disken in eht systeem ga bouwen. Ik koop liever een voeding die iets zwaarder is. Toen ik 5 jaar terug mijn Q6600 systeem kocht (begon als een E6600) Had ik de keus uit een corsair HX520 en HX620. Ik had achteraf spijt dat ik de HX520 had gekocht vooral met 6x hd gtx570 raid controller enzo. Dus voor de toekomst liever nu stapje zwaarder voor paar euro meer. En de voeding was 57 euro dus ook niet gigantisch duur. En de voeding heeft gewoon knopje achterop om het blauwe licht uit te zetten :+
Zeer netjes afgewerkt systeem heb je daar in elkaar gezet, altijd leuk spelen met nieuwe spullen ;)

Over die voeding. Je redenering voor een zwaardere game pc valt nog enigszins te rechtvaardigen maar een 500W voeding in een NAS lijkt me een minder goede keuze. Je zal al nooit een videokaart plaatsen die in een normaal systeem de grootste hap uit het beschikbaar vermogen neemt. Enkel voor HDD spinup is het wattage nog van tel en voor de rest is hoe lager toch echt wel hoe beter (zeker met de green schijven van tegenwoordig) De hoogste efficiëntie ligt namelijk niet bij 10% load...

Any intelligent fool can make things bigger, more complex, and more violent. It takes a touch of genius -- and a lot of courage -- to move in the opposite direction.


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
FireDrunk schreef op zaterdag 04 augustus 2012 @ 22:08:
En last but not least: Intel is zuiniger, zowel Sandy Bridge als Ivy Bridge doen het performance/watt gewoon beter, juist daarom word er veel voor Intel gekozen. Performance/Watt/Euro is een ander verhaal, en veel moelijker te meten. :)
Dat er wat weinig waaghalzen rondlopen hier op Tweakers wil niet zeggen dat AMD per definitie minder zuinig is. In idle kun je met een A8-3820 met een pico ook onder de 12W komen. Je moet iets meer zoeken en uiteindelijk gaat, afhankelijk van het type werk, de performance/watt naar Intel, maar een algemeen statement dat Intel zuiniger is, die gaat er bij mij niet in.

De CSL/OT kroeg !


Verwijderd

FireDrunk schreef op zaterdag 04 augustus 2012 @ 22:08:
Intel heeft op zich wel een punt met maar 2 keer SATA3, de enige apparaten die momenteel SATA3 snelheden halen zijn SSD's en er zijn maar een paar mensen die meer dan 2 SSD's in 1 PC zetten (uitzonderingen daar gelaten natuurlijk).
Was toch wel leuk geweest toch, dat je gewoon 3 of 4 SSDs kunt nemen zonder gelijk terug te vallen naar SATA/300. Want dat is in feite het gevolg van de RAID0 striping als je SATA/600 poorten en SATA/300 mixt; de SSDs op SATA/300 beperken je dan. ZFS kan load-balancen maar normaal RAID dus niet. Natuurlijk is dit geen probleem voor de doorsnee gebruiker, maar nog altijd wel een plus voor de goede chipsets van AMD.

Doorgaans zijn die idle ook zuiniger dan van Intel, al weet ik niet meer of dat hedendaags ook zo is. Ik las wel dat de Haswell chipset de PCH nog zuiniger zou maken. Maar ik hoop eigenlijk ook op een uitbreiding van 2x/4x (6Gbps/3Gbps) naar 4x/4x dus 8 poorten totaal waarvan de helft SATA/600. Dat mag toch wel voor een next-gen chipset? Ik verwacht ook meer USB3 poorten ipv USB2, zelfde principe.

In principe kan AMD tot 2GB/s naar de CPU vervoeren. Ik kan binnenkort wat testen met 4 SSDs op Brazos systeem en kijken waar de bottleneck zit. In principe zit je dan aan 2GB/s sequential read maar ik verwacht dat hij al eerder tegen een bottleneck aanloopt.
En de cores gaan terug naar 100Mhz? Dat moet ik zien, de HyperTransport bus kan dat misschien, of de front side bus, maar de cores zelf? Als dat zo is, ben ik aangenaam verrast, dat kan ik je zeggen :+
Het is echt zo. :D
Processor frequency 100 MHz ( scales from 100 MHz to 1600 MHz )
Dit is van mijn MSI Brazos bordje met normale E350 Zacate 1.6GHz dualcore chip.
De quadcore Phenom kon het ook; alleen merkte ik dat onder Linux niet alle opties beschikbaar waren. Het punt is wel dat het je performance kost; het duurt even voor je cores omhoog gaan. Dat is prima als je tasks doet die toch wel even duren. Maar telkens een kleine spike voor latency-gevoelige CPU-berekeningen kan wel performance kosten. Zo had ik invloed op CDM waarden door powerd uit te schakelen. Bij Brazos heb ik dat effect niet kunnen constateren.
Over het feit dat AMD 64GB geheugen ondersteund: 16GB DIMM's worden nog amper geproduceerd. Er zijn er al wel een paar Registered ECC, maar die zijn niet te betalen.
Maar dat gold nog niet zo heel lang geleden ook voor 8GiB modules; toch hebben we die nu allemaal. Bijvoorbeeld dat je in Brazos 2x8GiB=16GiB kunt steken vind ik best mooi. Typisch wordt dan gezegd max 4GiB zoals volgens mij met oudere Atom het geval was?
En last but not least: Intel is zuiniger, zowel Sandy Bridge als Ivy Bridge doen het performance/watt gewoon beter, juist daarom word er veel voor Intel gekozen. Performance/Watt/Euro is een ander verhaal, en veel moelijker te meten. :)
Wat vergelijk je dan precies? Want ik denk niet dat je met Sandy Bridge / Ivy Bridge zo snel een zuinig Brazos bordje zal verslaan? Volgens mij zitten alle low-power oplossingen zoals AMD Brazos en AMD Llano en AMD Trinity en Intel SNB en IVB rond het niveau dat je tussen 10 en 20 watt idle schommelt afhankelijk van welk moederbord. De CPU verbruikt maar een paar watt maximaal dus is geen echt significante factor meer in idle power. De VRM en allerlei meuk op het moederbord kan voor veel extra zorgen. Vooral de integratie van northbridge in de CPU leidt tot veel winst op idle vermogen, dus eigenlijk alle nieuwe platforms van AMD en Intel.

Ik heb mijn Brazos bordje onder de 10W getest met PicoPSU. Wel helemaal kaal, 1 geheugenreepje en zonder ethernet. Maar wel met Linux kernel power bug. Kortom, had ik Windows gebruikt destijds, dan was ik misschien nog veel lager gekomen. X-Bit-Labs had dit bordje op 7,3 watt getest:

Afbeeldingslocatie: http://www.xbitlabs.com/images/cpu/amd-e-350/power-1.png
http://www.xbitlabs.com/a...display/amd-e-350_12.html

Dus ik zie niet dat AMD op idle power minderwaardig hoeft te zijn aan Intel? Intel verbruikt wel minder stroom voor 'task energy', tot 2x minder dan AMD. Dat is wel goed natuurlijk, maar voor mij en anderen eigenlijk niet zo interessant. Liever die idle richting 0 krijgen, daar boek je veel meer winst mee. :)

  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024
Firedrunk

Over 3 jaar hebben we misschien wel betaalbare 2TB storage ssd's en dan wil je zeker meer dan 2x sata600 hebben ;) Maar zie het al 10 jaar dat intel qua moederbord features altijd kiest voor een mix van nieuw en oudere interfaces. Waarbij het amd platform meteen voor alles snel gaat. En voor je hoofdcomputer zou het toch nieteens heel raar zijn om 4x een 128gb ssd in raid0 te willen draaien. Dus dan heb je met intel 2 poorten te kort en moet je de array gaan evrdelen over de 2 onboard en de 2 vanuit een extra onboard 3th party chip. Daarom vind ik het gewoon een groot pluspunt alles sata3 en geen mix.

Processor AMD A6-3500 APU with Radeon(tm) HD Graphics
Processor architecture amd64 (64-bit)
Processor frequency 100 MHz ( scales from 100 MHz to 2100 MHz )

_/-\o_ _/-\o_

Ach over 2 jaar kopen we allemaal 16GB ddr3 dimms om onze oude systemen nog ff een boost te geven :D Die 16GB modules komen wel :9

Dit amd APUtje is gewoon een budget cpu van 60 euro en hij is zuiniger dan mijn Core i7 3770k 8)7

Nee geen cresta meter. Ik ga hem van de week wel terug brengen.

Wouter.S

Een seagate barracuda heeft startup power van 2A dus als ik 14 disken totaal zou hebben is dan 28A op de 12 volt en de voeding bied 39A op de 12volt. LIjkt me prima een 500watt voeding zeker als ik later meer disken en controller zou toevoegen. want de koeling fans gebruiken ook stroom en natuurlijk het moederbord en quad nic en toekomstige extra diskcontroller :) (even heel simpel gerekend)

Maar om het stroom en idle verhaal goed te kunnen meten moet ik eerst andere meter hebben inplaats vand eze die stuk is :*)

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM

Ik ben beniewd want een i7-3770k zou idle heel zuinig moeten zijn!

Even niets...


  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 23:41
Ik heb al een heel poosje een Debian 6 server draaien met 4x 2TB in raid5.
Nu heb ik net phpsysinfo geinstalleerd en zit ik te kijken naar de load van mijn server.
Die is zeer laag maar toen ik een 10GB ging kopieeren ging het cache geheugen gebruik naar 92% van het totale geheugen.
Alles staat al effe op de schijven maar de 92% cache blijft staan. Gaat ie dat leeg gooien als ik opnieuw een grootte kopie actie doe?
Niet dat mijn server ooit traag is maar ik wil graag wat leren van hoe die om gaat met de resources.
Voor de info er zit 4GB ram in.

  • Durandal
  • Registratie: Juli 2002
  • Laatst online: 13-12 15:24
Is natuurlijk logisch dat eenderwelk systeem zijn cache vast blijft houden tot hij nieuwe data er in wilt gooien. Is niet voor niets cache ;)

  • Birdie_NL
  • Registratie: Maart 2008
  • Laatst online: 03-12 19:23
Ik heb even een korte vraag want een eigen topic vind ik het niet waard.

Ik heb hier 2 (Dell Branded) Seagate Cheetah 15k SAS schijven.

Schijf 1 is een Seagate ST3300656SS 15k.6 SAS model. (1.5 jaar gedraaid)
Schijf 2 is een Seagate ST3300657SS 15k.7 SAS 2.0 model. (nieuw)

Zoals je ziet is schijf 1 een voorgaand model op schijf 2, te zien aan de 15k.6 aanduiding en de snelheid van de SAS aansluiting.

Kan ik deze 2 schijven in een RAID1 configuratie plaatsen ondanks dat schijf 1 een ouder type is en een SAS snelheid heeft in plaats van de SAS 2.0 snelheid van schijf 2?

  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 23:41
Durandal schreef op zondag 05 augustus 2012 @ 19:51:
Is natuurlijk logisch dat eenderwelk systeem zijn cache vast blijft houden tot hij nieuwe data er in wilt gooien. Is niet voor niets cache ;)
Haha ja klopt. Heb net wat site's gelezen en het is dus prima dat ie dat doet.

  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024
Zo vandaag suc6 behaald met mijn quad intel nic onder zfsguru! lacp geconfigt :)

even een benchmark gedraait met iperf :)
[ 3] 0.0-2400.0 sec 254 GBytes 910 Mbits/sec zfsguru naar workstation
[ 3] 0.0-2400.0 sec 257 GBytes 919 Mbits/sec zfsguru tegelijk naar mijn oude workstation

Alle 3 de systemen hebben 4xgbit alleen onder linux is er nog iets mis denk ik. Want heb het idee dat die niet opschaalt met meerdere verbindingen blijft op de linux machines ook maar 1 van de 4 nics knipperen. En de fileserver met zfsguru (freebsd 9.1) knippert alles :)

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Maar bij een filetransfer zit je dan, met FreeBSD, nog altijd met de limit van een enkele gigabit link toch?

De CSL/OT kroeg !


  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024
Was 2x gbit tegelijk dus die 2 testen draaide tegelijk :)

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Het ging mij erom dat je bij FreeBSD al aan de limiet zit. Bij Linux is het ergens mooi dat maar 1 nic 'knipperde'. Je kunt op Linux namelijk wel boven de 1Gbit/sec per TCP sessie draaien.

De CSL/OT kroeg !


Verwijderd

Na lang twijfelen, sukkelen (met een Drobo) en surfen heb ik besloten om een Home Server te maken met ZFS. Aangezien ik niet veel ervaring heb met FreeBSD en ZFS ga ik voor ZFSGuru gaan. Allerbelangrijkst voor mij: cheap, later uitbreidbaar (met 8 extra disks) & zuinig.

#ProductPrijsSubtotaal
1Asrock E350M1€ 78,50€ 78,50
4Seagate Barracuda 7200.14 ST2000DM001, 2TB€ 98,76€ 395,04
23Ware 3Ware Multi-lane SATA cable CBL-SFF8087OCF-05M€ 17,30€ 34,60
4Gembird CC-SATA-DATA90€ 1,99€ 7,96
1Crucial CT102464BA1339€ 42,40€ 42,40
1IBM ServeRAID M1015 SAS/SATA Controller for System x€ 114,24€ 114,24
Bekijk collectie
Importeer producten
Totaal€ 672,74

Heb een cheap & zuinig mobo met included CPU gepakt. Het RAM zou ook compatibel moeten zijn ook al is het iets sneller als het mobo aan kan. Scaled dan terug. http://www.crucial.com/st...?mtbpoid=EA0C2D93A5CA7304. Heb voor 1x8GB module gekozen zodat ik later nog 8GB bij kan proppen met aankoop ServeRaid.

Heb nog een oude ATX case liggen en een 450 Watt ATX power supply. Voor zover ik weet kan een Micro-ITX board daar in geplaatst worden.

Voor mij is het performant genoeg als ik er 1 a 2 1080p streams van kan doen. Qua VirtualBox lig ik niet wakker dat het ff duurt om op te spinnen en het maar een paar requests per seconde kan leveren. Personal use only.

Heb gekozen voor Seagate. Hopelijk hiermee meer geluk als met Western Digital. Warranty van WD bevalt me tot nu toe helemaal niet en heb al 3 dode HD's van hun.

De ServeRaid & bijhorende SAS kabels zijn pas voor later als deze HDs vol beginnen te raken. Is voor zover ik weet ook compatibel.

Zien jullie cruciale fouten? OS komt overigens op een USB stick te staan. Of is er een betere manier hiervoor?

Qua verbruik ... spinnen schijven automatisch down op ZFS? Of kan dat ingesteld worden?

  • sloth
  • Registratie: Januari 2010
  • Niet online
Investeer in een zuinige nieuwe voeding, dat heb je bij dit soort setups al na minder dan een jaar terug verdiend.

Heb je verder ook uitgezocht of je HBA werkt op dat brazos plankje? Niet elk board heeft zomaar 16x pci-e ondersteuning.

Verder kan je IIRC niet elke usbstick gebruiken voor ZFSGuru, omdat ZFSGuru een volledige FreeBSD install is. Je moet dan opletten op random read/write performance en de levensduur van het flashgeheugen.
CiPHER heeft ergens een voorbeeld gepost met wat meer uitleg.

[ Voor 36% gewijzigd door sloth op 06-08-2012 15:06 ]


Verwijderd

@sloth nee daar heb ik geen idee van. Het is wel een zuinige & stille zalmanvoeding. Maar ik zal is zoeken wat het verschil kan zijn per jaar.

1 x PCI Express 2.0 x16 slot (@ x4) volgens de manufacturer page. Dat werkt dan neem ik aan :)

edit: Zal ook is zoeken naar cipher zijn post!

[ Voor 9% gewijzigd door Verwijderd op 06-08-2012 15:11 . Reden: edit van sloth ]

Zijn er mensen met zfsguru op hun pool die spindown werkend hebben? Of is zfsguru te druk op de pool?

Even niets...


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Het hangt allereerst natuurlijk af van de opstelling. Zonder meer gaat dat niet goed, net als bij Linux met log files. Ik heb om die (en een andere) reden voor een 2.5" boot drive gekozen, de pool kan dan theoretisch in spindown. ZFSguru (en eigenlijk ieder OS) staat op zo'n kleine schijf, de data zelf op andere schijven / pool van schijven.

De CSL/OT kroeg !


Verwijderd

Hoeveel lanes je hebt maakt niets uit hoor; zo'n kaart hoort ook op 1 lane te werken. Op Brazos heb je altijd PCIe 2.0 x4 dus 2GB/s bandbreedte. Voldoende lijkt me.

Als hij een nieuwe voeding zou kopen, zou ik gelijk voor PicoPSU gaan. Daarbij is wel belang dat je niet boven een bepaald piekvermogen komt bij het opspinnen van je disks. Een Brazos build met 6 moderne schijven kan prima, ik denk zelfs wel met 80W voeding al wordt dat wel krap. De Steacom 150W kit is een alternatief waarbij je met brazos toch zeker wel 10-12 moderne schijven kunt opspinnen. Niet oudere schijven die verbruiken het dubbele bij het opspinnen. Met PicoPSU kun je tot 20W maximaal besparen; maar daarvoor moet je dan wel rond de 15W idle zitten. Dat ga je met zoveel schijven niet redden. Wil je dus kunnen uitbreiden met zeker meer dan 10 schijven, dan is een PicoPSU niet zo nuttig. Ook zou ik dan niet zo snel voor Brazos gaan maar een normale Intel/AMD setup.
Zien jullie cruciale fouten? OS komt overigens op een USB stick te staan. Of is er een betere manier hiervoor?
USB stick is niet zo geweldig als je ZFSguru neemt totdat de Embedded distributie weer functioneert. USB sticks zijn héél slecht met random writes. Bij FreeNAS werkt het wel goed; die heeft een embedded distro voor USB sticks.
Qua verbruik ... spinnen schijven automatisch down op ZFS? Of kan dat ingesteld worden?
Spindown kun je instellen via APM als je schijven dat ondersteunen. Dit kan echter niet via de SAS controller; je moet je schijven dan (eenmalig) aan de chipset controller aansluiten en dan APM power management instellen. Dit kan met ZFSguru via de web-interface (disks->advanced). Eenmaal APM ingesteld kun je de disks op je SAS controller zetten en spinnen ze zichzelf down na een bepaalde periode van inactiviteit.

Spindown werkt niet goed als je OS ook op de pool staat, zoals bij ZFSguru kan. Zou je ZFSguru direct op je pool installeren, of op een mirror partitie-pool, dan kun je beter geen spindown gebruiken. Bedenk ook dat die 1TB-platter disks waarschijnlijk vrij zuinig zijn idle (3W gok ik?) Bij spindown zakt dit tot 0.5 tot 1.0 watt.

Toch nog een mogelijkheid...
Nu ik even doordenk... de volgende setup zou wél mogelijk zijn en best leuk als je veel disks hebt:
disk1:
10GB partitie voor systeem pool waar ZFSguru op staat (geen spindown)
X GB data partitie voor grote pool
disk2:
10GB partitie voor systeem pool waar ZFSguru op staat (geen spindown)
X GB data partitie voor grote pool
disk3/4/5/6/7/8/9/10/11/12:
X GB data partitie voor grote pool (spindown)

In deze opstelling heb je alleen op de eerste twee disks een extra partitie voor de systeem pool die dan in mirror draait. Daar boot je van. Deze schijven gaan niet in spindown omdat het OS er regelmatig naar schrijft. Ik zou op deze schijven ook geen spindown instellen. Maar op alle andere disks kun je dan wel spindown gebruiken!

Enig nadeel is dat je 10GB ofzo verliest, maar dat hoeft niet zo uit te maken. Bedenk ook dat je voor alle disks behalve de eerste twee dan enkel de laatste 10GB op je schijf niet meer gebruikt; dus het meest langzame gedeelte. Die kun je best overboord pleuren.

[ Voor 18% gewijzigd door Verwijderd op 06-08-2012 15:28 ]

Die 10GB verlies je dus wel op AL je disks... maar is idd niet zo veel...

Even niets...


Verwijderd

Klopt, maar:
1) je verliest die ruimte aan het einde van de capaciteit (je maakt maar één partitie op die disks)
2) je kunt die ruimte ook gebruiken voor SWAP. FreeBSD is conservatief met SWAP dus je hoeft niet zo bang te zijn dat hierdoor je spindown van slag raakt.
3) gebruik de ruimte voor een extra RAID-Z1/2/3 mini-pool zodat je nog 10 * 10GB = 100GB extra opslag hebt. Misschien als backup pool ofzo. Kan altijd grappig zijn.

Je kunt dus enorm veel kanten op met partities, daarom ben ik ook blij dat ik die partition map editor heb geschreven. O-)

  • sloth
  • Registratie: Januari 2010
  • Niet online
Blijkbaar verbruikt zo'n ST2000DM001 toch nog 5,4watt idle.
Met 4 disks heb je dan toch 22 watt extra verbruik of 44 euro op jaarbasis. Een aparte bootdisk en spindown lijkt me dan een betere oplossing.

2A startup betekent dan een piekbelasting van 34 watt per schijf voor je voeding neem ik aan? (2A*5V+2A*12V)
Je krijgt er uiteraard wel flink snellere prestaties voor terug, i.i.g. bij sequential read en writes.

Edit: zo te zien werkt een HBA op een Asrock E350M1 gewoon.

[ Voor 11% gewijzigd door sloth op 06-08-2012 16:03 ]


Verwijderd

Mja 2A staat er vaak op maar in elk geval bij StorageReview komen ze vaker aan 12W tijdens spinup dus 1A, nog minder omdat er nog wat via 5V gaat. Kortom, wat wordt opgegeven kan afwijken. Maar pas ook op met dit soort reviews; verschillende reviews over hetzelfde product kunnen heel andere getallen laten zien, wat meerdere oorzaken kan hebben. Maar spinup van moderne disks is tussen 12W en 20W. Oudere disks gaan tot 35W.

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01:39
Verwijderd schreef op maandag 06 augustus 2012 @ 15:21:
Hoeveel lanes je hebt maakt niets uit hoor; zo'n kaart hoort ook op 1 lane te werken. Op Brazos heb je altijd PCIe 2.0 x4 dus 2GB/s bandbreedte. Voldoende lijkt me.
Dus zo'n IBM M1015 HBA (of gelijksoortige HBA's) werken op alle soorten PCIe poorten, zolang het fysiek maar een x8 uitvoering is? Waarbij dan ook de volle snelheid in een ZFS pool gehaald kan worden ?

Dat zou goed nieuws zijn, dat betekent dat ik op mijn XSIL8-F bordje dus 3 van die controllers kwijt kan (twee PCI x8 sloten en nog een PCI x4 (x8) slot).
Waarmee het dan mogelijk wordt om 3 HBA's in totaal 24 disks in pass-through aan een ESX machine te geven, waarbij de 6 onboard SATA poorten gebruikt kunnen worden om een SSD aan te hangen voor de ESX installatie en de ZFSGuru VM.

* Sleepie gaat dan binnenkort zijn ZFSGuru machine virtualiseren en zijn Hyper-V server decommisionen :p

Verwijderd

Het hoeft geeneens fysiek x8 te zijn. Het kan natuurlijk fysiek x16 zijn maar ook fysiek x1. Dat laatste kan met een 'open einde' dus dat de rest van de PCIe pinnetjes van je add-on controller gewoon uitsteken mits daar ruimte voor is. Maar het kan ook via een passieve riser die x1 naar x16 of x8 fysiek brengt zodat je normaal je kaart erin kunt stoppen. Je werkt dan natuurlijk op x1 snelheid.

Er zijn wel uitzonderingen. Areca en andere RAID controllers maken gebruik van zo'n PLX chip. Volgens mij omdat de controllerchip eigenlijk PCI-X is en die PLX chip nodig is als bridge. Maar dat is maar speculatie. Ik heb hierbij wel gehoord dat deze alleen op x4 en x8 werkten, en niet op x1. Dit heb ik zelf niet kunnen verifiëren.

Maar met een normale controller zoals LSI zou je hier geen last van mogen hebben.
Ja en nee, PCIe x1 is een uitzondering. Versie 2.0 doet 'maar' 500MB/s en dat limieteert in sommige gevallen je pool. PCIe verrsie 1.0 nog veel erger. In veel borden is er minimaal een slot PCIe 1.0.

Even niets...


Verwijderd

Wat bedoel je nou FireDrunk? PCIe 1.0 is toch 250MB/s per lane en 2.0 is toch 500MB/s per lane?
Ah zo klopt het ja. :)

[ Voor 11% gewijzigd door Verwijderd op 06-08-2012 16:36 ]


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01:39
Wat ik bedoelde is dat de HBAs die we gebruiken in het algemeen allemaal x8 uitgevoerd zijn, dus een fysiek x8 slot of een riser is dan het meest handig.

In mijn specifieke geval (Supermicro XSIL8-F) heb ik 3 van die poorten, dus dat zou geen probleem moeten zijn, ik dacht altijd dat je x8 nodig had om de volle snelheid te kunnen halen en was al lang op zoek naar een manier om 20 (of 24) disks via passthrough aan een ESX machine te geven.

Dat "probleem" is nu dus verleden tijd :)

  • sloth
  • Registratie: Januari 2010
  • Niet online
Verwijderd schreef op maandag 06 augustus 2012 @ 16:08:
Mja 2A staat er vaak op maar in elk geval bij StorageReview komen ze vaker aan 12W tijdens spinup dus 1A, nog minder omdat er nog wat via 5V gaat. Kortom, wat wordt opgegeven kan afwijken. Maar pas ook op met dit soort reviews; verschillende reviews over hetzelfde product kunnen heel andere getallen laten zien, wat meerdere oorzaken kan hebben. Maar spinup van moderne disks is tussen 12W en 20W. Oudere disks gaan tot 35W.
Je hebt gelijk. De 3TB variant doet volgens StorageReview 19watt, dan zal de 2TB variant vast nog wat minder verbruiken.

Dit wetende kan het systeem van SpoBo het makkelijk redden met een PicoPSU, met voldoende uitbreindingsmogelijkheden voor upgrades.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Mocht je tegen de limiet aanlopen, bijvoorbeeld door inzet van meerdere SSDs :9 , dan kun je met slimme indeling nog een eind komen. Je kunt dan nog altijd een mix maken door je pools niet over één controller te laten lopen, maar de schijven van een pool aan te sluiten op de onboard controller en één of meerdere HBAs.

(Vanzelfsprekend schiet je er niets mee op als de andere schijven op de 'bottleneck' HBA controller op hetzelfde moment hard bezig zijn, zoals bij een copy/move actie van pool naar pool.)

[ Voor 15% gewijzigd door Dadona op 06-08-2012 16:34 ]

De CSL/OT kroeg !

*kuch* fixed typo.

Even niets...


  • Birdie_NL
  • Registratie: Maart 2008
  • Laatst online: 03-12 19:23
brndst schreef op zondag 05 augustus 2012 @ 20:00:
Ik heb even een korte vraag want een eigen topic vind ik het niet waard.

Ik heb hier 2 (Dell Branded) Seagate Cheetah 15k SAS schijven.

Schijf 1 is een Seagate ST3300656SS 15k.6 SAS model. (1.5 jaar gedraaid)
Schijf 2 is een Seagate ST3300657SS 15k.7 SAS 2.0 model. (nieuw)

Zoals je ziet is schijf 1 een voorgaand model op schijf 2, te zien aan de 15k.6 aanduiding en de snelheid van de SAS aansluiting.

Kan ik deze 2 schijven in een RAID1 configuratie plaatsen ondanks dat schijf 1 een ouder type is en een SAS snelheid heeft in plaats van de SAS 2.0 snelheid van schijf 2?
Ik Quote mezelf toch maar even, (ik weet het, ben ongeduldig)

Maar ik wil toch wel de beslissing maken om een sas controller en eventueel een 2e dezelfde sas schijf te bestellen. :)

Verwijderd

@CiPHER: Leuk idee om het OS achteraan op de 2 eerste disks te installeren. Ik had idd al vernomen dat je de laatste X GB best wegsmijt in het geval je later disks van verschillende vendors gaat mixen in dezelfde pool. Dus je zou gewoon het OS kunnen runnen op de standaard weggesmeten space. Sweet ;o Komt nog is bij dat je OS dan ook veilig is door RAID 1. Wil ik zeker proberen!

De PSU ga ik voorlopig toch nog niet vervangen. Ik ga wel is uitkijken als ik een goeie deal tegenkom voor een PicoPSU. Voorlopig nog ff doen met wat ik al heb. Goed om te weten dat een PicoPSU moet volstaan.

De Asus F1A75-M eens bekeken. Veel opties & zuinig = I like it. Merk wel dat die EPU (terugschalen van de CPU clock) enkel onder Windows werkt ... bummer ;o Werkt blijkbaar samen met een lelijke utility van ASUS zelf.

Maar de 6 SATA (600) poorten, USB3 & 2x PCI-e x16's maken het wel de moeite imo :) Zuiniger & goedkoper als de ATX versies + bijna evenveel features. Komt nog is bij dat je de GPU op de CPU kan kopen met die FM1 socket. Kan altijd handig zijn later om een cheapo mediacenter mee te maken. Oja en een Qualcomm NIC. Das toch ook mooi meegenomen ;o
@Brndst, ja hoor dat kan prima. Bedenk wel dat de snelheid van je RAID1 mirror in het beste scenario tweemaal de snelheid van de langzaamste schijf is.

Even niets...


  • LED-Maniak
  • Registratie: Oktober 2003
  • Laatst online: 00:31
Woensdag komt ook mijn nieuwe systeem binnen, met een A6-3500 APU. De picopower voeding heb ik alvast binnen, kan niet wachten tot de power meter er tussen zit. :Y)

@victorb
Ik ben benieuwd naar jouw verbruik. Je systeem is redelijk vergelijkbaar alleen met wat meer hardeschijven.

Mitsubishi externe temperatuur sensor (Home Assistant compatible): V&A - ClimaControl - Ook voor Panasonic & LG.


  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024
De Asus F1A75-M eens bekeken. Veel opties & zuinig = I like it. Merk wel dat die EPU (terugschalen van de CPU clock) enkel onder Windows werkt ... bummer ;o Werkt blijkbaar samen met een lelijke utility van ASUS zelf.
Onder Freebsd ZFSguru schaalt mijn A6 3500 gewoon tussen 100mhz en 2.1ghz.

Donderdag evrbruiks meter terugbrengen of ruilen dan laat ik het meteen weten!

Bedankt iedereen voor de toffe reactieś op mijn setup!! _/-\o_ :*)

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM


  • Birdie_NL
  • Registratie: Maart 2008
  • Laatst online: 03-12 19:23
FireDrunk schreef op maandag 06 augustus 2012 @ 21:09:
@Brndst, ja hoor dat kan prima. Bedenk wel dat de snelheid van je RAID1 mirror in het beste scenario tweemaal de snelheid van de langzaamste schijf is.
Bedankt voor je reactie! Nu ik weet dat het gewoon mogelijk is zal ik eens een Low Profile controller zoeken en bestellen. Ik had inderdaad al gedacht dat hij de snelheid van de langzaamste schijf zou aannemen. :)

[ Voor 19% gewijzigd door Birdie_NL op 07-08-2012 10:33 ]


  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
victorb schreef op vrijdag 03 augustus 2012 @ 12:15:
[video]

Zo ik heb hem eindelijk online deel1 van mijn NAS build _/-\o_
Leuk filmpje altijd interessant! Ben benieuwd naar part 2 :)
Ik ben beniewd naar het verbruik!

Even niets...


  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Zijn er al mensen die met de Supermicro X8SIL-F 32 gig werkgeheugen gebruiken op 1333mhz?

Ik heb nu 8 gig en wil uitbreiden naar 16 of 32gig. Het liefst 2x8gig.

4x4gig is niet zo'n probleem dit zijn gevalideerde sets:

http://twk.rs/p17f4 (dual rank) 1.35v
http://twk.rs/p_eu (dual rank)
http://twk.rs/p11eE

Alleen 8gig dual rank kan ik niet vinden, athans geen gevalideerde.
Vanmorgen had ik gebeld met Supermicro en deze zei dat 32gig dual rank memory op 1333mhz werkt. Quad rank wordt wel terug geklokt naar 800mhz.

Edit:
Wat ik wel vreemd vind is dat memory voltage 1.5v is als je op de website kijk bij Supermicro. En in de lijst van Kingston staat dat KVR1333D3LD8R9S/4G (1.35v) gevalideerd is.

[ Voor 20% gewijzigd door Phasis op 08-08-2012 19:26 ]

S1156 ondersteund maximaal 1 8GB module per kanaal.
Als je 4 DIMM sloten hebt kan je maximaal 24GB geheugen gebruiken dus (2x4GB + 2x8GB).
Die module moet ook nog x8 zijn geloof ik, en niet x4 (wat veel geheugen is).

Het is iig ingewikkeld... Vraag Hardware Junk maar, die vloekt er om :+

Even niets...


  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Ja inderdaad het moet x8 zijn. Thx voor de tip zal ik even doen.
Het is zeker ingewikkeld :D

[ Voor 18% gewijzigd door Phasis op 08-08-2012 20:10 ]


  • LED-Maniak
  • Registratie: Oktober 2003
  • Laatst online: 00:31
Vandaag ook de componenten voor mijn systeem binnen gekregen en ism. een picoPSU lijkt alles prima te werken. Wel tast ik even in het duister hoe een en ander op te zetten. Ik heb een SSD en 2x samsung 2TB harde schijven aangesloten. Doel is om de laatste twee schijven in raid 1 te zetten. Nu las ik dat moederborden dit doen dmv. 'fakeraid' en ik net zo goed via ubuntu zelf software raid kan installeren.

Wat is nu wijsheid? Software raid in ubuntu? Of ondersteunt de ga-a75m-ud2h écht raid?


Overigens heb ik nog een ongebruikte 500GB schijf liggen om zo RAID 5 te maken(al ben ik bang dat de performance van die schijf niet al te hoog is..)


Volledige setup is overigens als volgt:
#ProductPrijsSubtotaal
2Samsung Spinpoint F4 EG HD204UI, 2TB€ 94,90€ 189,80
1MS-Tech MC-380€ 59,60€ 59,60
1Crucial CT102464BA1339€ 42,60€ 42,60
1Samsung 830 series Desktop Upgrade Kit 64GB€ 71,-€ 71,-
1AMD A6-3500 Boxed€ 63,95€ 63,95
1Gigabyte GA-A75M-UD2H€ 72,45€ 72,45
Bekijk collectie
Importeer producten
Totaal€ 499,40

[ Voor 3% gewijzigd door LED-Maniak op 09-08-2012 01:18 ]

Mitsubishi externe temperatuur sensor (Home Assistant compatible): V&A - ClimaControl - Ook voor Panasonic & LG.


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01:39
FireDrunk schreef op woensdag 08 augustus 2012 @ 19:40:
S1156 ondersteund maximaal 1 8GB module per kanaal.
Als je 4 DIMM sloten hebt kan je maximaal 24GB geheugen gebruiken dus (2x4GB + 2x8GB).
Die module moet ook nog x8 zijn geloof ik, en niet x4 (wat veel geheugen is).

Het is iig ingewikkeld... Vraag Hardware Junk maar, die vloekt er om :+
Volgens het boekje zou er in een XSIL8-F gewoon 32GB moeten kunnen, 4 stuks 8 GB modules, die dan wel ECC Registered moeten zijn en inderdaad x8 type geheugen.

Dus twee van deze setjes zou moeten kunnen volgens mij: pricewatch: Kingston KVR1066D3Q8R7SK2/16G
Geen 1333 overigens, dat heb ik nog niet kunnen vinden.

[ Voor 4% gewijzigd door Sleepie op 09-08-2012 03:04 ]

Hmm, dan is dat dus per moederbord anders. Mijn Tyan S5502 (ook S1156 en een Intel 3420 chipset) slikt geen 4x 8GB modules (registered). Dat heb ik daadwerkelijk geprobeerd.

Maar mijn bord heeft 6 DIMM sloten. Toen die DIMM's niet werkten heb ik met een Tyan engineer gechat en die vertelde mij dat maar 1 8GB DIMM per channel ondersteund werd.

Of dat een limiet van het specifieke bord is weet ik niet, ik verwachtte het persoonlijk niet, maar als jij zegt dat de Supermicro wel 4x 8GB aan kan, verwacht ik dat het dus een limiet van de Tyan is.

Even niets...


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01:39
Het is allemaal een beetje onduidelijk, in het boekje van de Supermicro XSIL8-F staat:
DDR3 ECC Registered (RDIMM) Memory Support:
Dual Rank: Up to 16 GB (4 x 4GB DIMM Modules)
Quad Rank: Up to 32GB (4 x 8GB DIMM Modules)
Dus daaruit zou je concluderen dat het moet kunnen.

Echter, stukje verderop op de pagina staat dan weer:
Memory Population Guidelines
DDR3 ECC RDIMM Memory

Populated    Speeds                  Ranks per DIMM (any combination)
       1      1066, 1333                 Single Rank, Dual Rank
       1      1066                           Quad Rank
       2      1066, 1333                  Single Rank, Dual Rank
       2       800*                           Quad Rank

* 1066 RDIMMs running at 800 MHz will be automatically downgraded



Uiteindelijk kom ik dan tot de conclusie dat je twee van die bovengenoemde 16GB kitjes (dus 32GB totaal, ECC Registered, 1066Mhz, x8 type) zou kunnen gebruiken, die dan op 800 MHz draaien.

Ik heb er nu 4 reepjes van 4GB inzitten, dat werkt (uiteraard) prima, maar ik wil deze week één zo'n kitje van 16GB bestellen, zodat ik in totaal 24GB heb.
Wat later zou ik er dan graag 32GB van maken, dus ik hoop eigenlijk wel dat het kan.

  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Ja idd sorry, het is beter om het in 1 topic te houden.

Het vervelende is dat de boel dan op 800mhz draait met 32gig.
Dan ben ik wel benieuwd wat er gebeurd met 24gig: 1600mhz of dat je terug ga naar 800mhz.

Edit:
het is wel de goedkoopste oplossing die 2x8 quad ranked: KVR1066D3Q8R7SK2/16G
4x4 is prijziger dual rank 1333mhz.

Maakt het zoveel uit die mhzen?

[ Voor 31% gewijzigd door Phasis op 09-08-2012 09:52 ]


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01:39
Ik weet het (nog) niet hoe het dan zal draaien.
Blijft wel een heel gedoe met die XSIL8-F en geheugen :S

Ik heb eigenlijk geen idee hoeveel je in het dagelijks gebruik merkt van het verschil tussen 800/1066/1333 MHz geheugen.
Mijn plan is om mijn ZFSGuru NAS te gaan virtualiseren, daarom wil ik minimaal 24GB en later 32GB op het bordje prikken, waarvan ik 16GB voor de NAS wil reserveren (ZFS likes memory :p )

Dan vraag ik me af, is er een (beetje betaalbaar) bordje met 3 PCIe x8 sloten, waar je 32GB (meer is nog beter) geheugen op kunt prikken?

[ Voor 43% gewijzigd door Sleepie op 09-08-2012 09:59 ]


  • Phasis
  • Registratie: Augustus 2005
  • Laatst online: 21-06 17:58
Sleepie schreef op donderdag 09 augustus 2012 @ 09:55:
Ik weet het (nog) niet hoe het dan zal draaien.
Blijft wel een heel gedoe met die XSIL8-F en geheugen :S

Ik heb eigenlijk geen idee hoeveel je in het dagelijks gebruik merkt van het verschil tussen 800/1066/1333 MHz geheugen.
Mijn plan is om mijn ZFSGuru NAS te gaan virtualiseren, daarom wil ik minimaal 24GB en later 32GB op het bordje prikken, waarvan ik 16GB voor de NAS wil reserveren (ZFS likes memory :p )

Dan vraag ik me af, is er een (beetje betaalbaar) bordje met 3 PCIe x8 sloten, waar je 32GB (meer is nog beter) geheugen op kunt prikken?
Dat wordt een lastige vermoed ik. Dan raak je je IPMI kwijt en ik denk dat de CPU ook beperkt is met geheugen.

Ik draai nu een ZFSguru vm dmv ESXi5 + 5x2TB Samsung HD204UI
Alleen heb ik nu 2x2gig + 1x4gig geheugen
KVR1333D3E9S/4GHB
KVR1333D3E9SK2/4G

Ik kan nu maar 4 gig aan me ZFSguru VM hangen :/
En dan 1 gig aan een 2e VM

[ Voor 12% gewijzigd door Phasis op 09-08-2012 10:10 ]

S1156 gaat niet verder dan 32GB, zelfs niet met registered volgens mij. Dat is gewoon een hard limiet dat Intel in de CPU's heeft gestopt.

Als je meer wil, moet je naar S771 of S1366.

Even niets...


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 01:39
FireDrunk schreef op donderdag 09 augustus 2012 @ 10:09:
S1156 gaat niet verder dan 32GB, zelfs niet met registered volgens mij. Dat is gewoon een hard limiet dat Intel in de CPU's heeft gestopt.

Als je meer wil, moet je naar S771 of S1366.
Ik zat (uit nieuwsgierigheid) even te zoeken bij S1366 bordjes, maar zo te zien moet je daar al voor een dual-socket versie kiezen om hoger dan 32GB te komen. De 'gewone' bordjes ondersteunen maximaal 24GB voor zover ik heb gezien.

Dat wordt een erg dure grap dan, ik blijf nog wel een tijdje bij mijn X8SIL-F
Nu heb ik tenminste 1 keer het typenummer van het bordje goed geschreven :+
Klopt, voor meer dan 32GB geheugen moet je ofwel naar AMD (C32, G34) of naar Intel Dual sockets.
Intel single socket met meer dan 32GB is er nog niet.

Mijn AMD Opteron bordje kan daarentegen 64GB aan (dmv 4 * 16GB Registered modules).
Er zijn borden met 1 CPU en 8 DIMM Sloten die elk 16GB DIMM's aankunnen... Maar dat is duur :+

Even niets...


  • Rusty
  • Registratie: Juni 1999
  • Laatst online: 24-11 13:59
Ik ga een unraid server bouwen, ik heb het volgende lijstje in mijn hoofd.
Zijn er op en aanmerkingen te plaatsen? Ik wil graag voorkomen dat ik iets over het hoofd heb gezien.
Buiten dit komen er 6 andere HD's in die ik al heb.

Er komt dus Unraid op te draaien met Sickbeard, Couchpotato en SABnzb.
Uiteindelijk maximaal 15 schijven erin.

#ProductPrijsSubtotaal
1Asus F1A75-V PRO€ 77,33€ 77,33
2Hitachi Deskstar 7K3000 HDS723020BLA642, 2TB€ 107,50€ 215,-
1Fractal Design Define XL Titanium Grey USB 3.0€ 119,99€ 119,99
2Kingston ValueRAM KVR1066D3S8N7/2G€ 10,45€ 20,90
1Supermicro AOC-SASLP-MV8€ 106,37€ 106,37
1Corsair Builder CX600 V2€ 59,90€ 59,90
1AMD A6-3650 Boxed€ 69,90€ 69,90
Bekijk collectie
Importeer producten
Totaal€ 669,39

3 x Marstek Venus 5.12KW V151. CT003 V114 en HW P1


Verwijderd

Je controller is niet zo goed (Marvell controller), je kunt beter een controller op LSI basis nemen. Zeker als je ooit in de toekomst wat anders wilt draaien dan Linux. Waarom geen IBM M1015 en flashen naar IT-mode?

Verder één stick lijkt me beter; zuiniger dan twee sticks en gezien je keuze is geheugenbandbreedte niet je grootste zorg.

Verder is 600W voeding wel onzuinig als je rond de 25-30W gaat draaien. Je kunt deze voeding overwegen die is nog 80%+ efficient op 5% van zijn vermogen:
pricewatch: FSP Aurum Gold 400

[ Voor 4% gewijzigd door Verwijderd op 09-08-2012 13:43 ]


  • Rusty
  • Registratie: Juni 1999
  • Laatst online: 24-11 13:59
Inderdaad de IBM is de betere keuze.

Met betrekking tot voeding, kom ik met 400W niet in de problemen als ik uiteindelijk een totaal van 15 HD's erin heb zitten?

#ProductPrijsSubtotaal
1Asus F1A75-V PRO€ 77,33€ 77,33
2Hitachi Deskstar 7K3000 HDS723020BLA642, 2TB€ 107,50€ 215,-
1Fractal Design Define XL Titanium Grey USB 3.0€ 119,99€ 119,99
1IBM ServeRAID M1015 SAS/SATA Controller for System x€ 114,24€ 114,24
1Corsair Builder CX600 V2€ 59,90€ 59,90
1Kingston ValueRAM KVR1066D3S8N7K2/4G€ 21,45€ 21,45
1AMD A6-3650 Boxed€ 69,90€ 69,90
Bekijk collectie
Importeer producten
Totaal€ 677,81

3 x Marstek Venus 5.12KW V151. CT003 V114 en HW P1


  • muppet99
  • Registratie: Juli 2002
  • Laatst online: 13-12 12:32
Rusty neem je in je plaatje ook je kabels mee van je controller naar de HDD. Zou toch zonde zijn als je die vergeet te bestellen. Zie ze namelijk niet genoemd staan bij de levering van de controller.

Carpe Diem

Pagina: 1 ... 104 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.