• Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op zaterdag 17 maart 2012 @ 16:23:
Test met iperf en IPoIB tussen 2 VM's die allebei een eigen kaartje via VT-d hebben gekregen.
Geen optimalisaties (hoewel ik wel geprobeerd heb met iperf meer te halen, maar dat maakte niets uit)
Mooi, welk OS?
De snelheid komt in ieder geval overeen met wat ik tussen twee echte machines zie (win <-> linux of win <-> FreeBSD), meer optimaliseren dan t aantal threads en de tcp window size kun je niet (iperf -c -P8 -w 512k).

[ Voor 10% gewijzigd door Pantagruel op 17-03-2012 16:35 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R

Dit is tussen 2 x Centos6.2. Vanavond waarschijnlijk met mijn desktop testen (Win7)

Even niets...


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op zaterdag 17 maart 2012 @ 16:41:
Dit is tussen 2 x Centos6.2. Vanavond waarschijnlijk met mijn desktop testen (Win7)
Linux kan goed overweg met IB, IPoIB en SRP target zijn relatief eenvoudig op te zetten met de info van David Hunt's blog erbij, de verbinding met Win 7 x64 was geen probleem en een SRP target aanwezig in een RAM disk wist minimaal 900 MB/sec read/write te scoren (linkje). Een HDD als SRP target was ook geen probleem. De lees schrijfsnelheid was wel een lachertje, de afgetrapte 20 GB PATA WD 5400 rpm drive deed slechts ca. 20 MB/sec read/write. Maar was voldoende goed als "proof of principle".

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Misschien toch maar eens kijken naar infiniband dan. Is het in se ook zoals FC dat je een LUN presenteert aan je host? Ben al een tijdje aan het koekeloeren naar een P2P FC setup voor men ESXi host.
Jup, je kan heel veel verschillende protocollen over Infiniband praten. NFS, TCP, maar ook SCSI (SRP)

Even niets...


  • afterburn
  • Registratie: Januari 2000
  • Laatst online: 19-12 13:01

afterburn

No more...

Dennisik schreef op zaterdag 17 maart 2012 @ 01:45:
Heb die Q6600 in computer zitten, leuke CPU maar zal behoorlijk wat stroom vreten volgens mij voor een NAS.

Als eerst de vraag wat wil je met je NAS gaan doen, dan kan je de vraag beantwoorden of het wat is.
Feitelijk wordt het de storage van mijn htpc. Diezelfde htpc is zelf ook al webserver enz, dus veel meer dan puur storage zal het niet worden. Onderklokken is idd een goed optie, beperkt het stroomverbruik en de warmteontwikkeling en voor de disk/netwerk performance zal dat niet zo'n grote impact hebben?

Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs


  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
et36s schreef op maandag 05 maart 2012 @ 21:56:
Heeft iemand glftpd werkend onder FreeNas? FreeNas (ZFS) + glftpd heeft namelijk mijn voorkeur. Anders wordt het toch een Linux variant + Webmin.
Ik gebruik FreeNas niet maar OpenSuse. De combinatie glftpd en ZFS werkt prima.

  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
Is er iets zoals Xbmc en Plex dat werkt als media bibliotheek incl metadata enzo voor freeBSD 9?
IP over Infiniband werkend gekregen tussen mijn desktop en server. Stelde echt *niets* voor... Paar installertjes en even wat configuratie maar het werkte meteen.

Snelheden vallen me een beetje tegen.


Samba deed via IPoIB 300MB/s lezen en 280MB/s schrijven.
iSCSI deed over IPoIB 340MB/s lezen en 330MB/s schrijven.

Native:
[root@localhost data]# dd if=/dev/zero of=/mnt/data/test.001 bs=1M count=20480
20480+0 records in
20480+0 records out
21474836480 bytes (21 GB) copied, 42.0421 s, 511 MB/s
[root@localhost data]# dd if=/mnt/data/test.001 of=/dev/null bs=1M
20480+0 records in
20480+0 records out
21474836480 bytes (21 GB) copied, 28.5144 s, 753 MB/s
[root@localhost data]#


Ik moet nog eens kijken naar SCSI/SRP, misschien dat dat sneller is.

offtopic:
(Voor de oplettenden, ik heb geen ESX meer, dit is native onder CentOS 6.2)

[ Voor 4% gewijzigd door FireDrunk op 18-03-2012 15:40 ]

Even niets...

offtopic:
edit knop gebruiken...

[ Voor 72% gewijzigd door FireDrunk op 18-03-2012 15:40 ]

Even niets...


  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
ik zit al lange tijd te kijken maar heb nog steeds niet het ideale voor mij gevonden.

ik zit nu te denken aan zfsguru op een usbstick te installeren en daarop een vm te draaien met ubuntu omdat ik geen bibliotheek voor streamen en meta data kan vinden die op freeBSD 9 werkt

of heeft iemand een beter plan?
Hoeveel streaming power heb je nodig? Echt on-the-fly transcoding of alleen maar serveren?

Even niets...


  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
liever ook transcoding voor bijvoorbeeld een tablet of iphone maar ik hou bijvoorbeeld van het gemak van bijvoorbeeld Plex wat ik nu gebruik is gewoon de naam goed schrijven en hij vind alle meta data.

  • _-= Erikje =-_
  • Registratie: Maart 2000
  • Laatst online: 15-12 11:43
FireDrunk schreef op zondag 18 maart 2012 @ 15:39:
IP over Infiniband werkend gekregen tussen mijn desktop en server. Stelde echt *niets* voor... Paar installertjes en even wat configuratie maar het werkte meteen.

Snelheden vallen me een beetje tegen.


Samba deed via IPoIB 300MB/s lezen en 280MB/s schrijven.
iSCSI deed over IPoIB 340MB/s lezen en 330MB/s schrijven.

Native:
[root@localhost data]# dd if=/dev/zero of=/mnt/data/test.001 bs=1M count=20480
20480+0 records in
20480+0 records out
21474836480 bytes (21 GB) copied, 42.0421 s, 511 MB/s
[root@localhost data]# dd if=/mnt/data/test.001 of=/dev/null bs=1M
20480+0 records in
20480+0 records out
21474836480 bytes (21 GB) copied, 28.5144 s, 753 MB/s
[root@localhost data]#


Ik moet nog eens kijken naar SCSI/SRP, misschien dat dat sneller is.

offtopic:
(Voor de oplettenden, ik heb geen ESX meer, dit is native onder CentOS 6.2)
en iperf ?

  • webfreakz.nl
  • Registratie: November 2003
  • Laatst online: 21-08 15:56

webfreakz.nl

el-nul-zet-é-er

"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!


  • _-= Erikje =-_
  • Registratie: Maart 2000
  • Laatst online: 15-12 11:43
ah niet gezien :) ik nam aan dat ie nog niet over IP getest had :P
"Assumptions are the mother of all fuck-ups" :+

Gisteravond nog geprobeerd om een bridge te maken om VM's te kunnen draaien, maar dat bleek niks te worden toen ik de verbinding met mijn server verloor :P

Dag 2 :+

Net even wat testjes gedaan met VirtIO (Wat native is voor QEMU/KVM) en dat gaat ook wel rap :)
Vanuit een VM naar de host via NFS > 340MB/s lezen.

Nu nog eens kijken of ik Infiniband aan de praat krijg icm een Bridge, en dan eens kijken wat Windows doet over Infiniband -> FreeBSD VM met VirtIO.

Als we 10Gb niet via VMXNET3 krijgen, dan maar via VirtIO :+

nieuws: AMD introduceert nieuwe instap-Opterons
Op een goedkope manier ECC + AMD-Vi!!! (VT-d)

[ Voor 60% gewijzigd door FireDrunk op 20-03-2012 13:04 ]

Even niets...


  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op zaterdag 17 maart 2012 @ 21:16:
Jup, je kan heel veel verschillende protocollen over Infiniband praten. NFS, TCP, maar ook SCSI (SRP)
Nadat vorige week mijn Mellanox MHEA28-2TC (256 MB on board memory) binnen was gekomen heb ik tussen de bedrijven door OpenIndiana/Napp-it op een oudere PATA disk gezet. De reden voor de wisseling van OS is dat IB onder FreeBSD (ZFSguru) op dit moment eigenlijk niet verder komt dan een iperf test. Het overstappen naar Linux was een mogelijkheid geweest, maar aangezien ZFS daar nog als experimenteel te boek staat ( en butter FS min of meer ook) was dat geen echte optie.

IPoIB was eigenlijk een eitje en iperf doet het bij de combinatie van OI en windows net zo goed als Linux of FreeBSD het doet. Bij een que depth van 8 en een TCP window size van 128K vloeide er 7.46 Gbits/sec over de lijntjes.
Na 't nodige gezoek, info van blog's en fora combineren en de Oracle doc's gedeeltelijk lezen, heb ik OI als SRP target draaiende gekregen. Proof of principle is er, jammer genoeg is de PATA schijf echter geen snelheidswonder (20 MB/s write, 65 MB/s read).

Wat rest er dus nog:

-1 max. doorvoer van de IB benaderen.
Dit is hopelijk eenvoudig te doen door een RAM disk als SRP target beschikbaar te maken en atto/Crystal disk mark er op los te laten.

-2 een ZFS pool als SRP target vrij geven.
Ik heb nog 4 SATA disks van WD liggen (allegaartje met her en der een rotte zone) dus ik denk dat ik die maar tot een RAID0 ga versmelten en SRP er op los ga laten.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R

ZFS publiceren via SRP lijkt me niet handig, want dan zien de clients je directe filesystem.
Dan krijg je concurrency problemen. Die functie is er vooral om Cluster filesystems te publiceren. Dat zou wel werken. En waarom een TCP window size van 128k, infiniband heeft toch een MTU van 2k?

Even niets...


Verwijderd

FireDrunk schreef op maandag 19 maart 2012 @ 11:12:
Net even wat testjes gedaan met VirtIO (Wat native is voor QEMU/KVM) en dat gaat ook wel rap :)
Vanuit een VM naar de host via NFS > 340MB/s lezen.
Grappig, bij mij was de i/o van kvm/qemu niet vooruit te branden... Oh well, ik draai nu tot volle tevredenheid ESXI :)

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op woensdag 21 maart 2012 @ 08:11:
ZFS publiceren via SRP lijkt me niet handig, want dan zien de clients je directe filesystem.
Dan krijg je concurrency problemen. Die functie is er vooral om Cluster filesystems te publiceren. Dat zou wel werken. En waarom een TCP window size van 128k, infiniband heeft toch een MTU van 2k?
Thanks voor de tip, even wat lees werk verzetten en zien wat dan wel handig en slim is om te doen.

De standaard MTU van de IPoIB-CM (ConnectedMode) is 2044 octets ( 2048-octet IPoIB-link MTU min de 4-octet encapsulation header wat 2k is). Maar connected mode staat maximaal een MTU van 2^31 octets toe bij een point-to-point verbinding. Pech is wel dat de max. MTU 0.a. afhankelijk is van de implementatie en de IB HCA.

Even een 'iperf -c 10.10.4.24 -P8 -w 2k' gedaan : [SUM] 0.0-10.0 sec 4.14 GBytes 3.56 Gbits/sec.

(Als ik btw iperf op start op de OI bak meldt deze een default TCP window size van 125k, maar ook dan pompt iperf slechts 4.5 Gbist/sec over de lijntjes.)

Verder prutsen dus.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R

De encapsulatie van IP kost natuurlijk ook wat, dus verwacht niet meer dan 8Gb als alles goed gaat.
Je kan natuurlijk een RAM disk publiceren via SRP, dat zou het snelst van allemaal moeten zijn.

Even niets...


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Toch is het een stap terug. Bij de vorige generatie kon je gewoon een Athlon (en Sempron die stiekem een Athlon was) of Phenom pakken en ECC benutten. Maar goed, de Opteron gebruik natuurlijk wel Registered/Buffered geheugen, waar je bij de andere procs non-buffered moest hebben.

De CSL/OT kroeg !

Stap terug? In welk opzicht? ECC UDIMM of ECC RDIMM verschillen erg veel van elkaar. Dat niet elke CPU dat ondersteund snap ik best. En de AMD-Vi functionaliteit hebben alleen de allernieuwste A-series CPU's volgens mij. (buiten de andere Opterons)

Even niets...


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
De Opteron is prima, maar meer dat 'het consumentenspul' geen ECC UDIMM kan benutten. Met K8 en K10 kon je echt op een goedkope manier van ECC profiteren. Budget Asus moederbord met de goedkoopste Athlon en je had al ECC.

De CSL/OT kroeg !

Ik kan inderdaad niets meer vinden over ECC support in de nieuwe A- series CPU's. Dat is wel jammer ja.
Die Opteron kost gelukkig maar $99 :)

Even niets...


Verwijderd

(desktop) Bulldozer, Llano, Brazos/Zacate en Trinity ondersteunen volgens mij geen ECC (alleen non-ECC UDIMM). Vroeger was het inderdaad zo dat alles behalve de sempron budgetreeks ECC ondersteunde, zodat je voor een paar tientjes extra een ECC systeem had. Nu betaal je zowat de helft meer voor een computer wil je ECC hebben. Erg jammer en gemiste kans van AMD om op dit punt een voordeel te behalen boven Intel.

  • ikkesss
  • Registratie: September 2009
  • Laatst online: 12-12 15:10
Hoi, ik heb een vraag over de volgende setup.

Ik heb thuis een logitech squeezebox duo en daarvoor moet er een squeezeboxserver draaien. Deze heb ik op een pogoplug, https://wiki.xkyle.com/PogoplugV2, draaien middels squeezeplug, http://wiki.slimdevices.com/index.php/SqueezePlug. Dit werkt prima tot nu toe. Maar ik ben denk ik een grens overschreden qua grootte van mijn muziek collectie dus nu moet ik een aantal seconden wachten als ik browse in mijn bestandenlijst. Dit ligt denk ik aan de 256mb interne geheugen van de pogoplug.
Nu kan ik gratis een oude HP DC7600u krijgen, http://h18000.www1.hp.com...cs/12253_na/12253_na.HTML, maar die zal niet echt heel zuinig zijn in idle. Als m aan een energiemeter hang dan geeft die 66 watt aan in idle toestand. ik heb er 3gb intern geheugen ingedaan.
Ik wil er OpenmediaVault op draaien, http://openmediavault.org/features.html, en dat is op basis van FreeNAS/Debian als ik het allemaal goed begrijp. Het draait nu op een usb stick en ik kan de webinterface benaderen dus de installatie lijkt gelukt.
Maar ik wil benadrukken dat ik niets weet van Debian maar ik ben wel vrij goed in het volgen van tutorials :)
Overigens is dus het hoofddoel het draaien van SBS en als tweede het streamen van films en fungeren als een simpele NAS met een extra backup naar een externe schijf.

Na deze lange uitleg dan nu het probleem en de vraag.
Er zit maar 1 sata poort in deze machine en ik wil er toch software raid (raid 1) op gaan doen wat het OS mij bied. Ik heb 2 1 tb schijven liggen die ik voor dit project kan gebruiken.
Een pci en een pci x16 poort zijn vrij dus er is ruimte voor een sata controller kaartje. Of een volwaardige raid controller.
Mijn voorkeur gaat uit naar een simpel sata kaartje vanwege de kosten en omdat ik nu toch eerst aan het klooien ben.
Als ik bijvoorbeeld zoek op dit kaartje, http://www.asrock.com/mb/spec/Card.asp?Model=SATA3%20Card, dan lees ik over problemen met deze Marvell chipset.

Mijn vraag is dan ook of iemand een kaartje weet die goed door Debian ondersteund wordt?

Verwijderd

Geen Marvell controller kopen. Een IBM M1015 voor 8 HDDs is wellicht je beste keuze, maar wil je iets goedkoops kun je ook een PCI-express 1.0 x1 Silicon Image SiI-3132 kaartje kopen met 2 SATA poorten voor een tientje ofzo. Deze chip werkt wel goed, maar deelt 133MB/s (PCI) bandbreedte met 2 poorten. De host-interface is PCI-express 1.0 x1.
Zit er een PCIe -> PCI converter op dat kaartje ofzo dan?

Even niets...


Verwijderd

Dat zou prima kunnen; feit is dat deze chip er bij 125-130MB/s bij ophoudt. De SATA interface gaat tot 250MB/s en alhoewel je afhankelijk van de payload size wisselende efficiency haalt, verklaart dat niet de harde grens op precies het punt waar de bandbreedte van PCI ophoudt.

Silicon Image SiL-3124 is bijvoorbeeld een PCI-X controller, maar komt ook in PCI-express x4 versie, door middel van een PCI-X -> PCI-e bridge. Helaas geen nieuwe 'native' PCI-express controller van Silicon Image. Jammer, want ze worden op zich goed ondersteund qua drivers onder FreeBSD en consorten. Als Silicon Image een mooie PCI-express 2.0 x4 controller (2GB/s) met 8 x SATA/600 poorten, zou dat een heel stoere controller zijn voor DIY NAS.
[root@NAS ~]# iperf -s
------------------------------------------------------------
Server listening on TCP port 5001
TCP window size: 85.3 KByte (default)
------------------------------------------------------------
[  4] local 192.168.1.3 port 5001 connected with 192.168.1.149 port 46148
[ ID] Interval       Transfer     Bandwidth
[  4]  0.0-10.0 sec  16.8 GBytes  14.5 Gbits/sec


@KVM

VM <-> Host

* FireDrunk vind dit wel grappig :+

Even niets...


Verwijderd

Dit klinkt ook wel interessant voor FreeBSD 10:
NetMap is a framework for high-performance direct-to-hardware packet IO, offering low latency and high PPS rates to userland applications while bypassing any kernel-side packet processing. With NetMap, it is trivially possible to fully saturate a 10 Gbps network interface with minimal packet sizes.
With netmap, it takes as little as 60-65 clock cycles to move one packet between the user program and the wire. As an example, a single core running at 900 MHz can generate the 14.8 Mpps that saturate a 10 GigE interface. This is a 10-20x improvement over the use of a standard device driver.
Netmap support is available at the moment for Intel 10G and 1G
cards (ixgbe, em/lem/igb), and for the Realtek 1G card ("re").
Met andere woorden, FreeBSD + Intel 10Gbps ethernet (Intel X540) zou extreem goede performance moeten bieden op mainstream systemen. In jouw geval, FireDrunk, vindt er emulatie plaats waarbij je CPU dus op 14Gbps bottleneckt, zonder de extra overhead die een echt programma zou genereren zowel op netwerk-niveau als qua CPU-load.

Bronnen:
http://info.iet.unipi.it/~luigi/netmap/
http://svnweb.freebsd.org...=revision&revision=227614
* FireDrunk is VirtIO nu op FreeBSD (9) aan het proberen. :+

Even niets...


Verwijderd

Werkt goed met Virtualbox in elk geval qua netwerk interface. :)

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 24-11 18:11

Pantagruel

Mijn 80486 was snel,....was!

Verwijderd schreef op woensdag 21 maart 2012 @ 19:57:
Dit klinkt ook wel interessant voor FreeBSD 10:


[...]


[...]


[...]


Met andere woorden, FreeBSD + Intel 10Gbps ethernet (Intel X540) zou extreem goede performance moeten bieden op mainstream systemen. In jouw geval, FireDrunk, vindt er emulatie plaats waarbij je CPU dus op 14Gbps bottleneckt, zonder de extra overhead die een echt programma zou genereren zowel op netwerk-niveau als qua CPU-load.

Bronnen:
http://info.iet.unipi.it/~luigi/netmap/
http://svnweb.freebsd.org...=revision&revision=227614
MMM, hopelijk gaan ze ook an de IB ondersteuning sleutelen.

Zojuist in de OpenIndiana speeltuin bezig geweest met een RAMdisk als SRP target.

Als referentie een linux RAMdisk SRP target.

Crystal Disk Mark:
Afbeeldingslocatie: http://pantagruel.mine.nu/tweakers/CDM4k.jpg

Atto DiskBench:
Afbeeldingslocatie: http://pantagruel.mine.nu/tweakers/Atto-Q8.jpg

En hetzelfde op de OI bak.

Crystal Disk Mark:
Afbeeldingslocatie: http://pantagruel.mine.nu/tweakers/CD-1G-RAMdiskSRP.jpg

Atto DiskBench:
Afbeeldingslocatie: http://pantagruel.mine.nu/tweakers/Atto-1G-RAMdiskSRP.jpg

De hardware gebruikt voor Linux (en ook de FreeBSD test bak) en OpenIndiana is dezelfde, enkel de IB HCA is verschillend (mhea28-xtc vs mhea28-2tc).
Lijkt dus alsof write onder OI om de een of andere reden tegen een 500 MB/sec plafond aanloopt.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R

[root@VIRTIOTEST ~]# iperf -c 192.168.1.3
------------------------------------------------------------
Client connecting to 192.168.1.3, TCP port 5001
TCP window size: 32.8 KByte (default)
------------------------------------------------------------
[  3] local 192.168.1.103 port 36385 connected with 192.168.1.3 port 5001
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-10.0 sec  10.6 GBytes  9.07 Gbits/sec


Fijn drivertje :D

Zo is ZFS virtueel draaien toch nog een optie!

Even niets...


  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
offtopic: weet iemand waar je zo'n kabel kan halen?
Afbeeldingslocatie: http://image.ecbub.com/productd/937/514854_2.jpg

  • B2
  • Registratie: April 2000
  • Laatst online: 19:19

B2

wa' seggie?

dylan0806 schreef op donderdag 22 maart 2012 @ 00:33:
offtopic: weet iemand waar je zo'n kabel kan halen?
[afbeelding]
Waarom niet gewoon twee kabels met een Rj-45 koppelstukje?
Kun je zelfs bij de praxis/gamma kopen?

  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
Ik wil hem vast schroeven in een server case die dicht word met fans en dan de connectors doorlussen

  • ikkesss
  • Registratie: September 2009
  • Laatst online: 12-12 15:10
Verwijderd schreef op woensdag 21 maart 2012 @ 17:32:
Geen Marvell controller kopen. Een IBM M1015 voor 8 HDDs is wellicht je beste keuze, maar wil je iets goedkoops kun je ook een PCI-express 1.0 x1 Silicon Image SiI-3132 kaartje kopen met 2 SATA poorten voor een tientje ofzo. Deze chip werkt wel goed, maar deelt 133MB/s (PCI) bandbreedte met 2 poorten. De host-interface is PCI-express 1.0 x1.
Dank voor je reactie.
Heb op marktplaats een verkoper gevonden voor 21 euro voor de kaart met de PCI-express 1.0 x1 Silicon Image SiI-3132 kaart.
De IBM is een stuk duurder op Ebay :-)

Verwijderd

de IBM is een echte controller; SiI-3132 kan naar een derde van de bandbreedte leveren van één SATA poort, verdeeld over twee SATA poorten. De IBM M1015 kan 4GB/s full duplex in + uit maximaal. De IBM doe je voor een serieuze server zoals ZFS, Een Silicon Image kaartje als performance niet zo belangrijk is en je low-budget wilt doen. Worden verder prima ondersteund door FreeBSD platform. Weet wel dat Silicon Image BIOS-problemen kan krijgen als je meerdere controllers aan wilt sluiten; het blijft een fakeRAID chip met RAID CMOS.

  • mr_fragle
  • Registratie: Oktober 2000
  • Laatst online: 12-12 14:13

mr_fragle

Don't forget the guide

Ik heb een probleem.

Heb van medetweaker een supermicro sat2-mv8 overgenomen. Moet 8 sata schijven aankunnen en ondersteund volgens internet ook 3tb discs.

Probleem is dat win serv 2008 r2 deze kaart niet herkent en er geen driver voor is uitgebracht (kaart waarschijnlijk te oud). Ik wil echter toch deze kaart gebruiken. Want erg goedkoop en snelheid mis ik niet (servert wat films en muziek).

a) iemand deze kaart werkend, of tips?

b) ik kan wel een driver vinden, maar windows vindt hem niet, waarschijnlijk unsigned. Is er een mogelijkheid om in win server 2008 r2 unsigned drivers te installen?

And now the most interresting part of deze grot

Ja, dan moet je met bcdedit wat settings wijzigen volgens mij. Even Googlen (of op GoT zoeken).

Even niets...


  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Zit nu naar Flexraid te kijken als nieuw systeem. Vind het op zich wel aardig maar volgens mij moet je wel steeds bestanden naar de individuele schijven toe schrijven en heb je enkel een gigantische schijf waar je van kan lezen maar niet naar toe kan schrijven omdat hij dan niet weet op welke schijven het moet staan? Dat zou me wel tegen staan.
Heb ook zitten kijken naar Server 8 met Storage Spaces, opzich een prima oplossing maar hoorde helaas wat negatieve verhalen over de schrijfsnelheid, die zou met 10MB/s net wat te mager zijn gezien dat dan mijn internet snelheid niet eens bij kan houden.

Wil wel bij Windows blijven puur omdat ik dat gewend ben en een aantal Windows only programma's op die server draai. Heb nu 2x1,5TB in RAID1 en 4x1TB in RAID5 via software RAID van Windows 2008 R2. Dat werkt ook prima maar ik heb liever een grote enkele schijf waardoor ik niet telkens nieuwe arrays hoef te maken. Pff blijft lastig zo'n keuze, zeker omdat je niet snel kan wisselen als je eenmaal een keuze hebt gemaakt aangezien je zulke hoeveelheden data niet makkelijk ergens op slaat.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


  • Dazzleware
  • Registratie: September 2009
  • Laatst online: 21-07-2024

Dazzleware

Habetis bona deum

Ik heb hier ook FlexRAID draaien, gebruik alleen de storage pooling functie. Ik kan je vertellen dat je gewoon een storage pool kan aanmaken die gewoon in windows te voorschijn komt als 1 grote schijf waarvan je kan lezen EN waarna je kan schrijven, dus geen gedoe met losse schijven. Nadeel is dat FlexRAID nu wel betaald is, maar ik vind het geld dubbel en dwars waard.(Sale duurt tot 15 april)

Heb ooit ook even gespeeld met hun eigen RAID engine en kan je daar over vertellen dat het echt super easy is, je zegt gewoon welke schijven PPU (parity protection unit) zijn en daar schrijft FlexRAID zijn parity op weg en welke schijven je wilt beschermen, je kan zelf kiezen hoeveel PPU's je wilt. Als je bv 10 schijven hebt kan je 2 PPU's maken en de rest DRU's en dan kan je de DRU's(schijven waar gewone data op staat) als 1 harde schijf laten zien in Windows. Als je later besluit dat dit toch niet voor jou werkt, kan je gewoon de RAID engine uitschakelen en zijn de schijven gewoon benaderbaar.

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Dat klinkt opzich goed. Enig nadeel is dat het toch snel 50 dollar gaat kosten, iets wat ik ook aan andere zaken kan investeren. Windows Server 8 met storage spaces ziet er ook wel erg goed uit, als die performance reviews niet zo matig waren had ik het allang draaien denk ik.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


  • Dazzleware
  • Registratie: September 2009
  • Laatst online: 21-07-2024

Dazzleware

Habetis bona deum

Ik heb ook gekeken naar Windows storage spaces, maar aangezien Windows Server 8 nog in beta is, is natuurlijk nog niet de uiteindelijke performance bekend, maar volgens mij hebben Windows server edities sowieso niet zo'n hele goed RAID engine, en dus een slechte performance

Ik weet ook niet hoe storage spaces precies werkt, maar volgens mij maak je een pool aan van zeg 40TB en dan doe je daar eerst voor 8TB aan schijven in en als die 8 "echte" TB opraakt dan stop je er weer nieuwe schijven bij tot je bij je grens van 40TB bent en dan moet je een nieuwe pool aanmaken.

Als wat ik hierboven heb gezegd klopt, dan is dus het grote voordeel van FlexRAID, dat je pool dynamisch schaalbaar is, je kan naar hartelust schijven toevoegen en verwijderen, zelfs als je hun RAID engine gebruikt.
Zo kan je dus ook extra PPU's toevoegen, dus extra veiligheid scheppen zonder dat je je pool opnieuw hoeft aantemaken.

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Alleen mijn Software RAID5 performed wel beter dan de testomgevingen die ik tot nu toe heb gezien van Storage Spaces. Zit nu te denken aan FlexRaid maar de hoge prijs houd mij nog steeds enorm tegen. Ik wil eigenlijk RAID-F en Pooling en dat gaat al 50 dollar kosten puur aan software. Ik vind het wel erg prijzig voor de features die het bied. Voor dat bedrag kan ik net zo goed telkens wat extra schijven kopen en telkens een RAID5 array bijmaken. Zeker als ik straks 4x500GB erbij krijg is het voor mij rendabeler om gewoon een extra schijf te kopen.

[ Voor 34% gewijzigd door Tsurany op 24-03-2012 23:14 ]

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


  • Dazzleware
  • Registratie: September 2009
  • Laatst online: 21-07-2024

Dazzleware

Habetis bona deum

Of je de kosten voor FlexRAID het waard vind kan ik niet voor jou bepalen, wat ik wel kan doen is mijn ervaring delen, en dat is dat het gewoon super handig en makkelijk werkt, geen gedoe meer met het rebuilden en expanden van array's maar gewoon een schijf toevoegen en klaar.

De maker van FlexRAID is trouwens ook bezig met een ander vergelijkbaar project, namelijk NZFS, een soort ZFS maar niet helemaal, misschien ook wel interessant om in de gaten te houden link;)

Verder, aangezien het nu betaald is kan je ook goede support verwachten van de maker, wat hij ook daadwerkelijk levert.

[ Voor 6% gewijzigd door Dazzleware op 24-03-2012 23:22 . Reden: link toegevoegd ]


  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

True, dat is zeker waar. Ik ga nog even verder kijken naar SnapRAID. Het zal toch niet direct op korte termijn geïmplementeerd worden aangezien ik nu toch geen extra storage capaciteit heb.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
ik zit nu nog erg te twijfelen tussen een dual socket systeem met een onboard lsi 2008 chip om te flashen naar it of een singel socket systeem met een hba met een lsi chip. ik zit zelf aan deze te denken omdat je vooral 200 euro bespaart met 1 cpu maar dan weer een hba moet kopen dus onder aan de streep niets.
de case wordt een norco 4224(staat niet in de PW)
OS wordt denk freenas met zfs raid-z2 en sabnzbd en couchpotato en sickbeard
mischien komt er over een tijdje nog een glasvezelkaartje bij en/of een infiniband kaartje.
nu aan jullie de vraag mis ik iets?
#ProductPrijsSubtotaal
2Intel Xeon E5506€ 197,31€ 394,62
4Hitachi Deskstar 5K3000, 3TB€ 158,07€ 632,28
2Scythe Big Shuriken 2 Rev. B€ 32,75€ 65,50
3Scythe Slip Stream SY1225SL12H, 120mm€ 6,70€ 20,10
1Corsair AX1200€ 239,90€ 239,90
6Kingston ValueRAM KVR1333D3LD4R9S/8GEC€ 61,75€ 370,50
1Supermicro X8DTH-6€ 499,-€ 499,-
Bekijk collectie
Importeer producten
Totaal€ 2.221,90

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 19:13
Je praat over single core en dual core systeem; maar je bedoelt single socket en dual socket systeem.

Sowieso is je voeding zware overkill; mocht je 24 3TB schijven hebben dan gok ik dat je spin-up net over de 800 watt is. Nu we toch over overkill hebben; wat wil je met dat systeem? Gaat je systeem alleen maar data downloaden en serveren? Pure overkill.

Dat Supermicro moederbord heeft 6 sata en 8 sas aansluitingen. Waarom zou je dan kijken naar een HBA?

[ Voor 12% gewijzigd door GioStyle op 25-03-2012 23:41 ]


  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
GioStyle schreef op zondag 25 maart 2012 @ 23:37:
Je praat over single core en dual core systeem; maar je bedoelt single socket en dual socket systeem.

Sowieso is je voeding zware overkill; mocht je 24 3TB schijven hebben dan gok ik dat je spin-up net over de 800 watt is. Nu we toch over overkill hebben; wat wil je met dat systeem? Gaat je systeem alleen maar data downloaden en serveren? Pure overkill.

Dat Supermicro moederbord heeft 6 sata en 8 sas aansluitingen. Waarom zou je dan kijken naar een HBA?
ik heb vooral die voeding gekozen omdat tijdens een spin-up het aardig kan oplopen.
de hba zou ben een single socket systeem zijn want die hebben geen onboard lsi chips

het geen wat hij vooral moet gaan doen is
-series en film downloaden/repairen/extracten
-streamen naar een xbmc htpc en meerdere pc's
-ftp(s) voor back-ups

[ Voor 9% gewijzigd door dylan0806 op 26-03-2012 00:25 ]


  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Ben je dan niet net zo goed af met een i3/i5, 16GB ram en een paar leuke SATA PCI-E kaarten? Voor de prijs die je nu betaalt kan je volgens mij wel twee van zulke systemen bouwen.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N

2 QC's om Sab en Couchpatato te kunnen draaien? Je lijkt mij wel :+
Dat is echt zwaar overkill, zelfs om Infiniband vol te stouwen heb je geen 2 QC's nodig.

1 Goede QC met een sloot geheugen is zat. Tsurany heeft wat dat betreft zeker gelijk.
Hoewel je voor een Single Socket Opteron zou kunnen gaan als je zuinig + veel geheugen wil.
Dan heb je ook bordjes met ingebouwd LSI chipje. Maar ik geloof dat we die discussie al eens gevoerd hebben.

Even niets...


  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 17:01
FireDrunk schreef op maandag 26 maart 2012 @ 15:37: Maar ik geloof dat we die discussie al eens gevoerd hebben.
Hij heeft door even terug te zoeken al +/- 8 suggesties gedaan voor verschillende setups met van 1500 - 2000 euro.

@Dylon:
De ene keer heb je een setup met een areca kaart van 1000 euro, dan weer 2 processoren, dan weer een veel te lompe voeding enz. Allemaal suggesties waaruit wel blijkt dat je onvoldoende besef hebt van waar je mee bezig bent. Mijn setup zou nu +/- 750 euro kosten. Dan gebruik ik wel 3 schijven in plaats van 4. Wat dus eerder is gezegd. Met 800 euro zou je makkelijk een mooie setup kunnen bouwen.

Ik zou gewoon eens heel hard nadenken over alle suggesties die hier de afgelopen weken zijn gedaan. Je goed inlezen in ZFS en de benodigdheden daarvoor. En dan gewoon nog één of twee opties voorleggen. Nu is het echt dweilen met de kraan open en lijkt het alsof er totaal geen schot zit in je besef wat een goed systeem is voor je doeleinden.

Mijn advies: limiteer jezelf op 1000 euro. Daar moet makkelijk een mooie ZFS NAS van te maken zijn, en zo dwing je jezelf om de adviezen die heel talloze malen zijn gegeven in overweging te nemen.
Met de andere 500 - 1000 euro die je vervolgens bespaart ga je eens lekker op vakantie.

Sinds de 2 dagen regel reageer ik hier niet meer


  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
Ik was eerst van plan om ook verschillende game servers erop te gaan hosten maar na veel lezen heb ik gevonden dat zfs niet goed werkt met esxi en er zijn geen servers die op freebsd draaien. Wat ik nu wil gaan doen is een storage server kopen en later een bladeserver en die met elkaar verbinden door glasvezel of infiniband. Ik wil jullie wel hartelijk danken om mij hard op de feiten te drukken (had ik nodig ;) ) ik zit nu te denken aan een singel socket systeem mis een e5 xeon (moet nog kijken naar die kosten) maar heb vooral veel op internet gelezen voor zfs is 1TB storage = 1GB ram (klopt dit wel?).

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Dat klopt wel redelijk ja, met 16GB ram ga je wel goed zitten, daar zitten de kosten ook niet in. De kosten zitten vooral in die dure processoren en moederborden. Voor dat bedrag dat jij noemt kan je makkelijk zowel een gameserver als een storageserver aanschaffen.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N

Je kan dat prima combineren, als je met VT-d aan de slag gaat. Maak een pool van SSD's waar je je Gameservers op zet, en zet daar 1 VM op met een fysieke controller doorgegeven door middel van VT-d.
In die VM installeer je ZFSguru of FreeNAS o.i.d.

Daarnaast kan je gewoon VM's aanmaken met Gameserver OSen (Of dat nou W2k8R2 is of Ubuntu, maakt geen fluit uit.)

Gameservers draaien heerlijk op SSD's en als je ze een beetje geheugen geeft (minimaal 4GB per gameserver bijvoorbeeld) dan performt het vaak zeer goed.

Afhankelijk van de hoeveelheid gameservers die je voor ogen hebt, kan je dus denken aan:

1 * 8GB voor ZFS
2/3 * 4GB voor Gameservers. (veel meer moet je in een thuissituatie denk ik niet willen omtrent latency van een thuisverbinding enzo...)

Dan zit je dus aan 16 / 20 GB geheugen. Dat kan prima met een simpel single socket systeem (of dat nou een Xeon of een Opteron is, maakt geen fluit uit.) Daarop prik je 64GB geheugen, en je kan járen vooruit.

Even niets...


  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
Je bedoelt zo?
Ssd met vm (esxi bijvoorbeeld) -> zfsguru (direct path it controller met ssd's)
l-> gameserver os
Maar hoe kunnen dan die gameservers hun data opslaan op die zfs pool?

[ Voor 17% gewijzigd door dylan0806 op 26-03-2012 18:46 ]


  • johnkeates
  • Registratie: Februari 2008
  • Laatst online: 04-07 16:30
Waarom niet gewoon Xen, dan weet je zeker dat het werkt en qua performance hetzelfde als vmware's dingen.
Heb je ook meteen minder gezeur met drivers en dan kan je kiezen voor directe device passthough, ongeacht watvoor device.

Dan kan je bijv. Windows 2008R2 in HVM modus draaien en FBSD/Linux als PV VM (nog peer performance en flexibiliteit), dan zou je zelfs je SSD in meerdere LV's kunnen opdelen (met LVM) en dan hebben alle onderdelen er profijt van.

  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
Oke ik ben niet bekend met xen (eerlijk gezegd ook nog nooit van gehoord).
Heb een tijdje terug wel een vSphere 5 servetje gemaakt van scrab spullen maar nooit egt verder mee gegaan.

Wat ik ook nog zat te denken een hele hoop ram geheugen erin gooien en een ram disk maken voor de gameservers.

  • _-= Erikje =-_
  • Registratie: Maart 2000
  • Laatst online: 15-12 11:43
KVM/ Proxmox is ook een goeie optie in, je kan ook gewoon blockdevices RAW doorgeven zonder vt-d support
Maar devices doorgeven zonder VT-d is nooit een goede optie, dus zeggen dat je elk device zomaar door kan geven is echt niet aan te raden.

KVM heb ik nu ook draaien, en dat werkt prima. Maar of LVM nou zo'n voordeel is. Ik heb liever ESX als het gaat om VMFS/Snapshots.

Even niets...


  • _-= Erikje =-_
  • Registratie: Maart 2000
  • Laatst online: 15-12 11:43
dat zeg ik ook niet ;) ik zeg alleen blockdevices, ik gebruik LVM verder niet eens
johnkeates schreef op maandag 26 maart 2012 @ 19:09:
Waarom niet gewoon Xen, dan weet je zeker dat het werkt en qua performance hetzelfde als vmware's dingen.
Heb je ook meteen minder gezeur met drivers en dan kan je kiezen voor directe device passthough, ongeacht watvoor device.
Was ook niet voor jou, Excuus voor de onduidelijkheid :)

Even niets...


  • B2
  • Registratie: April 2000
  • Laatst online: 19:19

B2

wa' seggie?

FireDrunk schreef op dinsdag 27 maart 2012 @ 08:31:
Maar devices doorgeven zonder VT-d is nooit een goede optie, dus zeggen dat je elk device zomaar door kan geven is echt niet aan te raden.

KVM heb ik nu ook draaien, en dat werkt prima. Maar of LVM nou zo'n voordeel is. Ik heb liever ESX als het gaat om VMFS/Snapshots.
Waarom zou het geen goede optie zijn? Ik gebruik dit standaard naar volle tevredenheid op machines zonder VT-d.
Dat is een heel lang verhaal maar als mensen dat boeiend vinden kan ik daar wel een post aan wijden.

Even niets...


  • K4F
  • Registratie: Juli 2008
  • Laatst online: 10:39

K4F

dylan0806 schreef op maandag 26 maart 2012 @ 23:02:
Oke ik ben niet bekend met xen (eerlijk gezegd ook nog nooit van gehoord).
Heb een tijdje terug wel een vSphere 5 servetje gemaakt van scrab spullen maar nooit egt verder mee gegaan.

Wat ik ook nog zat te denken een hele hoop ram geheugen erin gooien en een ram disk maken voor de gameservers.
SSD's en ramdrives zijn overdreven voor de meeste gameservers. Ik weet niet wat voor spellen je wilt hosten maar net als bij gewoon gamen zijn ssd's daar niet meer dan een luxe voor snelle laadtijden. Als je het zou gebruiken als datastore, al dan wel of niet met zfs of een ander fs via een vm, dan valt het misschien nog goed te praten.

  • B2
  • Registratie: April 2000
  • Laatst online: 19:19

B2

wa' seggie?

FireDrunk schreef op dinsdag 27 maart 2012 @ 15:10:
Dat is een heel lang verhaal maar als mensen dat boeiend vinden kan ik daar wel een post aan wijden.
Ik zou dat wel eens willen weten wat jouw mening daarover is, want vooralsnog ben ik het tegendeel van mening. Het is een prima werkbare optie. Misschien niet de meest logische in een professionele omgeving, maar voor eigen gebruik prima.
Het is mijns inziens onmogelijk om snelle device passthrough te doen voor devices zonder VT-d.
Waarom? Dat komt door DMA. Een Virtual Machine (en dan heb ik het dus niet over paravirtualisatie, want dat is iets heel anders) krijg een vast setje geheugen. Daarin mag hij alles doen en laten wat hij wil.

Omdat het geheugen dat de VM gekregen heeft aan de binnenkant niet hetzelfde adres is als dat van de Host, moet er een vertaalslag gebeuren. Omdat deze vertaalslag normaal veel performance in gebruik neemt (omdat bij elke geheugenacces van een VM de Host op zijn beurt weer in zijn geheugen moest kijken waar dat geheugen écht staat) heeft men VT-x ontworpen (en AMD-V). Dit instructieset zorgt ervoor dat op het moment dat er vanuit een VM een memorycall gebeurt, de VM direct van de memorycontroller de data die hij nodig heeft terugkrijgt ipv dat de Host CPU op zijn beurt nog een paar calls moet doen.
Dat is overigens niet de enige functie van VT-x/AMD-V dat heeft namelijk nog veel meer functies.

Omdat devices in de VM's (net als fysieke machines dat krijgen) een IRQ toegewezenkrijgen, hebben zij ook last van dit probleem. Omdat een Device volgens het DMA principe zelf zijn data in het geheugen van de VM zou moeten schrijven, zouden er behoorlijk veel vreemde en onnodige CPU cycles verloren gaan om de data die van een device af komt op de goede plek te krijgen. Dit omdat het device niet direct in het geheugen van de Host mag schrijven.

Hiervoor is VT-d uitgevonden. Dit onderdeel zorgt ervoor dat een device *direct* in het geheugen van een VM mag schrijven. Vandaar ook dat je voor een VM die met VT-d een device doorkrijgt, altijd het volledige geheugen moet reserveren. In de CPU word namelijk een tabel bijgehouden welke devices in welk stuk geheugen mogen schrijven plús het stukje code (de IRQ routine) die uitgevoerd moet worden op het moment dat deze devices interrupts afschieten. Hierdoor kan een VM dus bijna direct bij je hardware, zonder tussen komst van je Host OS.

Ik hoop dat ik het een beetje duidelijk heb opgeschreven, want als ik het zelf teruglees is het nog steeds algebra :P

Even niets...


  • B2
  • Registratie: April 2000
  • Laatst online: 19:19

B2

wa' seggie?

Het klopt inderdaad wel wat je schrijft, maar het onderbouwd nog steeds niet waarom je niet bijvoorbeeld partities of een complete disk aan een vm zou kunnen toewijzen. Voor mijn eigen systeem gebruik ik het ook zo. Ik geef een RAID1 md0 direct door naar een vm die oa iscsi doet. En een complete partitie aan een vm die nfs doet.

Voor huis tuin en keuken gebruik merk je hier echt niks van. In een professionele omgeving is het idd een extra mogelijke performance hick. Maar daar geef je vaak toch niet een local device (als in storage) door naar je guests, maar gebruik je iscsi/fc storage o.i.d.

  • Meauses
  • Registratie: November 2004
  • Laatst online: 17:15
Interessant verhaal Firedrunk! Bedoel je nu met geheugen reserveren dat je bijv. 4GB RAM moet reserven alleen voor die VM diemniet gedeeld kan worden of lees ik het verkeerd?

Solaredge SE8K - 8830Wp - 15 x Jinko Solar N-type 420Wp - 2x Jinko Solar 405Wp - 4x Jinko Solar N-type 430 & Hoymiles HMS800 + 2x JASolar 375Wp

B2 schreef op dinsdag 27 maart 2012 @ 21:10:
Het klopt inderdaad wel wat je schrijft, maar het onderbouwd nog steeds niet waarom je niet bijvoorbeeld partities of een complete disk aan een vm zou kunnen toewijzen. Voor mijn eigen systeem gebruik ik het ook zo. Ik geef een RAID1 md0 direct door naar een vm die oa iscsi doet. En een complete partitie aan een vm die nfs doet.

Voor huis tuin en keuken gebruik merk je hier echt niks van. In een professionele omgeving is het idd een extra mogelijke performance hick. Maar daar geef je vaak toch niet een local device (als in storage) door naar je guests, maar gebruik je iscsi/fc storage o.i.d.
Het ging over devices. Ik vind een disk geen Device :)
Meauses schreef op dinsdag 27 maart 2012 @ 21:37:
Interessant verhaal Firedrunk! Bedoel je nu met geheugen reserveren dat je bijv. 4GB RAM moet reserven alleen voor die VM diemniet gedeeld kan worden of lees ik het verkeerd?
Dat klopt.

[ Voor 16% gewijzigd door FireDrunk op 27-03-2012 21:53 ]

Even niets...


  • B2
  • Registratie: April 2000
  • Laatst online: 19:19

B2

wa' seggie?

FireDrunk schreef op dinsdag 27 maart 2012 @ 21:53:
[...]


Het ging over devices. Ik vind een disk geen Device :)
Dat is dan een verschil in gebruikte terminologie :)
Klopt, maar van IO is het soms ook wel lastig om zonder VT-d te werken. Ik zou namelijk niet een partitie of een disk doorgeven vanuit een Linux host aan een FreeBSD/ZFS guest zonder VT-d.

Hoewel het kan, vind ik het toch (nog) niet stabiel genoeg om te doen.
Daar vind ik KVM/QEMU nog te zwak voor. Ik had bijvoorbeeld dikke problemen om VM's op XFS te draaien. Dat moest onder EXT3/4 omdat raw/cow images niet goed werken op XFS.

En wat gebeurd er? IO Errors? nee hoor, gewoon een compleet hangende server.

Daarom doe ik liever VT-d :)

[ Voor 48% gewijzigd door FireDrunk op 27-03-2012 22:01 ]

Even niets...


  • _-= Erikje =-_
  • Registratie: Maart 2000
  • Laatst online: 15-12 11:43
Maar, met VT-d geef je de hele controller (en alles wat daaraan hangt) door aan het VM, niet de blockdevices, gezien er meer blockdevices aan die controller hangen dan mijn VM mag hebben :P

Verwijderd

ik heb een tijdje terug voor linux met sw raid (mdadm) en daarop EXT4 gekozen, maar ik wil even waarschuwen dat een EXT4 boven de 16TB nog maar twijfelachtig/niet ondersteund is.

mocht je hierover denken gebruik dan XFS of ZFS (en bij die laatste kun je misschien beter ZFS de raid laten doen)

ik heb dus een systeem met een hele hoop 2TB schijven en ik heb het nu 2keer uitgebreid, de eerst keer van 9TB naar 11TB en nu dus naar boven de 16TB (schijven variëren expres tussen seagate, samsung en WD) en hopelijk falen er door een beetje spreiding in age ook minder schijven binnen kortte tijd van elkaar. ik draai inmiddels raid6 met een hot stand-by schijf.
_-= Erikje =-_ schreef op woensdag 28 maart 2012 @ 09:52:
Maar, met VT-d geef je de hele controller (en alles wat daaraan hangt) door aan het VM, niet de blockdevices, gezien er meer blockdevices aan die controller hangen dan mijn VM mag hebben :P
In dat geval is het ook lastig beslissen wat te doen. RDM / Of blockdevice passthrough zoals Linux dat kent, is dan eigenlijk de enige oplossing.

Even niets...


  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
ik denk dat ik toch maar even nog wacht de nieuwe 2011 server mobo's zijn nog niet te koop in Nederland en de processors ook nog niet.

ik heb dit nu alvast bedacht:
#ProductPrijsSubtotaal
8Hitachi Deskstar 5K3000, 3TB€ 158,07€ 1.264,56
8Kingston ValueRAM KVR1333D3LQ8R9S/8GEC€ 57,81€ 462,48
1LSI SAS 9201-16i€ 378,77€ 378,77
1Corsair HX850W€ 138,99€ 138,99
Bekijk collectie
Importeer producten
Totaal€ 2.244,80

[ Voor 91% gewijzigd door dylan0806 op 28-03-2012 18:36 ]


  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Verwijderd schreef op woensdag 28 maart 2012 @ 09:59:
ik heb een tijdje terug voor linux met sw raid (mdadm) en daarop EXT4 gekozen, maar ik wil even waarschuwen dat een EXT4 boven de 16TB nog maar twijfelachtig/niet ondersteund is.

mocht je hierover denken gebruik dan XFS of ZFS (en bij die laatste kun je misschien beter ZFS de raid laten doen)

ik heb dus een systeem met een hele hoop 2TB schijven en ik heb het nu 2keer uitgebreid, de eerst keer van 9TB naar 11TB en nu dus naar boven de 16TB (schijven variëren expres tussen seagate, samsung en WD) en hopelijk falen er door een beetje spreiding in age ook minder schijven binnen kortte tijd van elkaar. ik draai inmiddels raid6 met een hot stand-by schijf.
Is dat eigenlijk goed gelukt om van raid5 naar raid6 te gaan in mdadm zonder data verlies?

Eerste keer dat ik dit lees, eerste plan was 10TB.
Raar zie:
http://blog.ronnyegner-co...e-16-tb-limit-now-solved/

Ooit komt er een keer ZFS.

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Live migreren naar raid6 is prima mogelijk. Geen enkel probleem. Je array wordt zelfs niet degraded. Alleen tijdens een hele kleine critical section van 768K loop je risico en die wordt gebackupt.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • Neopatch
  • Registratie: Januari 2010
  • Laatst online: 16:06
Ik heb een vraag. Thuis heb ik het volgende systeem draaien voor dataopslag:

#ProductPrijsSubtotaal
4Samsung EcoGreen F4EG HD204UI, 2TB€ 121,90€ 487,60
1Fractal Design Define R3 (Zwart)€ 98,70€ 98,70
1AMD Athlon II X2 250 Boxed€ 56,-€ 56,-
1be quiet! Pure Power L7 300W€ 35,-€ 35,-
1MSI 880GM-E41€ 63,55€ 63,55
Bekijk collectie
Importeer producten
Totaal€ 740,85


PS: geheugen kon ik niet zo snel vinden via de pricewatch. Dit is 2GB voldoende voor mij want hij serveert alleen maar files via smbd(Samba) en FTP.

Zoals jullie weten is de huidige hardeschijf prijs nog redelijk hoog. Ik maak gebruik van Ubuntu i.c.m mdadm om een software raid te maken(RAID5). Nu zit er in mijn desktop nog 2x pricewatch: Samsung Spinpoint F3 HD203WI, 2TB

Mijn vraag is; Kan ik deze schijven aan mijn raid array toevoegen? omdat het een ouder model betreft zat ik een beetje te twijfelen (meer of ze wel de zelfde grote hebben) en op internet kan ik geen duidelijk antwoord vinden of deze schijven in een raid5 array samen gaan. Wellicht heeft één van jullie ervaring met beide schijven in een raid array?

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
Zolang ze dezelfde grootte hebben kan het zover ik weet.
Ik ben juist van plan om veel verschillende HD's te gebruiken in mijn raid array om zo de kans dat ze achter elkaar kapot gaan zo klein mogelijk te houden. Uiteraard zoek ik wel 4x een HD met dezelfde snelheden.

Categorie WD20EARS, F4EG, Baraccuda.

  • marcop23
  • Registratie: December 2009
  • Nu online
Neopatch schreef op donderdag 29 maart 2012 @ 14:30:
Ik heb een vraag. Thuis heb ik het volgende systeem draaien voor dataopslag:

#ProductPrijsSubtotaal
4Samsung EcoGreen F4EG HD204UI, 2TB€ 121,90€ 487,60
1Fractal Design Define R3 (Zwart)€ 98,70€ 98,70
1AMD Athlon II X2 250 Boxed€ 56,-€ 56,-
1be quiet! Pure Power L7 300W€ 35,-€ 35,-
1MSI 880GM-E41€ 63,55€ 63,55
Bekijk collectie
Importeer producten
Totaal€ 740,85


PS: geheugen kon ik niet zo snel vinden via de pricewatch. Dit is 2GB voldoende voor mij want hij serveert alleen maar files via smbd(Samba) en FTP.

Zoals jullie weten is de huidige hardeschijf prijs nog redelijk hoog. Ik maak gebruik van Ubuntu i.c.m mdadm om een software raid te maken(RAID5). Nu zit er in mijn desktop nog 2x pricewatch: Samsung Spinpoint F3 HD203WI, 2TB

Mijn vraag is; Kan ik deze schijven aan mijn raid array toevoegen? omdat het een ouder model betreft zat ik een beetje te twijfelen (meer of ze wel de zelfde grote hebben) en op internet kan ik geen duidelijk antwoord vinden of deze schijven in een raid5 array samen gaan. Wellicht heeft één van jullie ervaring met beide schijven in een raid array?
Zolang ze EXACT dezelfde grootte hebben, wel ja. Als je oorspronkelijke schijven net een paar bytes meer op kunnen slaan, gaat dat niet meer. Als de nieuwe schijven een paar bytes groter zijn, maakt dat niets uit, dan worden die paar bytes gewoon niet gebruikt.

Ik zou trouwens van RAID 5 naar 6 gaan in mdadm, om te voorkomen dat er, wanneer er één schijf stuk gaat en de anderen druk staan te seeken (rebuilden), de andere die exact net zo oud is ook stuk gaat. Die kans is uiteraard kleiner met RAID6

  • Dennisik
  • Registratie: Juni 2009
  • Niet online
(overleden)
marcop23 schreef op donderdag 29 maart 2012 @ 15:13:
[...]

Zolang ze EXACT dezelfde grootte hebben, wel ja. Als je oorspronkelijke schijven net een paar bytes meer op kunnen slaan, gaat dat niet meer. Als de nieuwe schijven een paar bytes groter zijn, maakt dat niets uit, dan worden die paar bytes gewoon niet gebruikt.

Ik zou trouwens van RAID 5 naar 6 gaan in mdadm, om te voorkomen dat er, wanneer er één schijf stuk gaat en de anderen druk staan te seeken (rebuilden), de andere die exact net zo oud is ook stuk gaat. Die kans is uiteraard kleiner met RAID6
Downgrade hij die andere schijven niet als je er een kleinere schijf toevoegt? Gezien hij de array opnieuw moet rebuilden. Voor paar 100 GB verschil, vraag ik me af of dat werkt. Maar paar bytes minder, zou theoretisch toch wel moeten lukken?

  • Neopatch
  • Registratie: Januari 2010
  • Laatst online: 16:06
marcop23 schreef op donderdag 29 maart 2012 @ 15:13:
[...]

Zolang ze EXACT dezelfde grootte hebben, wel ja. Als je oorspronkelijke schijven net een paar bytes meer op kunnen slaan, gaat dat niet meer. Als de nieuwe schijven een paar bytes groter zijn, maakt dat niets uit, dan worden die paar bytes gewoon niet gebruikt.

Ik zou trouwens van RAID 5 naar 6 gaan in mdadm, om te voorkomen dat er, wanneer er één schijf stuk gaat en de anderen druk staan te seeken (rebuilden), de andere die exact net zo oud is ook stuk gaat. Die kans is uiteraard kleiner met RAID6
Ik wist inderdaad dat ze exact de zelfde grote moesten hebben. Maar weet je toevallig hoe ik daar het beste achter kan komen ? Moet ik kijken naar de grote zodra hij geformatteerd is of de raw grote zeg maar? van beide schijven ?

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Tegenwoordig is dat min of meer gestandaardiseerd.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • Neopatch
  • Registratie: Januari 2010
  • Laatst online: 16:06
HarmoniousVibe schreef op donderdag 29 maart 2012 @ 17:34:
Tegenwoordig is dat min of meer gestandaardiseerd.
Dus ik kan ervan uitgaan dat pricewatch: Samsung EcoGreen F4EG HD204UI, 2TB en pricewatch: Samsung Spinpoint F3 HD203WI, 2TB samen in één array passen ?

  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Kan me niet voorstellen dat dat problemen oplevert, maar je kunt het altijd checken met

fdisk -l /dev/sd? 2> /dev/null | grep 2000


Als het goed is, zijn het exact 2000398934016 bytes. Zoek maar eens op dat getal + F3 of F4.

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • Neopatch
  • Registratie: Januari 2010
  • Laatst online: 16:06
HarmoniousVibe schreef op donderdag 29 maart 2012 @ 17:58:
[...]

Kan me niet voorstellen dat dat problemen oplevert, maar je kunt het altijd checken met

fdisk -l /dev/sd? 2> /dev/null | grep 2000


Als het goed is, zijn het exact 2000398934016 bytes. Zoek maar eens op dat getal + F3 of F4.
Heb het inderdaad gevonden en die grote klopt inderdaad dat is identiek. Dat zou inderdaad betekenen dat ze samen in één raid array passen. Bedankt! :)

  • _-= Erikje =-_
  • Registratie: Maart 2000
  • Laatst online: 15-12 11:43
veel controllers ronden ook af op een tiental naar beneden toch ? zodat de de meeste schijven wel ongeveer even groot uitkomen (maar je wel een beetje ruimte niet gebruikt)

  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
wat denken jullie dat handig is wachten op een nieuwe xeon e5 of gewoon een e3 nemen voor een zfs server?

  • webfreakz.nl
  • Registratie: November 2003
  • Laatst online: 21-08 15:56

webfreakz.nl

el-nul-zet-é-er

dylan0806:
Wat ga je doen met die bak? Als je geen High Availability setup bouwt waar een tiental VMs hun data opslaan via iSCSI o.i.d. dan denk ik niet dat je écht een Xeon CPU nodig gaat hebben :P

"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!


  • dylan0806
  • Registratie: Mei 2010
  • Laatst online: 07-06 18:58
webfreakz.nl schreef op vrijdag 30 maart 2012 @ 10:40:
dylan0806:
Wat ga je doen met die bak? Als je geen High Availability setup bouwt waar een tiental VMs hun data opslaan via iSCSI o.i.d. dan denk ik niet dat je écht een Xeon CPU nodig gaat hebben :P
Ik ga een 24x 3tb schijven in raid-z2 draaien (op den duur) op een vm (moet nog kijken welk os) met een Windows 2k8 r2. Ik wil vooral ook een xeon ivm vt-d en registered ecc ram.

[ Voor 6% gewijzigd door dylan0806 op 30-03-2012 14:57 ]


Verwijderd

Normale CPUs (2500T) hebben ook vt-d. Alleen de K versies hebben dat niet; zoals 2500K en 2600K. Wel jammer overigens.

Maar 24 schijven in één RAID-Z2 of meerdere RAID-Z2? Doorgaans stop je niet meer dan 10 devices in een enkele vdev, en dat is al aardig veel. Tenzij je groepjes van 6 maakt kom je ook niet uit op een optimale configuratie voor 4K schijven.

Verder wil je Windows als host OS draaien en alle storage virtualizen? Hoe zie je dat precies voor je?

[ Voor 11% gewijzigd door Verwijderd op 30-03-2012 16:08 ]


  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 17:01
Verwijderd schreef op vrijdag 30 maart 2012 @ 16:08:
Normale CPUs (2500T) hebben ook vt-d. Alleen de K versies hebben dat niet; zoals 2500K en 2600K. Wel jammer overigens.

Maar 24 schijven in één RAID-Z2 of meerdere RAID-Z2? Doorgaans stop je niet meer dan 10 devices in een enkele vdev, en dat is al aardig veel. Tenzij je groepjes van 6 maakt kom je ook niet uit op een optimale configuratie voor 4K schijven.

Verder wil je Windows als host OS draaien en alle storage virtualizen? Hoe zie je dat precies voor je?
Heeft vt-d niet ook te maken met het kunnen draaien van virtuele x64 os'en? Dat wordt namelijk gewoon ondersteund op mijn 2500K.

Sinds de 2 dagen regel reageer ik hier niet meer


  • ItsValium
  • Registratie: Juni 2009
  • Laatst online: 16:08
vt-d is directed i/o wat betekent dat je fysieke hardware kan doorlussen naar je VM. De ondersteuning voor 64bit OS VM's is vt-x.

  • webfreakz.nl
  • Registratie: November 2003
  • Laatst online: 21-08 15:56

webfreakz.nl

el-nul-zet-é-er

dylan0806 schreef op vrijdag 30 maart 2012 @ 14:53:
[...]

Ik ga een 24x 3tb schijven in raid-z2 draaien (op den duur) op een vm (moet nog kijken welk os) met een Windows 2k8 r2. Ik wil vooral ook een xeon ivm vt-d en registered ecc ram.
En wat gaat die Win2k8 doen? Fileserver spelen voor de PCs in jouw huis? Inclusief mail en een AD? En je gaat er gedownloade films opslaan maar je bouwt een RAIDZ2 omdat je het zonde vind als je ooit weer al die films moet herdownloaden als je array verneukt is?

Guess what, een Core i3 moet meer dan genoeg voor je zijn al weet ik niet of die VT-d ondersteunt. 8)7

Geef eens echte info.

"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!

Pagina: 1 ... 97 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.