Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Even niets...
Linux kan goed overweg met IB, IPoIB en SRP target zijn relatief eenvoudig op te zetten met de info van David Hunt's blog erbij, de verbinding met Win 7 x64 was geen probleem en een SRP target aanwezig in een RAM disk wist minimaal 900 MB/sec read/write te scoren (linkje). Een HDD als SRP target was ook geen probleem. De lees schrijfsnelheid was wel een lachertje, de afgetrapte 20 GB PATA WD 5400 rpm drive deed slechts ca. 20 MB/sec read/write. Maar was voldoende goed als "proof of principle".FireDrunk schreef op zaterdag 17 maart 2012 @ 16:41:
Dit is tussen 2 x Centos6.2. Vanavond waarschijnlijk met mijn desktop testen (Win7)
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Even niets...
Feitelijk wordt het de storage van mijn htpc. Diezelfde htpc is zelf ook al webserver enz, dus veel meer dan puur storage zal het niet worden. Onderklokken is idd een goed optie, beperkt het stroomverbruik en de warmteontwikkeling en voor de disk/netwerk performance zal dat niet zo'n grote impact hebben?Dennisik schreef op zaterdag 17 maart 2012 @ 01:45:
Heb die Q6600 in computer zitten, leuke CPU maar zal behoorlijk wat stroom vreten volgens mij voor een NAS.
Als eerst de vraag wat wil je met je NAS gaan doen, dan kan je de vraag beantwoorden of het wat is.
Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs
Ik gebruik FreeNas niet maar OpenSuse. De combinatie glftpd en ZFS werkt prima.et36s schreef op maandag 05 maart 2012 @ 21:56:
Heeft iemand glftpd werkend onder FreeNas? FreeNas (ZFS) + glftpd heeft namelijk mijn voorkeur. Anders wordt het toch een Linux variant + Webmin.
Snelheden vallen me een beetje tegen.
Samba deed via IPoIB 300MB/s lezen en 280MB/s schrijven.
iSCSI deed over IPoIB 340MB/s lezen en 330MB/s schrijven.
Native:
[root@localhost data]# dd if=/dev/zero of=/mnt/data/test.001 bs=1M count=20480 20480+0 records in 20480+0 records out 21474836480 bytes (21 GB) copied, 42.0421 s, 511 MB/s [root@localhost data]# dd if=/mnt/data/test.001 of=/dev/null bs=1M 20480+0 records in 20480+0 records out 21474836480 bytes (21 GB) copied, 28.5144 s, 753 MB/s [root@localhost data]#
Ik moet nog eens kijken naar SCSI/SRP, misschien dat dat sneller is.
(Voor de oplettenden, ik heb geen ESX meer, dit is native onder CentOS 6.2)
[ Voor 4% gewijzigd door FireDrunk op 18-03-2012 15:40 ]
Even niets...
edit knop gebruiken...
[ Voor 72% gewijzigd door FireDrunk op 18-03-2012 15:40 ]
Even niets...
ik zit nu te denken aan zfsguru op een usbstick te installeren en daarop een vm te draaien met ubuntu omdat ik geen bibliotheek voor streamen en meta data kan vinden die op freeBSD 9 werkt
of heeft iemand een beter plan?
Even niets...
en iperf ?FireDrunk schreef op zondag 18 maart 2012 @ 15:39:
IP over Infiniband werkend gekregen tussen mijn desktop en server. Stelde echt *niets* voor... Paar installertjes en even wat configuratie maar het werkte meteen.
Snelheden vallen me een beetje tegen.
Samba deed via IPoIB 300MB/s lezen en 280MB/s schrijven.
iSCSI deed over IPoIB 340MB/s lezen en 330MB/s schrijven.
Native:
[root@localhost data]# dd if=/dev/zero of=/mnt/data/test.001 bs=1M count=20480 20480+0 records in 20480+0 records out 21474836480 bytes (21 GB) copied, 42.0421 s, 511 MB/s [root@localhost data]# dd if=/mnt/data/test.001 of=/dev/null bs=1M 20480+0 records in 20480+0 records out 21474836480 bytes (21 GB) copied, 28.5144 s, 753 MB/s [root@localhost data]#
Ik moet nog eens kijken naar SCSI/SRP, misschien dat dat sneller is.
offtopic:
(Voor de oplettenden, ik heb geen ESX meer, dit is native onder CentOS 6.2)
"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!
ah niet gezien
Gisteravond nog geprobeerd om een bridge te maken om VM's te kunnen draaien, maar dat bleek niks te worden toen ik de verbinding met mijn server verloor
Dag 2
Net even wat testjes gedaan met VirtIO (Wat native is voor QEMU/KVM) en dat gaat ook wel rap
Vanuit een VM naar de host via NFS > 340MB/s lezen.
Nu nog eens kijken of ik Infiniband aan de praat krijg icm een Bridge, en dan eens kijken wat Windows doet over Infiniband -> FreeBSD VM met VirtIO.
Als we 10Gb niet via VMXNET3 krijgen, dan maar via VirtIO
nieuws: AMD introduceert nieuwe instap-Opterons
Op een goedkope manier ECC + AMD-Vi!!! (VT-d)
[ Voor 60% gewijzigd door FireDrunk op 20-03-2012 13:04 ]
Even niets...
Nadat vorige week mijn Mellanox MHEA28-2TC (256 MB on board memory) binnen was gekomen heb ik tussen de bedrijven door OpenIndiana/Napp-it op een oudere PATA disk gezet. De reden voor de wisseling van OS is dat IB onder FreeBSD (ZFSguru) op dit moment eigenlijk niet verder komt dan een iperf test. Het overstappen naar Linux was een mogelijkheid geweest, maar aangezien ZFS daar nog als experimenteel te boek staat ( en butter FS min of meer ook) was dat geen echte optie.FireDrunk schreef op zaterdag 17 maart 2012 @ 21:16:
Jup, je kan heel veel verschillende protocollen over Infiniband praten. NFS, TCP, maar ook SCSI (SRP)
IPoIB was eigenlijk een eitje en iperf doet het bij de combinatie van OI en windows net zo goed als Linux of FreeBSD het doet. Bij een que depth van 8 en een TCP window size van 128K vloeide er 7.46 Gbits/sec over de lijntjes.
Na 't nodige gezoek, info van blog's en fora combineren en de Oracle doc's gedeeltelijk lezen, heb ik OI als SRP target draaiende gekregen. Proof of principle is er, jammer genoeg is de PATA schijf echter geen snelheidswonder (20 MB/s write, 65 MB/s read).
Wat rest er dus nog:
-1 max. doorvoer van de IB benaderen.
Dit is hopelijk eenvoudig te doen door een RAM disk als SRP target beschikbaar te maken en atto/Crystal disk mark er op los te laten.
-2 een ZFS pool als SRP target vrij geven.
Ik heb nog 4 SATA disks van WD liggen (allegaartje met her en der een rotte zone) dus ik denk dat ik die maar tot een RAID0 ga versmelten en SRP er op los ga laten.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Dan krijg je concurrency problemen. Die functie is er vooral om Cluster filesystems te publiceren. Dat zou wel werken. En waarom een TCP window size van 128k, infiniband heeft toch een MTU van 2k?
Even niets...
Verwijderd
Grappig, bij mij was de i/o van kvm/qemu niet vooruit te branden... Oh well, ik draai nu tot volle tevredenheid ESXIFireDrunk schreef op maandag 19 maart 2012 @ 11:12:
Net even wat testjes gedaan met VirtIO (Wat native is voor QEMU/KVM) en dat gaat ook wel rap
Vanuit een VM naar de host via NFS > 340MB/s lezen.
Thanks voor de tip, even wat lees werk verzetten en zien wat dan wel handig en slim is om te doen.FireDrunk schreef op woensdag 21 maart 2012 @ 08:11:
ZFS publiceren via SRP lijkt me niet handig, want dan zien de clients je directe filesystem.
Dan krijg je concurrency problemen. Die functie is er vooral om Cluster filesystems te publiceren. Dat zou wel werken. En waarom een TCP window size van 128k, infiniband heeft toch een MTU van 2k?
De standaard MTU van de IPoIB-CM (ConnectedMode) is 2044 octets ( 2048-octet IPoIB-link MTU min de 4-octet encapsulation header wat 2k is). Maar connected mode staat maximaal een MTU van 2^31 octets toe bij een point-to-point verbinding. Pech is wel dat de max. MTU 0.a. afhankelijk is van de implementatie en de IB HCA.
Even een 'iperf -c 10.10.4.24 -P8 -w 2k' gedaan : [SUM] 0.0-10.0 sec 4.14 GBytes 3.56 Gbits/sec.
(Als ik btw iperf op start op de OI bak meldt deze een default TCP window size van 125k, maar ook dan pompt iperf slechts 4.5 Gbist/sec over de lijntjes.)
Verder prutsen dus.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Je kan natuurlijk een RAM disk publiceren via SRP, dat zou het snelst van allemaal moeten zijn.
Even niets...
Toch is het een stap terug. Bij de vorige generatie kon je gewoon een Athlon (en Sempron die stiekem een Athlon was) of Phenom pakken en ECC benutten. Maar goed, de Opteron gebruik natuurlijk wel Registered/Buffered geheugen, waar je bij de andere procs non-buffered moest hebben.FireDrunk schreef op maandag 19 maart 2012 @ 11:12:
nieuws: AMD introduceert nieuwe instap-Opterons
Op een goedkope manier ECC + AMD-Vi!!! (VT-d)
Even niets...
Die Opteron kost gelukkig maar $99
Even niets...
Verwijderd
Ik heb thuis een logitech squeezebox duo en daarvoor moet er een squeezeboxserver draaien. Deze heb ik op een pogoplug, https://wiki.xkyle.com/PogoplugV2, draaien middels squeezeplug, http://wiki.slimdevices.com/index.php/SqueezePlug. Dit werkt prima tot nu toe. Maar ik ben denk ik een grens overschreden qua grootte van mijn muziek collectie dus nu moet ik een aantal seconden wachten als ik browse in mijn bestandenlijst. Dit ligt denk ik aan de 256mb interne geheugen van de pogoplug.
Nu kan ik gratis een oude HP DC7600u krijgen, http://h18000.www1.hp.com...cs/12253_na/12253_na.HTML, maar die zal niet echt heel zuinig zijn in idle. Als m aan een energiemeter hang dan geeft die 66 watt aan in idle toestand. ik heb er 3gb intern geheugen ingedaan.
Ik wil er OpenmediaVault op draaien, http://openmediavault.org/features.html, en dat is op basis van FreeNAS/Debian als ik het allemaal goed begrijp. Het draait nu op een usb stick en ik kan de webinterface benaderen dus de installatie lijkt gelukt.
Maar ik wil benadrukken dat ik niets weet van Debian maar ik ben wel vrij goed in het volgen van tutorials
Overigens is dus het hoofddoel het draaien van SBS en als tweede het streamen van films en fungeren als een simpele NAS met een extra backup naar een externe schijf.
Na deze lange uitleg dan nu het probleem en de vraag.
Er zit maar 1 sata poort in deze machine en ik wil er toch software raid (raid 1) op gaan doen wat het OS mij bied. Ik heb 2 1 tb schijven liggen die ik voor dit project kan gebruiken.
Een pci en een pci x16 poort zijn vrij dus er is ruimte voor een sata controller kaartje. Of een volwaardige raid controller.
Mijn voorkeur gaat uit naar een simpel sata kaartje vanwege de kosten en omdat ik nu toch eerst aan het klooien ben.
Als ik bijvoorbeeld zoek op dit kaartje, http://www.asrock.com/mb/spec/Card.asp?Model=SATA3%20Card, dan lees ik over problemen met deze Marvell chipset.
Mijn vraag is dan ook of iemand een kaartje weet die goed door Debian ondersteund wordt?
Verwijderd
Even niets...
Verwijderd
Silicon Image SiL-3124 is bijvoorbeeld een PCI-X controller, maar komt ook in PCI-express x4 versie, door middel van een PCI-X -> PCI-e bridge. Helaas geen nieuwe 'native' PCI-express controller van Silicon Image. Jammer, want ze worden op zich goed ondersteund qua drivers onder FreeBSD en consorten. Als Silicon Image een mooie PCI-express 2.0 x4 controller (2GB/s) met 8 x SATA/600 poorten, zou dat een heel stoere controller zijn voor DIY NAS.
[root@NAS ~]# iperf -s ------------------------------------------------------------ Server listening on TCP port 5001 TCP window size: 85.3 KByte (default) ------------------------------------------------------------ [ 4] local 192.168.1.3 port 5001 connected with 192.168.1.149 port 46148 [ ID] Interval Transfer Bandwidth [ 4] 0.0-10.0 sec 16.8 GBytes 14.5 Gbits/sec
@KVM
VM <-> Host
* FireDrunk vind dit wel grappig
Even niets...
Verwijderd
NetMap is a framework for high-performance direct-to-hardware packet IO, offering low latency and high PPS rates to userland applications while bypassing any kernel-side packet processing. With NetMap, it is trivially possible to fully saturate a 10 Gbps network interface with minimal packet sizes.
With netmap, it takes as little as 60-65 clock cycles to move one packet between the user program and the wire. As an example, a single core running at 900 MHz can generate the 14.8 Mpps that saturate a 10 GigE interface. This is a 10-20x improvement over the use of a standard device driver.
Met andere woorden, FreeBSD + Intel 10Gbps ethernet (Intel X540) zou extreem goede performance moeten bieden op mainstream systemen. In jouw geval, FireDrunk, vindt er emulatie plaats waarbij je CPU dus op 14Gbps bottleneckt, zonder de extra overhead die een echt programma zou genereren zowel op netwerk-niveau als qua CPU-load.Netmap support is available at the moment for Intel 10G and 1G
cards (ixgbe, em/lem/igb), and for the Realtek 1G card ("re").
Bronnen:
http://info.iet.unipi.it/~luigi/netmap/
http://svnweb.freebsd.org...=revision&revision=227614
Even niets...
MMM, hopelijk gaan ze ook an de IB ondersteuning sleutelen.Verwijderd schreef op woensdag 21 maart 2012 @ 19:57:
Dit klinkt ook wel interessant voor FreeBSD 10:
[...]
[...]
[...]
Met andere woorden, FreeBSD + Intel 10Gbps ethernet (Intel X540) zou extreem goede performance moeten bieden op mainstream systemen. In jouw geval, FireDrunk, vindt er emulatie plaats waarbij je CPU dus op 14Gbps bottleneckt, zonder de extra overhead die een echt programma zou genereren zowel op netwerk-niveau als qua CPU-load.
Bronnen:
http://info.iet.unipi.it/~luigi/netmap/
http://svnweb.freebsd.org...=revision&revision=227614
Zojuist in de OpenIndiana speeltuin bezig geweest met een RAMdisk als SRP target.
Als referentie een linux RAMdisk SRP target.
Crystal Disk Mark:

Atto DiskBench:

En hetzelfde op de OI bak.
Crystal Disk Mark:

Atto DiskBench:

De hardware gebruikt voor Linux (en ook de FreeBSD test bak) en OpenIndiana is dezelfde, enkel de IB HCA is verschillend (mhea28-xtc vs mhea28-2tc).
Lijkt dus alsof write onder OI om de een of andere reden tegen een 500 MB/sec plafond aanloopt.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
[root@VIRTIOTEST ~]# iperf -c 192.168.1.3 ------------------------------------------------------------ Client connecting to 192.168.1.3, TCP port 5001 TCP window size: 32.8 KByte (default) ------------------------------------------------------------ [ 3] local 192.168.1.103 port 36385 connected with 192.168.1.3 port 5001 [ ID] Interval Transfer Bandwidth [ 3] 0.0-10.0 sec 10.6 GBytes 9.07 Gbits/sec
Fijn drivertje
Zo is ZFS virtueel draaien toch nog een optie!
Even niets...
Waarom niet gewoon twee kabels met een Rj-45 koppelstukje?dylan0806 schreef op donderdag 22 maart 2012 @ 00:33:
offtopic: weet iemand waar je zo'n kabel kan halen?
[afbeelding]
Kun je zelfs bij de praxis/gamma kopen?
Dank voor je reactie.Verwijderd schreef op woensdag 21 maart 2012 @ 17:32:
Geen Marvell controller kopen. Een IBM M1015 voor 8 HDDs is wellicht je beste keuze, maar wil je iets goedkoops kun je ook een PCI-express 1.0 x1 Silicon Image SiI-3132 kaartje kopen met 2 SATA poorten voor een tientje ofzo. Deze chip werkt wel goed, maar deelt 133MB/s (PCI) bandbreedte met 2 poorten. De host-interface is PCI-express 1.0 x1.
Heb op marktplaats een verkoper gevonden voor 21 euro voor de kaart met de PCI-express 1.0 x1 Silicon Image SiI-3132 kaart.
De IBM is een stuk duurder op Ebay :-)
Verwijderd
Heb van medetweaker een supermicro sat2-mv8 overgenomen. Moet 8 sata schijven aankunnen en ondersteund volgens internet ook 3tb discs.
Probleem is dat win serv 2008 r2 deze kaart niet herkent en er geen driver voor is uitgebracht (kaart waarschijnlijk te oud). Ik wil echter toch deze kaart gebruiken. Want erg goedkoop en snelheid mis ik niet (servert wat films en muziek).
a) iemand deze kaart werkend, of tips?
b) ik kan wel een driver vinden, maar windows vindt hem niet, waarschijnlijk unsigned. Is er een mogelijkheid om in win server 2008 r2 unsigned drivers te installen?
And now the most interresting part of deze grot
Even niets...
Heb ook zitten kijken naar Server 8 met Storage Spaces, opzich een prima oplossing maar hoorde helaas wat negatieve verhalen over de schrijfsnelheid, die zou met 10MB/s net wat te mager zijn gezien dat dan mijn internet snelheid niet eens bij kan houden.
Wil wel bij Windows blijven puur omdat ik dat gewend ben en een aantal Windows only programma's op die server draai. Heb nu 2x1,5TB in RAID1 en 4x1TB in RAID5 via software RAID van Windows 2008 R2. Dat werkt ook prima maar ik heb liever een grote enkele schijf waardoor ik niet telkens nieuwe arrays hoef te maken. Pff blijft lastig zo'n keuze, zeker omdat je niet snel kan wisselen als je eenmaal een keuze hebt gemaakt aangezien je zulke hoeveelheden data niet makkelijk ergens op slaat.
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Heb ooit ook even gespeeld met hun eigen RAID engine en kan je daar over vertellen dat het echt super easy is, je zegt gewoon welke schijven PPU (parity protection unit) zijn en daar schrijft FlexRAID zijn parity op weg en welke schijven je wilt beschermen, je kan zelf kiezen hoeveel PPU's je wilt. Als je bv 10 schijven hebt kan je 2 PPU's maken en de rest DRU's en dan kan je de DRU's(schijven waar gewone data op staat) als 1 harde schijf laten zien in Windows. Als je later besluit dat dit toch niet voor jou werkt, kan je gewoon de RAID engine uitschakelen en zijn de schijven gewoon benaderbaar.
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Ik weet ook niet hoe storage spaces precies werkt, maar volgens mij maak je een pool aan van zeg 40TB en dan doe je daar eerst voor 8TB aan schijven in en als die 8 "echte" TB opraakt dan stop je er weer nieuwe schijven bij tot je bij je grens van 40TB bent en dan moet je een nieuwe pool aanmaken.
Als wat ik hierboven heb gezegd klopt, dan is dus het grote voordeel van FlexRAID, dat je pool dynamisch schaalbaar is, je kan naar hartelust schijven toevoegen en verwijderen, zelfs als je hun RAID engine gebruikt.
Zo kan je dus ook extra PPU's toevoegen, dus extra veiligheid scheppen zonder dat je je pool opnieuw hoeft aantemaken.
[ Voor 34% gewijzigd door Tsurany op 24-03-2012 23:14 ]
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
De maker van FlexRAID is trouwens ook bezig met een ander vergelijkbaar project, namelijk NZFS, een soort ZFS maar niet helemaal, misschien ook wel interessant om in de gaten te houden link
Verder, aangezien het nu betaald is kan je ook goede support verwachten van de maker, wat hij ook daadwerkelijk levert.
[ Voor 6% gewijzigd door Dazzleware op 24-03-2012 23:22 . Reden: link toegevoegd ]
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
de case wordt een norco 4224(staat niet in de PW)
OS wordt denk freenas met zfs raid-z2 en sabnzbd en couchpotato en sickbeard
mischien komt er over een tijdje nog een glasvezelkaartje bij en/of een infiniband kaartje.
nu aan jullie de vraag mis ik iets?
| # | Product | Prijs | Subtotaal |
| 2 | Intel Xeon E5506 | € 197,31 | € 394,62 |
| 4 | Hitachi Deskstar 5K3000, 3TB | € 158,07 | € 632,28 |
| 2 | Scythe Big Shuriken 2 Rev. B | € 32,75 | € 65,50 |
| 3 | Scythe Slip Stream SY1225SL12H, 120mm | € 6,70 | € 20,10 |
| 1 | Corsair AX1200 | € 239,90 | € 239,90 |
| 6 | Kingston ValueRAM KVR1333D3LD4R9S/8GEC | € 61,75 | € 370,50 |
| 1 | Supermicro X8DTH-6 | € 499,- | € 499,- |
| Bekijk collectie Importeer producten | Totaal | € 2.221,90 | |
Sowieso is je voeding zware overkill; mocht je 24 3TB schijven hebben dan gok ik dat je spin-up net over de 800 watt is. Nu we toch over overkill hebben; wat wil je met dat systeem? Gaat je systeem alleen maar data downloaden en serveren? Pure overkill.
Dat Supermicro moederbord heeft 6 sata en 8 sas aansluitingen. Waarom zou je dan kijken naar een HBA?
[ Voor 12% gewijzigd door GioStyle op 25-03-2012 23:41 ]
ik heb vooral die voeding gekozen omdat tijdens een spin-up het aardig kan oplopen.GioStyle schreef op zondag 25 maart 2012 @ 23:37:
Je praat over single core en dual core systeem; maar je bedoelt single socket en dual socket systeem.
Sowieso is je voeding zware overkill; mocht je 24 3TB schijven hebben dan gok ik dat je spin-up net over de 800 watt is. Nu we toch over overkill hebben; wat wil je met dat systeem? Gaat je systeem alleen maar data downloaden en serveren? Pure overkill.
Dat Supermicro moederbord heeft 6 sata en 8 sas aansluitingen. Waarom zou je dan kijken naar een HBA?
de hba zou ben een single socket systeem zijn want die hebben geen onboard lsi chips
het geen wat hij vooral moet gaan doen is
-series en film downloaden/repairen/extracten
-streamen naar een xbmc htpc en meerdere pc's
-ftp(s) voor back-ups
[ Voor 9% gewijzigd door dylan0806 op 26-03-2012 00:25 ]
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Dat is echt zwaar overkill, zelfs om Infiniband vol te stouwen heb je geen 2 QC's nodig.
1 Goede QC met een sloot geheugen is zat. Tsurany heeft wat dat betreft zeker gelijk.
Hoewel je voor een Single Socket Opteron zou kunnen gaan als je zuinig + veel geheugen wil.
Dan heb je ook bordjes met ingebouwd LSI chipje. Maar ik geloof dat we die discussie al eens gevoerd hebben.
Even niets...
Hij heeft door even terug te zoeken al +/- 8 suggesties gedaan voor verschillende setups met van 1500 - 2000 euro.FireDrunk schreef op maandag 26 maart 2012 @ 15:37: Maar ik geloof dat we die discussie al eens gevoerd hebben.
@Dylon:
De ene keer heb je een setup met een areca kaart van 1000 euro, dan weer 2 processoren, dan weer een veel te lompe voeding enz. Allemaal suggesties waaruit wel blijkt dat je onvoldoende besef hebt van waar je mee bezig bent. Mijn setup zou nu +/- 750 euro kosten. Dan gebruik ik wel 3 schijven in plaats van 4. Wat dus eerder is gezegd. Met 800 euro zou je makkelijk een mooie setup kunnen bouwen.
Ik zou gewoon eens heel hard nadenken over alle suggesties die hier de afgelopen weken zijn gedaan. Je goed inlezen in ZFS en de benodigdheden daarvoor. En dan gewoon nog één of twee opties voorleggen. Nu is het echt dweilen met de kraan open en lijkt het alsof er totaal geen schot zit in je besef wat een goed systeem is voor je doeleinden.
Mijn advies: limiteer jezelf op 1000 euro. Daar moet makkelijk een mooie ZFS NAS van te maken zijn, en zo dwing je jezelf om de adviezen die heel talloze malen zijn gegeven in overweging te nemen.
Met de andere 500 - 1000 euro die je vervolgens bespaart ga je eens lekker op vakantie.
Sinds de 2 dagen regel reageer ik hier niet meer
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
In die VM installeer je ZFSguru of FreeNAS o.i.d.
Daarnaast kan je gewoon VM's aanmaken met Gameserver OSen (Of dat nou W2k8R2 is of Ubuntu, maakt geen fluit uit.)
Gameservers draaien heerlijk op SSD's en als je ze een beetje geheugen geeft (minimaal 4GB per gameserver bijvoorbeeld) dan performt het vaak zeer goed.
Afhankelijk van de hoeveelheid gameservers die je voor ogen hebt, kan je dus denken aan:
1 * 8GB voor ZFS
2/3 * 4GB voor Gameservers. (veel meer moet je in een thuissituatie denk ik niet willen omtrent latency van een thuisverbinding enzo...)
Dan zit je dus aan 16 / 20 GB geheugen. Dat kan prima met een simpel single socket systeem (of dat nou een Xeon of een Opteron is, maakt geen fluit uit.) Daarop prik je 64GB geheugen, en je kan járen vooruit.
Even niets...
Ssd met vm (esxi bijvoorbeeld) -> zfsguru (direct path it controller met ssd's)
l-> gameserver os
Maar hoe kunnen dan die gameservers hun data opslaan op die zfs pool?
[ Voor 17% gewijzigd door dylan0806 op 26-03-2012 18:46 ]
Heb je ook meteen minder gezeur met drivers en dan kan je kiezen voor directe device passthough, ongeacht watvoor device.
Dan kan je bijv. Windows 2008R2 in HVM modus draaien en FBSD/Linux als PV VM (nog peer performance en flexibiliteit), dan zou je zelfs je SSD in meerdere LV's kunnen opdelen (met LVM) en dan hebben alle onderdelen er profijt van.
Heb een tijdje terug wel een vSphere 5 servetje gemaakt van scrab spullen maar nooit egt verder mee gegaan.
Wat ik ook nog zat te denken een hele hoop ram geheugen erin gooien en een ram disk maken voor de gameservers.
KVM heb ik nu ook draaien, en dat werkt prima. Maar of LVM nou zo'n voordeel is. Ik heb liever ESX als het gaat om VMFS/Snapshots.
Even niets...
Was ook niet voor jou, Excuus voor de onduidelijkheidjohnkeates schreef op maandag 26 maart 2012 @ 19:09:
Waarom niet gewoon Xen, dan weet je zeker dat het werkt en qua performance hetzelfde als vmware's dingen.
Heb je ook meteen minder gezeur met drivers en dan kan je kiezen voor directe device passthough, ongeacht watvoor device.
Even niets...
Waarom zou het geen goede optie zijn? Ik gebruik dit standaard naar volle tevredenheid op machines zonder VT-d.FireDrunk schreef op dinsdag 27 maart 2012 @ 08:31:
Maar devices doorgeven zonder VT-d is nooit een goede optie, dus zeggen dat je elk device zomaar door kan geven is echt niet aan te raden.
KVM heb ik nu ook draaien, en dat werkt prima. Maar of LVM nou zo'n voordeel is. Ik heb liever ESX als het gaat om VMFS/Snapshots.
Even niets...
SSD's en ramdrives zijn overdreven voor de meeste gameservers. Ik weet niet wat voor spellen je wilt hosten maar net als bij gewoon gamen zijn ssd's daar niet meer dan een luxe voor snelle laadtijden. Als je het zou gebruiken als datastore, al dan wel of niet met zfs of een ander fs via een vm, dan valt het misschien nog goed te praten.dylan0806 schreef op maandag 26 maart 2012 @ 23:02:
Oke ik ben niet bekend met xen (eerlijk gezegd ook nog nooit van gehoord).
Heb een tijdje terug wel een vSphere 5 servetje gemaakt van scrab spullen maar nooit egt verder mee gegaan.
Wat ik ook nog zat te denken een hele hoop ram geheugen erin gooien en een ram disk maken voor de gameservers.
Ik zou dat wel eens willen weten wat jouw mening daarover is, want vooralsnog ben ik het tegendeel van mening. Het is een prima werkbare optie. Misschien niet de meest logische in een professionele omgeving, maar voor eigen gebruik prima.FireDrunk schreef op dinsdag 27 maart 2012 @ 15:10:
Dat is een heel lang verhaal maar als mensen dat boeiend vinden kan ik daar wel een post aan wijden.
Waarom? Dat komt door DMA. Een Virtual Machine (en dan heb ik het dus niet over paravirtualisatie, want dat is iets heel anders) krijg een vast setje geheugen. Daarin mag hij alles doen en laten wat hij wil.
Omdat het geheugen dat de VM gekregen heeft aan de binnenkant niet hetzelfde adres is als dat van de Host, moet er een vertaalslag gebeuren. Omdat deze vertaalslag normaal veel performance in gebruik neemt (omdat bij elke geheugenacces van een VM de Host op zijn beurt weer in zijn geheugen moest kijken waar dat geheugen écht staat) heeft men VT-x ontworpen (en AMD-V). Dit instructieset zorgt ervoor dat op het moment dat er vanuit een VM een memorycall gebeurt, de VM direct van de memorycontroller de data die hij nodig heeft terugkrijgt ipv dat de Host CPU op zijn beurt nog een paar calls moet doen.
Dat is overigens niet de enige functie van VT-x/AMD-V dat heeft namelijk nog veel meer functies.
Omdat devices in de VM's (net als fysieke machines dat krijgen) een IRQ toegewezenkrijgen, hebben zij ook last van dit probleem. Omdat een Device volgens het DMA principe zelf zijn data in het geheugen van de VM zou moeten schrijven, zouden er behoorlijk veel vreemde en onnodige CPU cycles verloren gaan om de data die van een device af komt op de goede plek te krijgen. Dit omdat het device niet direct in het geheugen van de Host mag schrijven.
Hiervoor is VT-d uitgevonden. Dit onderdeel zorgt ervoor dat een device *direct* in het geheugen van een VM mag schrijven. Vandaar ook dat je voor een VM die met VT-d een device doorkrijgt, altijd het volledige geheugen moet reserveren. In de CPU word namelijk een tabel bijgehouden welke devices in welk stuk geheugen mogen schrijven plús het stukje code (de IRQ routine) die uitgevoerd moet worden op het moment dat deze devices interrupts afschieten. Hierdoor kan een VM dus bijna direct bij je hardware, zonder tussen komst van je Host OS.
Ik hoop dat ik het een beetje duidelijk heb opgeschreven, want als ik het zelf teruglees is het nog steeds algebra
Even niets...
Voor huis tuin en keuken gebruik merk je hier echt niks van. In een professionele omgeving is het idd een extra mogelijke performance hick. Maar daar geef je vaak toch niet een local device (als in storage) door naar je guests, maar gebruik je iscsi/fc storage o.i.d.
Solaredge SE8K - 8830Wp - 15 x Jinko Solar N-type 420Wp - 2x Jinko Solar 405Wp - 4x Jinko Solar N-type 430 & Hoymiles HMS800 + 2x JASolar 375Wp
Het ging over devices. Ik vind een disk geen DeviceB2 schreef op dinsdag 27 maart 2012 @ 21:10:
Het klopt inderdaad wel wat je schrijft, maar het onderbouwd nog steeds niet waarom je niet bijvoorbeeld partities of een complete disk aan een vm zou kunnen toewijzen. Voor mijn eigen systeem gebruik ik het ook zo. Ik geef een RAID1 md0 direct door naar een vm die oa iscsi doet. En een complete partitie aan een vm die nfs doet.
Voor huis tuin en keuken gebruik merk je hier echt niks van. In een professionele omgeving is het idd een extra mogelijke performance hick. Maar daar geef je vaak toch niet een local device (als in storage) door naar je guests, maar gebruik je iscsi/fc storage o.i.d.
Dat klopt.Meauses schreef op dinsdag 27 maart 2012 @ 21:37:
Interessant verhaal Firedrunk! Bedoel je nu met geheugen reserveren dat je bijv. 4GB RAM moet reserven alleen voor die VM diemniet gedeeld kan worden of lees ik het verkeerd?
[ Voor 16% gewijzigd door FireDrunk op 27-03-2012 21:53 ]
Even niets...
Dat is dan een verschil in gebruikte terminologieFireDrunk schreef op dinsdag 27 maart 2012 @ 21:53:
[...]
Het ging over devices. Ik vind een disk geen Device
Hoewel het kan, vind ik het toch (nog) niet stabiel genoeg om te doen.
Daar vind ik KVM/QEMU nog te zwak voor. Ik had bijvoorbeeld dikke problemen om VM's op XFS te draaien. Dat moest onder EXT3/4 omdat raw/cow images niet goed werken op XFS.
En wat gebeurd er? IO Errors? nee hoor, gewoon een compleet hangende server.
Daarom doe ik liever VT-d
[ Voor 48% gewijzigd door FireDrunk op 27-03-2012 22:01 ]
Even niets...
Verwijderd
mocht je hierover denken gebruik dan XFS of ZFS (en bij die laatste kun je misschien beter ZFS de raid laten doen)
ik heb dus een systeem met een hele hoop 2TB schijven en ik heb het nu 2keer uitgebreid, de eerst keer van 9TB naar 11TB en nu dus naar boven de 16TB (schijven variëren expres tussen seagate, samsung en WD) en hopelijk falen er door een beetje spreiding in age ook minder schijven binnen kortte tijd van elkaar. ik draai inmiddels raid6 met een hot stand-by schijf.
In dat geval is het ook lastig beslissen wat te doen. RDM / Of blockdevice passthrough zoals Linux dat kent, is dan eigenlijk de enige oplossing._-= Erikje =-_ schreef op woensdag 28 maart 2012 @ 09:52:
Maar, met VT-d geef je de hele controller (en alles wat daaraan hangt) door aan het VM, niet de blockdevices, gezien er meer blockdevices aan die controller hangen dan mijn VM mag hebben
Even niets...
ik heb dit nu alvast bedacht:
| # | Product | Prijs | Subtotaal |
| 8 | Hitachi Deskstar 5K3000, 3TB | € 158,07 | € 1.264,56 |
| 8 | Kingston ValueRAM KVR1333D3LQ8R9S/8GEC | € 57,81 | € 462,48 |
| 1 | LSI SAS 9201-16i | € 378,77 | € 378,77 |
| 1 | Corsair HX850W | € 138,99 | € 138,99 |
| Bekijk collectie Importeer producten | Totaal | € 2.244,80 | |
[ Voor 91% gewijzigd door dylan0806 op 28-03-2012 18:36 ]
Is dat eigenlijk goed gelukt om van raid5 naar raid6 te gaan in mdadm zonder data verlies?Verwijderd schreef op woensdag 28 maart 2012 @ 09:59:
ik heb een tijdje terug voor linux met sw raid (mdadm) en daarop EXT4 gekozen, maar ik wil even waarschuwen dat een EXT4 boven de 16TB nog maar twijfelachtig/niet ondersteund is.
mocht je hierover denken gebruik dan XFS of ZFS (en bij die laatste kun je misschien beter ZFS de raid laten doen)
ik heb dus een systeem met een hele hoop 2TB schijven en ik heb het nu 2keer uitgebreid, de eerst keer van 9TB naar 11TB en nu dus naar boven de 16TB (schijven variëren expres tussen seagate, samsung en WD) en hopelijk falen er door een beetje spreiding in age ook minder schijven binnen kortte tijd van elkaar. ik draai inmiddels raid6 met een hot stand-by schijf.
Eerste keer dat ik dit lees, eerste plan was 10TB.
Raar zie:
http://blog.ronnyegner-co...e-16-tb-limit-now-solved/
Ooit komt er een keer ZFS.
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
| # | Product | Prijs | Subtotaal |
| 4 | Samsung EcoGreen F4EG HD204UI, 2TB | € 121,90 | € 487,60 |
| 1 | Fractal Design Define R3 (Zwart) | € 98,70 | € 98,70 |
| 1 | AMD Athlon II X2 250 Boxed | € 56,- | € 56,- |
| 1 | be quiet! Pure Power L7 300W | € 35,- | € 35,- |
| 1 | MSI 880GM-E41 | € 63,55 | € 63,55 |
| Bekijk collectie Importeer producten | Totaal | € 740,85 | |
PS: geheugen kon ik niet zo snel vinden via de pricewatch. Dit is 2GB voldoende voor mij want hij serveert alleen maar files via smbd(Samba) en FTP.
Zoals jullie weten is de huidige hardeschijf prijs nog redelijk hoog. Ik maak gebruik van Ubuntu i.c.m mdadm om een software raid te maken(RAID5). Nu zit er in mijn desktop nog 2x pricewatch: Samsung Spinpoint F3 HD203WI, 2TB
Mijn vraag is; Kan ik deze schijven aan mijn raid array toevoegen? omdat het een ouder model betreft zat ik een beetje te twijfelen (meer of ze wel de zelfde grote hebben) en op internet kan ik geen duidelijk antwoord vinden of deze schijven in een raid5 array samen gaan. Wellicht heeft één van jullie ervaring met beide schijven in een raid array?
Ik ben juist van plan om veel verschillende HD's te gebruiken in mijn raid array om zo de kans dat ze achter elkaar kapot gaan zo klein mogelijk te houden. Uiteraard zoek ik wel 4x een HD met dezelfde snelheden.
Categorie WD20EARS, F4EG, Baraccuda.
Zolang ze EXACT dezelfde grootte hebben, wel ja. Als je oorspronkelijke schijven net een paar bytes meer op kunnen slaan, gaat dat niet meer. Als de nieuwe schijven een paar bytes groter zijn, maakt dat niets uit, dan worden die paar bytes gewoon niet gebruikt.Neopatch schreef op donderdag 29 maart 2012 @ 14:30:
Ik heb een vraag. Thuis heb ik het volgende systeem draaien voor dataopslag:
# Product Prijs Subtotaal 4 Samsung EcoGreen F4EG HD204UI, 2TB € 121,90 € 487,60 1 Fractal Design Define R3 (Zwart) € 98,70 € 98,70 1 AMD Athlon II X2 250 Boxed € 56,- € 56,- 1 be quiet! Pure Power L7 300W € 35,- € 35,- 1 MSI 880GM-E41 € 63,55 € 63,55 Bekijk collectie
Importeer productenTotaal € 740,85
PS: geheugen kon ik niet zo snel vinden via de pricewatch. Dit is 2GB voldoende voor mij want hij serveert alleen maar files via smbd(Samba) en FTP.
Zoals jullie weten is de huidige hardeschijf prijs nog redelijk hoog. Ik maak gebruik van Ubuntu i.c.m mdadm om een software raid te maken(RAID5). Nu zit er in mijn desktop nog 2x pricewatch: Samsung Spinpoint F3 HD203WI, 2TB
Mijn vraag is; Kan ik deze schijven aan mijn raid array toevoegen? omdat het een ouder model betreft zat ik een beetje te twijfelen (meer of ze wel de zelfde grote hebben) en op internet kan ik geen duidelijk antwoord vinden of deze schijven in een raid5 array samen gaan. Wellicht heeft één van jullie ervaring met beide schijven in een raid array?
Ik zou trouwens van RAID 5 naar 6 gaan in mdadm, om te voorkomen dat er, wanneer er één schijf stuk gaat en de anderen druk staan te seeken (rebuilden), de andere die exact net zo oud is ook stuk gaat. Die kans is uiteraard kleiner met RAID6
Downgrade hij die andere schijven niet als je er een kleinere schijf toevoegt? Gezien hij de array opnieuw moet rebuilden. Voor paar 100 GB verschil, vraag ik me af of dat werkt. Maar paar bytes minder, zou theoretisch toch wel moeten lukken?marcop23 schreef op donderdag 29 maart 2012 @ 15:13:
[...]
Zolang ze EXACT dezelfde grootte hebben, wel ja. Als je oorspronkelijke schijven net een paar bytes meer op kunnen slaan, gaat dat niet meer. Als de nieuwe schijven een paar bytes groter zijn, maakt dat niets uit, dan worden die paar bytes gewoon niet gebruikt.
Ik zou trouwens van RAID 5 naar 6 gaan in mdadm, om te voorkomen dat er, wanneer er één schijf stuk gaat en de anderen druk staan te seeken (rebuilden), de andere die exact net zo oud is ook stuk gaat. Die kans is uiteraard kleiner met RAID6
Ik wist inderdaad dat ze exact de zelfde grote moesten hebben. Maar weet je toevallig hoe ik daar het beste achter kan komen ? Moet ik kijken naar de grote zodra hij geformatteerd is of de raw grote zeg maar? van beide schijven ?marcop23 schreef op donderdag 29 maart 2012 @ 15:13:
[...]
Zolang ze EXACT dezelfde grootte hebben, wel ja. Als je oorspronkelijke schijven net een paar bytes meer op kunnen slaan, gaat dat niet meer. Als de nieuwe schijven een paar bytes groter zijn, maakt dat niets uit, dan worden die paar bytes gewoon niet gebruikt.
Ik zou trouwens van RAID 5 naar 6 gaan in mdadm, om te voorkomen dat er, wanneer er één schijf stuk gaat en de anderen druk staan te seeken (rebuilden), de andere die exact net zo oud is ook stuk gaat. Die kans is uiteraard kleiner met RAID6
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Dus ik kan ervan uitgaan dat pricewatch: Samsung EcoGreen F4EG HD204UI, 2TB en pricewatch: Samsung Spinpoint F3 HD203WI, 2TB samen in één array passen ?HarmoniousVibe schreef op donderdag 29 maart 2012 @ 17:34:
Tegenwoordig is dat min of meer gestandaardiseerd.
Kan me niet voorstellen dat dat problemen oplevert, maar je kunt het altijd checken metNeopatch schreef op donderdag 29 maart 2012 @ 17:42:
[...]
Dus ik kan ervan uitgaan dat pricewatch: Samsung EcoGreen F4EG HD204UI, 2TB en pricewatch: Samsung Spinpoint F3 HD203WI, 2TB samen in één array passen ?
fdisk -l /dev/sd? 2> /dev/null | grep 2000
Als het goed is, zijn het exact 2000398934016 bytes. Zoek maar eens op dat getal + F3 of F4.
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Heb het inderdaad gevonden en die grote klopt inderdaad dat is identiek. Dat zou inderdaad betekenen dat ze samen in één raid array passen. Bedankt!HarmoniousVibe schreef op donderdag 29 maart 2012 @ 17:58:
[...]
Kan me niet voorstellen dat dat problemen oplevert, maar je kunt het altijd checken met
fdisk -l /dev/sd? 2> /dev/null | grep 2000
Als het goed is, zijn het exact 2000398934016 bytes. Zoek maar eens op dat getal + F3 of F4.
Wat ga je doen met die bak? Als je geen High Availability setup bouwt waar een tiental VMs hun data opslaan via iSCSI o.i.d. dan denk ik niet dat je écht een Xeon CPU nodig gaat hebben
"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!
Ik ga een 24x 3tb schijven in raid-z2 draaien (op den duur) op een vm (moet nog kijken welk os) met een Windows 2k8 r2. Ik wil vooral ook een xeon ivm vt-d en registered ecc ram.webfreakz.nl schreef op vrijdag 30 maart 2012 @ 10:40:
dylan0806:
Wat ga je doen met die bak? Als je geen High Availability setup bouwt waar een tiental VMs hun data opslaan via iSCSI o.i.d. dan denk ik niet dat je écht een Xeon CPU nodig gaat hebben
[ Voor 6% gewijzigd door dylan0806 op 30-03-2012 14:57 ]
Verwijderd
Maar 24 schijven in één RAID-Z2 of meerdere RAID-Z2? Doorgaans stop je niet meer dan 10 devices in een enkele vdev, en dat is al aardig veel. Tenzij je groepjes van 6 maakt kom je ook niet uit op een optimale configuratie voor 4K schijven.
Verder wil je Windows als host OS draaien en alle storage virtualizen? Hoe zie je dat precies voor je?
[ Voor 11% gewijzigd door Verwijderd op 30-03-2012 16:08 ]
Heeft vt-d niet ook te maken met het kunnen draaien van virtuele x64 os'en? Dat wordt namelijk gewoon ondersteund op mijn 2500K.Verwijderd schreef op vrijdag 30 maart 2012 @ 16:08:
Normale CPUs (2500T) hebben ook vt-d. Alleen de K versies hebben dat niet; zoals 2500K en 2600K. Wel jammer overigens.
Maar 24 schijven in één RAID-Z2 of meerdere RAID-Z2? Doorgaans stop je niet meer dan 10 devices in een enkele vdev, en dat is al aardig veel. Tenzij je groepjes van 6 maakt kom je ook niet uit op een optimale configuratie voor 4K schijven.
Verder wil je Windows als host OS draaien en alle storage virtualizen? Hoe zie je dat precies voor je?
Sinds de 2 dagen regel reageer ik hier niet meer
En wat gaat die Win2k8 doen? Fileserver spelen voor de PCs in jouw huis? Inclusief mail en een AD? En je gaat er gedownloade films opslaan maar je bouwt een RAIDZ2 omdat je het zonde vind als je ooit weer al die films moet herdownloaden als je array verneukt is?dylan0806 schreef op vrijdag 30 maart 2012 @ 14:53:
[...]
Ik ga een 24x 3tb schijven in raid-z2 draaien (op den duur) op een vm (moet nog kijken welk os) met een Windows 2k8 r2. Ik wil vooral ook een xeon ivm vt-d en registered ecc ram.
Guess what, een Core i3 moet meer dan genoeg voor je zijn al weet ik niet of die VT-d ondersteunt.
Geef eens echte info.
"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.