Het is misschien handig om dan eerst te kijken naar de infra en de eisen (in wat meer detail).
- Kan je in elke PC een dual port Intel gigabit kaart krijgen of twee enkelvoudige?
- Kan je tussen elke PC en de server twee ethernet verbindingen trekken? (cat5e minimaal)
- Hoeveel PCIe slots heeft je server?
- Hoeveel SATA en/of SAS aansluitingen heeft je server?
- Hoeveel bays voor 3.5" of 2.5" schijven heeft je server?
Als je snelheid in streamen en I/O wil halen moet je zo veel mogelijk losse schijven hebben, om dat de I/O zich praktisch vermenigvuldigt over het aantal schijven dat je hebt. Neem daar een flinke lading DDR3 RAM bij, en misschien een of twee SSD's om te cachen, en dan heb je een systeem dat je in staat stelt gelijktijdig op meerdere werkstations vlot te werken.
Voor software moet je kijken naar wat je nodig hebt. Gaan je werkstations allemaal dezelfde data gebruiken? Of gaan ze individueel met hun eigen stukjes aan de slag die niet gedeeld worden. In het laatste geval is iSCSI (AoE vergeten we even) een interessante optie. Daar kan je dan het beste een simpele LIO based appliance distro voor gebruiken.
Stel dat je niet shared storage maar filesharing nodig hebt, dan is waarschijnlijk SMB je eindstop. Als je SMB3 gebruikt heb je fatsoenlijke RDMA wat de boel flink versnelt ten opzichte van de oudere versies. ZFSGuru ondersteunt dat volgens mij out of the box. Dat is een BSD-based distributie die een soort van NAS-on-steroids van je server maakt. Dan kan je dus ZFS gebruiken, ZIL, L2ARC, SMB3, interface binding en bridging etc.
Als je niet genoeg SATA/SAS verbindingen hebt kan je daar een HBA of RAID kaart voor gebruiken (in IT mode). De IBM m1015 is een populaire kaart waar je 8 schijven mee kan aansturen. Als je nu nog een ouderwetse RAID kaart gebruikt kan je dus misschien naar IT mode flashen, maar zo niet, dan zijn een of meerdere m1015 kaartjes in IT mode in bijna alle gevallen een prima startpunt. IT mode zorgt er voor dat de kaart stopt met nare RAID dingen doen en gewoon direct de schijven aan het OS doorgeeft (om het bot te zeggen). Dat is wat je wil voor ZFS, want dat regelt integriteit en failover zelf en heeft daar geen speciale hardware voor nodig.
Om het nog simpeler te maken:
- Verplaats dit topic naar opslagtechnologie, daar hoort het thuis (kan je niet zelf doen, vraag een moderator)
- CiPHER is de ZFS baas, die kan je vertellen dat dat je beste keuze is, en werkt ook nog eens aan ZFSGuru, hij zit in dat subforum
- Vertel ons de specificaties van je huidige server, dus moederbord + type, geheugen + type, toegevoegde kaarten enz. Op basis daar van kan makkelijker bepaald worden wat er moet gebeuren en wat het kan kosten.
Qua netwerk heb je als je dat nog niet hebt een fatsoenlijke router/gateway nodig. Wat je waarschijnlijk niet wil doen is drie netwerk interfaces en twee losse netwerken voor je internet en storage maken. Dan heb je dus een switch nodig die trunking doet, en bij voorkeur LACP ondersteunt. Dat heet in de meeste gevallen een managed switch

Daar voor is het volgende nodig:
- (Aantal PC's x 4 + 1x router + 1x AP (als je wifi wil)) = minimaal aantal poorten voor je switch.
Bij 6 PC's gaan er dus 14 poorten doorheen

Een 16-poorts managed gigabit switch is dan dus een goed begin. Als je weinig geld hebt is een tweedehands HP ProCurve een nette start
- Hoe veel bandbreedte heeft je netwerkverbinding, hoe snel moet je router dus kunnen. Als je 100/100 glasvezel neemt moet je dus consumenten hardware vergeten en richting het echt werk gaan. Ook daar is een weinig-geld-maar-wel-nodig oplossing voor: neem een voorgeconfigureerd pfSense systeempje, daar zitten vaak 4 interfaces op die ook nog VLANs ondersteunen, waardoor je in principe tot 2Gbit/s over meerdere zones kan firewallen.
https://www.pfsense.org/hardware/#pfsense-store voor een voorbeeld. Goedkoper: zet een BBG basis systeem van tweakers.net in elkaar, stop er twee intel NIC's in, en een USB stick, en je hebt een pfSense router die ook makkelijk 1Gbit/s doet en voor zowel beginners als geavanceerde gebruikers prima het werk gaat doen
Wat je qua aansluitingen in je netwerk dan hebt:
- Alle PC's met 2Gbit bonds naar de switch, dan kom je op een theoretische 200MB/s, in de praktijk minder, plus je gaat dat ook niet allemaal op kunnen maken aan data transfer, een netwerk is over het algemeen wel bezig met meerdere dingen
- Op de PC's en de managed switch de poorten dus aan elkaar knopen zodat het ook daadwerkelijk werkt
- Afhankelijk van hoeveel bandbreedte je wil hebben van je PC's naar je server als ze tegelijkertijd moeten werken (de PC's), ga je dat dus meervoudig aan de serverkant doen. Dus stel dat je maximaal 4PC's tegelijk hun links vol wil laten trekken, dan ga je 8 verbindingen tussen je server en je switch leggen, zodat je een bond hebt van 4Gbit/s. Linux/Unix kan dat zonder probleem, afhankelijk van je switch zitten er soms wel beperkingen aan het aantal links dat je kan bonden, dat is dus iets om even op te zoeken voor dat je een switch aanschaft.
Op die manier is in elk geval je netwerk klaar
Wat storage betreft ben je eigenlijk een NAS aan het bouwen, maar dan kingsize. Een compleet nieuwe build gaat het meeste opleveren, maar adapteren wat je al hebt gaat ook ruimschoots performance leveren zolang je niet een of andere nare hardware RAID of windows setup gebruikt
Oh, en als we dan die extra informatie hebben, dan is het ook handig als je een budget bedenkt, dan kan er een boodschappenlijstje en een todo lijstje en een plan voor opschaling in de toekomst komen.