Check alle échte Black Friday-deals Ook zo moe van nepaanbiedingen? Wij laten alleen échte deals zien

  • dubbi3
  • Registratie: Juli 2009
  • Laatst online: 25-11 20:39
Hi Tweakers,

Ik heb 4 werkplekken waar de gehele adobe suit op draait en er wordt gewerkt met R3D Dragon materiaal (Average Data Rate: 88 MB/sec). Op dit moment heb ik een ClearOS server draaien met 6 netwerkkaarten waarvan 2 onboard en de rest dual Intels. Waarom? Omdat dan iedere pc een directe gbit verbinding met de server had :)

Nu is de situatie als volgt omdat we gaan verhuizen:
1. Er is een glasvezel modem
2. Er is een centrale serverruimte met patchkast waar onze server geplaatst mag worden
3. We hebben circa 8 x 2TB archiefschijven waar we ten alle tijde bij moeten kunnen zonder telkens in de serverruimte te komen
4. Iedere pc moet voldoende bandbreedte hebben om tegelijkertijd circa 100 MB/s te streamen
5. De server is een i7 950 met RAID array in raid 0 (4x2TB) voor de snelheid
6. De server draait linux maar voorkeur voor een GUI omdat er ook mensen mee moeten werken die geen commandline commando's kunnen uitvoeren. De overige werkplekken draaien OS X Yosemite.

We hebben geen glasvezel verbindingen en alles is nog gigabit gebaseerd.

Ik heb geen idee wat de mogelijkheden zijn om relatief goedkoop een soortgelijk systeem te bouwen met de hedendaagse technieken! Heeft iemand tips en/of suggesties?

Alles is welkom en alvast bedankt!

  • ShadowAS1
  • Registratie: September 2010
  • Laatst online: 27-11 12:16

ShadowAS1

IT Security Nerd

Hi,
Ik denk dat je met koper nog goed zit hoor, glasvezel is ook gigabit, of je moet gaan willen investeren in 10Gbit, en dat kan stiekem best prijzig worden.

Tevens een opmerking:
Je zet 4x2 TB in RAID0, je realiseert je wel dat als er 1 van die schijven faalt je ALLES kwijt bent eh? Ik zou je aanraden ze in RAID5 te zetten, dat is snelheid én backup.

Maar ik kan me hier verschillende dingen bedenken, maar daar heb ik toch echt meer info van jou voor nodig:

Hoeveel fysieke kabels kunnen er van jullie werkruimte naar de serverkast?
Als je het goedkoop wilt houden en het mogelijk is zou ik gewoon die 4 ethernet kabels naar de serverkast trekken, indien dit niet mogelijk is zou ik gaan denken aan een switch met 10GBase-T ethernet. Dit hoeft niet heel duur te zijn,
Een GBit switch met een 10Gbit uplink voldoet al (dan moet je uiteraard ook een 10Gbit NIC voor je server hebben ;) )

PA-ACE / RHCE / SCE // Any post or advice is provided as is, and comes with no warranty at all.


  • DJSmiley
  • Registratie: Mei 2000
  • Laatst online: 13-11 18:21
De link naar je server naar 10Gbit brengen is een goed idee. Dat hoeft nieteens zoveel meer te kosten. De clients kunnen gewoon op 1Gbit blijven.

Een switch met 24x 1Gbit en 10Gbit uplink kost je <1000 eur. Een beetje recenter servermoederbord heeft al 10Gbase-T onboard. En anders kun je ook nog met SFP+ werken icm een koperkabelsetje (Direct-Attached) of een setje multimode glasvezels. Ook dat zijn de kosten niet.

In alle gevallen zal je bottleneck (en grootste) kostenpost je I/O zijn. Met een paar disk in raid0 haal je die 1Gbit prima, maar dat stort compleet in als er meerdere mensen tegelijk files opvragen.
Als iedereen op een 'eigen' diskje werkt is dat prima te doen, maar als men random files op wil vragen en die hoge througput moet halen kom je op een heel andere setup terecht.

Dat die server een i7 is maakt niet uit, bij wijze van kan een Celeron dat nog prima. Bottleneck is je raidcontroller en vooral disks. Als het veel dezelfde files zijn die geraadpleegd worden en het archief incidenteel zou je eens kunnen kijken naar een ZFS-based oplossing icm SAS schijven voor de bulkopslag. 1 of 2Tb aan SSD erin, en de rest op normale schijven.
Dan haal je de throughput op je meest gangbare files, en de enkele keer dat je archiefdingen benaderd kun je wel met 'slome' disks overweg (dat gebruikt toch niet iedereen tegelijk)

Los daarvan: Hoe backup je het spul?

[ Voor 24% gewijzigd door DJSmiley op 05-01-2015 18:00 ]


  • dubbi3
  • Registratie: Juli 2009
  • Laatst online: 25-11 20:39
DJSmiley schreef op maandag 05 januari 2015 @ 17:57:
De link naar je server naar 10Gbit brengen is een goed idee. Dat hoeft nieteens zoveel meer te kosten. De clients kunnen gewoon op 1Gbit blijven.

Een switch met 24x 1Gbit en 10Gbit uplink kost je <1000 eur. Een beetje recenter servermoederbord heeft al 10Gbase-T onboard. En anders kun je ook nog met SFP+ werken icm een koperkabelsetje (Direct-Attached) of een setje multimode glasvezels. Ook dat zijn de kosten niet.

In alle gevallen zal je bottleneck (en grootste) kostenpost je I/O zijn. Met een paar disk in raid0 haal je die 1Gbit prima, maar dat stort compleet in als er meerdere mensen tegelijk files opvragen.
Als iedereen op een 'eigen' diskje werkt is dat prima te doen, maar als men random files op wil vragen en die hoge througput moet halen kom je op een heel andere setup terecht.

Dat die server een i7 is maakt niet uit, bij wijze van kan een Celeron dat nog prima. Bottleneck is je raidcontroller en vooral disks. Als het veel dezelfde files zijn die geraadpleegd worden en het archief incidenteel zou je eens kunnen kijken naar een ZFS-based oplossing icm SAS schijven voor de bulkopslag. 1 of 2Tb aan SSD erin, en de rest op normale schijven.
Dan haal je de throughput op je meest gangbare files, en de enkele keer dat je archiefdingen benaderd kun je wel met 'slome' disks overweg (dat gebruikt toch niet iedereen tegelijk)

Los daarvan: Hoe backup je het spul?
Thanks! Die switch met 10Gbit uplink i.c.m. 10 Gbit NIC in de server lijkt me inderdaad een goede oplossing!
Daarnaast: Qua I/O is het nu inderdaad te doen, heb nog geen last gehad als we alle 3 tegelijk monteren vanaf dezelfde share. Echter als ik een RAID controller met goede support en ondersteuning voor 8 disks wil, heb je dan suggesties?

Backup gebeurt nu handmatig via een workstation met OS X. Alle projecten van de active share die afgerond zijn worden op een archiefschijf geplaatst en deze archiefschijf wordt gebackupd naar een exacte kopie van de archiefschijf! Duidelijk haha O-)
ShadowAS1 schreef op maandag 05 januari 2015 @ 17:36:
Tevens een opmerking:
Je zet 4x2 TB in RAID0, je realiseert je wel dat als er 1 van die schijven faalt je ALLES kwijt bent eh? Ik zou je aanraden ze in RAID5 te zetten, dat is snelheid én backup.
Klopt! Ik realiseer me nu dat het niet optimaal is maar we backuppen erg gestructureerd zodat we maximaal 1 dag werk kwijt kunnen zijn. Echter neig ik naar een nieuwe situatie met een RAID card in RAID 5 setup o.i.d.

Ik zit zelf te denken aan aanschaf van:
- Nieuwe moederbord en CPU (incl. 10 Gbit NIC)
- Raid card
- Extra HDD's
- Gigabit switch met 10 Gbit uplink
- SSDs voor cache?

  • ShadowAS1
  • Registratie: September 2010
  • Laatst online: 27-11 12:16

ShadowAS1

IT Security Nerd

Ik kan die nieuwe RAID card zeker aanbevelen,
En wat gebruik je daarvoor, tsja, ik heb altijd Dell of HP servers gehad met hun RAID kaarten (Meestal rebranded LSI's)
Werkte prima naar mijn mening, en dan heb je gelijk SAS.
Maar om de kosten van een gehele nieuwe server uit te sparen zou je ook kunnen kijken naar bijv. een Synology Rackstation, deze hebben een goede reputatie én ondersteunen SAS schijven

PA-ACE / RHCE / SCE // Any post or advice is provided as is, and comes with no warranty at all.


  • Thralas
  • Registratie: December 2002
  • Laatst online: 02:01
ShadowAS1 schreef op maandag 05 januari 2015 @ 22:38:
Ik kan die nieuwe RAID card zeker aanbevelen,
Volgens mij is dat allemaal sterk afhankelijk van je use case. In veel gevallen werkt een md array prima.

Verder, wat wil je bereiken met die upgrade? 10 gigabit is leuk, maar niet noodzakelijk als het nu allemaal ook toereikend is?

En als er geen nieuw bordje met 10GE komt, dan past een Brocade 1020 mooi bij de i7 qua hobbygehalte. Uit dezelfde categorie zijn switches met SFP+ ook relatief goedkoop als het geen Cisco/Juniper hoeft te zijn (Mikrotik CRS226-24G-2S+RM, CCR1009-8G-1S-1S+).

  • johnkeates
  • Registratie: Februari 2008
  • Laatst online: 04-07 16:30
omdat er ook mensen mee moeten werken die geen commandline commando's kunnen uitvoeren
dit beperkt wel een beetje je opties. GUI's lopen eigenlijk in alle gevallen sterk achter op technologische mogelijkheden.

Kijk ook naar alternatieven als peer-to-peer miniGBIC kabels voor 10Gb/s kaarten, dan kan je door gewoon een serie 'betaalbare' PCIe kaartjes alle systemen voorzien van 10Gb/s links, zolang je er ook maar genoeg in je server stopt. Een 10Gbit switch helpt niet als je server 10Gbit trekt en je workstations bij elkaar 60Gbit.

Er zijn ook andere systemen zoals InfiniBand die misschien interessant zijn om te bekijken.

Afhankelijk van wat je qua filing systeem gebruikt kan het de moeite waard zijn om naar alternatieven te kijken. Gebruik je bijvoorbeeld nog SMB2.x? Kijk naar SMB3, dan krijg je RDMA (alleen op Windows 8+, OSX 10.10 en Samba4). Gebruik je AoE of iSCSI, kijk dan of je dat kan versnellen door nieuwere software te gebruiken zoals LIO in plaats van IETD. Dat kan zomaar een factor 10 schelen in snelheid.

Wat onderliggende systemen betreft: in plaats van een of andere RAID controller kan je ook genoeg HBA's nemen om je IO op te schalen (dus meer poorten, meer disks, meer PCIe bandbreedte) en desnoods te cachen met SSD's of DDR3 caches. Dit werkt het beste met ZFS, iets wat je waarschijnlijk al wel gebruikt als je snelle betrouwbare opslag nodig hebt.

Op het moment dat je met sub-30K hardware wil werken en toch schaalbare opslag met schaalbare performance wil hebben is ZFS eigenlijk de enige optie. Dat schaalt zowel verticaal als horizontaal.

Als je slechts aan je huidige eisen wil voldoen zijn 16 standaard rotationele HDD's, 32GB RAM en drie 4-poorts Intel netwerkkaarten met 6x2Gb trunks genoeg. De HDD's draaien in RAIDZ1 mode met ZFS maar hebben door het grote spreiden van I/O in de praktijk ongeveer 800MB/s zonder L2ARC of ZIL over een netwerk protocol als dat native met ZFS werkt, zoals SMB.

  • Powermage
  • Registratie: Juli 2001
  • Laatst online: 27-11 22:27
Voor 10GB switches kan je ook eens naar netgear kijken, je hebt niet heel veel 10gb poorten nodig (op t moment een stuk of 7 geloof ik?) dan ben je rond de 1300 ex btw al klaar (Netgear XS712T)

Join the club


  • sypie
  • Registratie: Oktober 2000
  • Niet online
ShadowAS1 schreef op maandag 05 januari 2015 @ 17:36:
Tevens een opmerking:
Je zet 4x2 TB in RAID0, je realiseert je wel dat als er 1 van die schijven faalt je ALLES kwijt bent eh? Ik zou je aanraden ze in RAID5 te zetten, dat is snelheid én backup.
Dat is wél snelheid maar géén backup! Wanneer leren mensen dat nou eens?

  • ShadowAS1
  • Registratie: September 2010
  • Laatst online: 27-11 12:16

ShadowAS1

IT Security Nerd

sypie schreef op dinsdag 06 januari 2015 @ 11:15:
[...]

Dat is wél snelheid maar géén backup! Wanneer leren mensen dat nou eens?
Ligt eraan hoe je het bekijkt eh, misschien is backup inderdaad het verkeerde woord, maar met RAID5 heb je wel 1 Failover disk. Dus als je n disk failed heb je je data nog.

PA-ACE / RHCE / SCE // Any post or advice is provided as is, and comes with no warranty at all.


  • sypie
  • Registratie: Oktober 2000
  • Niet online
Een redundant systeem is wat anders dan een backup.

Door stug vol te blijven houden dat RAID5 een vorm van backup is gaan mensen die dit thuis draaien ook zo zien. Gevolg: het gaat wél een keer fout met 2 schijven en dan heeft de gebruiker een groot probleem. Op het moment dat er een volledige en actuele backup is kan de boel ontploffen maar kun je zo je backup er bij halen, de boel overzetten naar een nieuw systeem en weer verder werken.

Wat mensen niet moeten doen, en dat zie ik ook nog wel eens gebeuren, is verder werken op het backup-systeem. Hier wordt dan "tijdelijk" even geen backup van gemaakt... met soms alle gevolgen van dien.

  • dubbi3
  • Registratie: Juli 2009
  • Laatst online: 25-11 20:39
johnkeates schreef op dinsdag 06 januari 2015 @ 00:05:
[...]
dit beperkt wel een beetje je opties. GUI's lopen eigenlijk in alle gevallen sterk achter op technologische mogelijkheden.

Kijk ook naar alternatieven als peer-to-peer miniGBIC kabels voor 10Gb/s kaarten, dan kan je door gewoon een serie 'betaalbare' PCIe kaartjes alle systemen voorzien van 10Gb/s links, zolang je er ook maar genoeg in je server stopt. Een 10Gbit switch helpt niet als je server 10Gbit trekt en je workstations bij elkaar 60Gbit.

Er zijn ook andere systemen zoals InfiniBand die misschien interessant zijn om te bekijken.

Afhankelijk van wat je qua filing systeem gebruikt kan het de moeite waard zijn om naar alternatieven te kijken. Gebruik je bijvoorbeeld nog SMB2.x? Kijk naar SMB3, dan krijg je RDMA (alleen op Windows 8+, OSX 10.10 en Samba4). Gebruik je AoE of iSCSI, kijk dan of je dat kan versnellen door nieuwere software te gebruiken zoals LIO in plaats van IETD. Dat kan zomaar een factor 10 schelen in snelheid.

Wat onderliggende systemen betreft: in plaats van een of andere RAID controller kan je ook genoeg HBA's nemen om je IO op te schalen (dus meer poorten, meer disks, meer PCIe bandbreedte) en desnoods te cachen met SSD's of DDR3 caches. Dit werkt het beste met ZFS, iets wat je waarschijnlijk al wel gebruikt als je snelle betrouwbare opslag nodig hebt.

Op het moment dat je met sub-30K hardware wil werken en toch schaalbare opslag met schaalbare performance wil hebben is ZFS eigenlijk de enige optie. Dat schaalt zowel verticaal als horizontaal.

Als je slechts aan je huidige eisen wil voldoen zijn 16 standaard rotationele HDD's, 32GB RAM en drie 4-poorts Intel netwerkkaarten met 6x2Gb trunks genoeg. De HDD's draaien in RAIDZ1 mode met ZFS maar hebben door het grote spreiden van I/O in de praktijk ongeveer 800MB/s zonder L2ARC of ZIL over een netwerk protocol als dat native met ZFS werkt, zoals SMB.
Johnkeates, bedankt voor alle suggesties! Ik zou je graag het volgende willen vragen:

Heb jij voor mij een pragmatisch stappenplan, met redelijk simpele taal over waar ik zou kunnen beginnen? De bovenstaande informatie gaat me boven de pet :9

Thnx!

  • johnkeates
  • Registratie: Februari 2008
  • Laatst online: 04-07 16:30
Het is misschien handig om dan eerst te kijken naar de infra en de eisen (in wat meer detail).

- Kan je in elke PC een dual port Intel gigabit kaart krijgen of twee enkelvoudige?
- Kan je tussen elke PC en de server twee ethernet verbindingen trekken? (cat5e minimaal)
- Hoeveel PCIe slots heeft je server?
- Hoeveel SATA en/of SAS aansluitingen heeft je server?
- Hoeveel bays voor 3.5" of 2.5" schijven heeft je server?

Als je snelheid in streamen en I/O wil halen moet je zo veel mogelijk losse schijven hebben, om dat de I/O zich praktisch vermenigvuldigt over het aantal schijven dat je hebt. Neem daar een flinke lading DDR3 RAM bij, en misschien een of twee SSD's om te cachen, en dan heb je een systeem dat je in staat stelt gelijktijdig op meerdere werkstations vlot te werken.

Voor software moet je kijken naar wat je nodig hebt. Gaan je werkstations allemaal dezelfde data gebruiken? Of gaan ze individueel met hun eigen stukjes aan de slag die niet gedeeld worden. In het laatste geval is iSCSI (AoE vergeten we even) een interessante optie. Daar kan je dan het beste een simpele LIO based appliance distro voor gebruiken.

Stel dat je niet shared storage maar filesharing nodig hebt, dan is waarschijnlijk SMB je eindstop. Als je SMB3 gebruikt heb je fatsoenlijke RDMA wat de boel flink versnelt ten opzichte van de oudere versies. ZFSGuru ondersteunt dat volgens mij out of the box. Dat is een BSD-based distributie die een soort van NAS-on-steroids van je server maakt. Dan kan je dus ZFS gebruiken, ZIL, L2ARC, SMB3, interface binding en bridging etc.

Als je niet genoeg SATA/SAS verbindingen hebt kan je daar een HBA of RAID kaart voor gebruiken (in IT mode). De IBM m1015 is een populaire kaart waar je 8 schijven mee kan aansturen. Als je nu nog een ouderwetse RAID kaart gebruikt kan je dus misschien naar IT mode flashen, maar zo niet, dan zijn een of meerdere m1015 kaartjes in IT mode in bijna alle gevallen een prima startpunt. IT mode zorgt er voor dat de kaart stopt met nare RAID dingen doen en gewoon direct de schijven aan het OS doorgeeft (om het bot te zeggen). Dat is wat je wil voor ZFS, want dat regelt integriteit en failover zelf en heeft daar geen speciale hardware voor nodig.

Om het nog simpeler te maken:

- Verplaats dit topic naar opslagtechnologie, daar hoort het thuis (kan je niet zelf doen, vraag een moderator)

- CiPHER is de ZFS baas, die kan je vertellen dat dat je beste keuze is, en werkt ook nog eens aan ZFSGuru, hij zit in dat subforum

- Vertel ons de specificaties van je huidige server, dus moederbord + type, geheugen + type, toegevoegde kaarten enz. Op basis daar van kan makkelijker bepaald worden wat er moet gebeuren en wat het kan kosten.

Qua netwerk heb je als je dat nog niet hebt een fatsoenlijke router/gateway nodig. Wat je waarschijnlijk niet wil doen is drie netwerk interfaces en twee losse netwerken voor je internet en storage maken. Dan heb je dus een switch nodig die trunking doet, en bij voorkeur LACP ondersteunt. Dat heet in de meeste gevallen een managed switch ;) Daar voor is het volgende nodig:

- (Aantal PC's x 4 + 1x router + 1x AP (als je wifi wil)) = minimaal aantal poorten voor je switch.
Bij 6 PC's gaan er dus 14 poorten doorheen ;) Een 16-poorts managed gigabit switch is dan dus een goed begin. Als je weinig geld hebt is een tweedehands HP ProCurve een nette start

- Hoe veel bandbreedte heeft je netwerkverbinding, hoe snel moet je router dus kunnen. Als je 100/100 glasvezel neemt moet je dus consumenten hardware vergeten en richting het echt werk gaan. Ook daar is een weinig-geld-maar-wel-nodig oplossing voor: neem een voorgeconfigureerd pfSense systeempje, daar zitten vaak 4 interfaces op die ook nog VLANs ondersteunen, waardoor je in principe tot 2Gbit/s over meerdere zones kan firewallen. https://www.pfsense.org/hardware/#pfsense-store voor een voorbeeld. Goedkoper: zet een BBG basis systeem van tweakers.net in elkaar, stop er twee intel NIC's in, en een USB stick, en je hebt een pfSense router die ook makkelijk 1Gbit/s doet en voor zowel beginners als geavanceerde gebruikers prima het werk gaat doen

Wat je qua aansluitingen in je netwerk dan hebt:

- Alle PC's met 2Gbit bonds naar de switch, dan kom je op een theoretische 200MB/s, in de praktijk minder, plus je gaat dat ook niet allemaal op kunnen maken aan data transfer, een netwerk is over het algemeen wel bezig met meerdere dingen

- Op de PC's en de managed switch de poorten dus aan elkaar knopen zodat het ook daadwerkelijk werkt

- Afhankelijk van hoeveel bandbreedte je wil hebben van je PC's naar je server als ze tegelijkertijd moeten werken (de PC's), ga je dat dus meervoudig aan de serverkant doen. Dus stel dat je maximaal 4PC's tegelijk hun links vol wil laten trekken, dan ga je 8 verbindingen tussen je server en je switch leggen, zodat je een bond hebt van 4Gbit/s. Linux/Unix kan dat zonder probleem, afhankelijk van je switch zitten er soms wel beperkingen aan het aantal links dat je kan bonden, dat is dus iets om even op te zoeken voor dat je een switch aanschaft.

Op die manier is in elk geval je netwerk klaar ;)

Wat storage betreft ben je eigenlijk een NAS aan het bouwen, maar dan kingsize. Een compleet nieuwe build gaat het meeste opleveren, maar adapteren wat je al hebt gaat ook ruimschoots performance leveren zolang je niet een of andere nare hardware RAID of windows setup gebruikt ;)

Oh, en als we dan die extra informatie hebben, dan is het ook handig als je een budget bedenkt, dan kan er een boodschappenlijstje en een todo lijstje en een plan voor opschaling in de toekomst komen.

  • dubbi3
  • Registratie: Juli 2009
  • Laatst online: 25-11 20:39
johnkeates schreef op dinsdag 06 januari 2015 @ 15:19:
Het is misschien handig om dan eerst te kijken naar de infra en de eisen (in wat meer detail).

- Kan je in elke PC een dual port Intel gigabit kaart krijgen of twee enkelvoudige?
- Kan je tussen elke PC en de server twee ethernet verbindingen trekken? (cat5e minimaal)
- Hoeveel PCIe slots heeft je server?
- Hoeveel SATA en/of SAS aansluitingen heeft je server?
- Hoeveel bays voor 3.5" of 2.5" schijven heeft je server?

Als je snelheid in streamen en I/O wil halen moet je zo veel mogelijk losse schijven hebben, om dat de I/O zich praktisch vermenigvuldigt over het aantal schijven dat je hebt. Neem daar een flinke lading DDR3 RAM bij, en misschien een of twee SSD's om te cachen, en dan heb je een systeem dat je in staat stelt gelijktijdig op meerdere werkstations vlot te werken.

Voor software moet je kijken naar wat je nodig hebt. Gaan je werkstations allemaal dezelfde data gebruiken? Of gaan ze individueel met hun eigen stukjes aan de slag die niet gedeeld worden. In het laatste geval is iSCSI (AoE vergeten we even) een interessante optie. Daar kan je dan het beste een simpele LIO based appliance distro voor gebruiken.

Stel dat je niet shared storage maar filesharing nodig hebt, dan is waarschijnlijk SMB je eindstop. Als je SMB3 gebruikt heb je fatsoenlijke RDMA wat de boel flink versnelt ten opzichte van de oudere versies. ZFSGuru ondersteunt dat volgens mij out of the box. Dat is een BSD-based distributie die een soort van NAS-on-steroids van je server maakt. Dan kan je dus ZFS gebruiken, ZIL, L2ARC, SMB3, interface binding en bridging etc.

Als je niet genoeg SATA/SAS verbindingen hebt kan je daar een HBA of RAID kaart voor gebruiken (in IT mode). De IBM m1015 is een populaire kaart waar je 8 schijven mee kan aansturen. Als je nu nog een ouderwetse RAID kaart gebruikt kan je dus misschien naar IT mode flashen, maar zo niet, dan zijn een of meerdere m1015 kaartjes in IT mode in bijna alle gevallen een prima startpunt. IT mode zorgt er voor dat de kaart stopt met nare RAID dingen doen en gewoon direct de schijven aan het OS doorgeeft (om het bot te zeggen). Dat is wat je wil voor ZFS, want dat regelt integriteit en failover zelf en heeft daar geen speciale hardware voor nodig.

Om het nog simpeler te maken:

- Verplaats dit topic naar opslagtechnologie, daar hoort het thuis (kan je niet zelf doen, vraag een moderator)

- CiPHER is de ZFS baas, die kan je vertellen dat dat je beste keuze is, en werkt ook nog eens aan ZFSGuru, hij zit in dat subforum

- Vertel ons de specificaties van je huidige server, dus moederbord + type, geheugen + type, toegevoegde kaarten enz. Op basis daar van kan makkelijker bepaald worden wat er moet gebeuren en wat het kan kosten.

Qua netwerk heb je als je dat nog niet hebt een fatsoenlijke router/gateway nodig. Wat je waarschijnlijk niet wil doen is drie netwerk interfaces en twee losse netwerken voor je internet en storage maken. Dan heb je dus een switch nodig die trunking doet, en bij voorkeur LACP ondersteunt. Dat heet in de meeste gevallen een managed switch ;) Daar voor is het volgende nodig:

- (Aantal PC's x 4 + 1x router + 1x AP (als je wifi wil)) = minimaal aantal poorten voor je switch.
Bij 6 PC's gaan er dus 14 poorten doorheen ;) Een 16-poorts managed gigabit switch is dan dus een goed begin. Als je weinig geld hebt is een tweedehands HP ProCurve een nette start

- Hoe veel bandbreedte heeft je netwerkverbinding, hoe snel moet je router dus kunnen. Als je 100/100 glasvezel neemt moet je dus consumenten hardware vergeten en richting het echt werk gaan. Ook daar is een weinig-geld-maar-wel-nodig oplossing voor: neem een voorgeconfigureerd pfSense systeempje, daar zitten vaak 4 interfaces op die ook nog VLANs ondersteunen, waardoor je in principe tot 2Gbit/s over meerdere zones kan firewallen. https://www.pfsense.org/hardware/#pfsense-store voor een voorbeeld. Goedkoper: zet een BBG basis systeem van tweakers.net in elkaar, stop er twee intel NIC's in, en een USB stick, en je hebt een pfSense router die ook makkelijk 1Gbit/s doet en voor zowel beginners als geavanceerde gebruikers prima het werk gaat doen

Wat je qua aansluitingen in je netwerk dan hebt:

- Alle PC's met 2Gbit bonds naar de switch, dan kom je op een theoretische 200MB/s, in de praktijk minder, plus je gaat dat ook niet allemaal op kunnen maken aan data transfer, een netwerk is over het algemeen wel bezig met meerdere dingen

- Op de PC's en de managed switch de poorten dus aan elkaar knopen zodat het ook daadwerkelijk werkt

- Afhankelijk van hoeveel bandbreedte je wil hebben van je PC's naar je server als ze tegelijkertijd moeten werken (de PC's), ga je dat dus meervoudig aan de serverkant doen. Dus stel dat je maximaal 4PC's tegelijk hun links vol wil laten trekken, dan ga je 8 verbindingen tussen je server en je switch leggen, zodat je een bond hebt van 4Gbit/s. Linux/Unix kan dat zonder probleem, afhankelijk van je switch zitten er soms wel beperkingen aan het aantal links dat je kan bonden, dat is dus iets om even op te zoeken voor dat je een switch aanschaft.

Op die manier is in elk geval je netwerk klaar ;)

Wat storage betreft ben je eigenlijk een NAS aan het bouwen, maar dan kingsize. Een compleet nieuwe build gaat het meeste opleveren, maar adapteren wat je al hebt gaat ook ruimschoots performance leveren zolang je niet een of andere nare hardware RAID of windows setup gebruikt ;)

Oh, en als we dan die extra informatie hebben, dan is het ook handig als je een budget bedenkt, dan kan er een boodschappenlijstje en een todo lijstje en een plan voor opschaling in de toekomst komen.
- Kan je in elke PC een dual port Intel gigabit kaart krijgen of twee enkelvoudige? Op dit moment zijn het allemaal MacPro's met dual NIC's met trunking optie
- Kan je tussen elke PC en de server twee ethernet verbindingen trekken? (cat5e minimaal) Kan wel, waarschijnlijk gewoon doorpatchen
- Hoeveel PCIe slots heeft je server? Server is oud, en een netwerkpoort is al uitgevallen (5/6 werken nog), dus moederbord en CPU zijn aan vervanging toe (circa 4,5 jaar oud)
- Hoeveel SATA en/of SAS aansluitingen heeft je server? SATA = 6
- Hoeveel bays voor 3.5" of 2.5" schijven heeft je server? Geen, alles is ingebouwd

Daarnaast bedankt voor deze info, echt super bruikbaar!
Mijn voorkeur gaat op dit moment uit naar
- Nieuwe serverkast met hotswap bays (in ieder geval bays die aan de voorkant zitten)
- Er zitten nu 6 x 2TB disks in van Seagate (ong. 3 jaar oud)
- Nieuw moederbord met cpu en ram
- 10 Gbit NIC
- 24 poort switch incl. 10Gbit uplink en mogelijkheid tot 1Gbit trunking
- Raid-controller en SSD voor cache

Qua configuratie:
- 1 projectdisk waar op gewerkt wordt (1 share die door iedereen wordt gebruikt met verschillende inlogcodes)

Het liefst dat het systeem zo stabiel mogelijk is met zo min mogelijk onderhoud haha!
Ik gebruik in mijn eigen server FreeNas met ZFS, dat was handig i.p.v. netatalk op linux.

De hoogste snelheid die gehaald moet worden binnen nu en 2 jaar is 141 MB/s van het R3D materiaal. Echter is dit op dit moment maximaal 88 MB/s.

  • johnkeates
  • Registratie: Februari 2008
  • Laatst online: 04-07 16:30
Waarom een 10Gbit NIC? Ze zijn duur, 10Gbit switches zijn duur, en je kan nooit hoger komen dan 10Gbit :p

Een PT-generatie Intel Quad Gigabit PCIe kaart kost ongeveer 50 euro, als je daar 3 van neemt heb je 12Gbit. Voor 150 euro. Dat is een tientje goedkoper dan de goedkoopste 10GbE kaart die ik zo snel kan vinden. Natuurlijk heb je dan wel dat je met 12 kabels zit, dat is minder leuk.

Stel dat je het geld er voor hebt, dan kan je met een p2p SFP+ kabel, een dual 10GbE kaart van eBay en een 2e hands switch met een 10GbE module voor 1500 euro je netwerkonderdelen qua switch en server link compleet hebben.

Wat de RAID controller betreft: die gaat niet sneller zijn en gaat ZFS in de weg staan. Neem een HBA, of gebruik on-board poorten, en laat alles op ZFS-niveau lopen, dus ook de SSD cache met L2ARC en ZIL.

ZFSGuru of een andere ZFS-NAS appliance distro gaat het meest onderhoudsvrij zijn. Firewall hem zo strak mogelijk en dan kan je zelfs met alleen security updates installeren verder een set-and-forget setup maken.

Als je een systeem wil hebben met (voldoende) hotswap bays, dan kom je vrij snel bij 19" rackmount systemen. Dan heb je nog de keuze tussen zelf hotswap bays in een tower proppen of kijken naar een manier op zo'n rackmount server goed op te hangen ;)

Ik zal de rest morgen (vandaag? :p ) nog even bekijken...

  • Clueless
  • Registratie: Juli 2001
  • Laatst online: 26-11 08:54
johnkeates schreef op woensdag 07 januari 2015 @ 05:13:
Waarom een 10Gbit NIC? Ze zijn duur, 10Gbit switches zijn duur, en je kan nooit hoger komen dan 10Gbit :p

Een PT-generatie Intel Quad Gigabit PCIe kaart kost ongeveer 50 euro, als je daar 3 van neemt heb je 12Gbit. Voor 150 euro. Dat is een tientje goedkoper dan de goedkoopste 10GbE kaart die ik zo snel kan vinden. Natuurlijk heb je dan wel dat je met 12 kabels zit, dat is minder leuk.
Het idee van 12 kabels bundelen is leuk maar aan zowel EtherChannel als LACP zit over het algemeen een max van 8 poorten per LAG. Dan heb je dus een maximale link van 8 Gbit en waar je dan nog wel rekening mee moet houden is dat je data-signaling nog steeds maar op 1 Gbit zit. Mijn persoonlijke voorkeur zou dan toch naar een redundant setje 10Gbit poorten gaan...

Qua storage zou je eventueel ook kunnen kijken naar Nexenta als storage platform; is ook ZFS gebaseerd maar dan wel professioneler dan dat ZFSGuru in mijn ogen is. Daarnaast kun je Nexenta ook professioneel afnemen (lees licensed dus met support). Overigens kan je vanaf elk moment overstappen van Community (gratis t/m 18TB raw capacity & unsupported) naar Enterprise (betaald & met support). Ook kun je het krijgen met supported configuraties van HP of Dell als je daar meer behoefte aan zou hebben,

Daarnaast is het wellicht mogelijk om toch ook nog eens naar Infiniband te kijken; Infiniband 4x SDR (10Gbit) kost geen fluit meer als je dat 2e hands koopt (tussen de 25 en 50 euro voor een kaartje en de switch kun je zo duur maken als je zelf wilt...).

I Don't Know, So Don't Shoot Me


  • dubbi3
  • Registratie: Juli 2009
  • Laatst online: 25-11 20:39
johnkeates schreef op woensdag 07 januari 2015 @ 05:13:
Waarom een 10Gbit NIC? Ze zijn duur, 10Gbit switches zijn duur, en je kan nooit hoger komen dan 10Gbit :p

Een PT-generatie Intel Quad Gigabit PCIe kaart kost ongeveer 50 euro, als je daar 3 van neemt heb je 12Gbit. Voor 150 euro. Dat is een tientje goedkoper dan de goedkoopste 10GbE kaart die ik zo snel kan vinden. Natuurlijk heb je dan wel dat je met 12 kabels zit, dat is minder leuk.

Stel dat je het geld er voor hebt, dan kan je met een p2p SFP+ kabel, een dual 10GbE kaart van eBay en een 2e hands switch met een 10GbE module voor 1500 euro je netwerkonderdelen qua switch en server link compleet hebben.

Wat de RAID controller betreft: die gaat niet sneller zijn en gaat ZFS in de weg staan. Neem een HBA, of gebruik on-board poorten, en laat alles op ZFS-niveau lopen, dus ook de SSD cache met L2ARC en ZIL.

ZFSGuru of een andere ZFS-NAS appliance distro gaat het meest onderhoudsvrij zijn. Firewall hem zo strak mogelijk en dan kan je zelfs met alleen security updates installeren verder een set-and-forget setup maken.

Als je een systeem wil hebben met (voldoende) hotswap bays, dan kom je vrij snel bij 19" rackmount systemen. Dan heb je nog de keuze tussen zelf hotswap bays in een tower proppen of kijken naar een manier op zo'n rackmount server goed op te hangen ;)

Ik zal de rest morgen (vandaag? :p ) nog even bekijken...
Ik heb me vandaag helemaal ingelezen en heb het idee dat ik nu behoorlijk op de hoogte ben. Ik zal de komende dagen hier een lijstje posten van de materialen die ik op het oog heb, ook gezien het budget!

Bedankt voor je uitgebreide feedback :)

  • dubbi3
  • Registratie: Juli 2009
  • Laatst online: 25-11 20:39
Clueless schreef op woensdag 07 januari 2015 @ 13:04:
[...]


Het idee van 12 kabels bundelen is leuk maar aan zowel EtherChannel als LACP zit over het algemeen een max van 8 poorten per LAG. Dan heb je dus een maximale link van 8 Gbit en waar je dan nog wel rekening mee moet houden is dat je data-signaling nog steeds maar op 1 Gbit zit. Mijn persoonlijke voorkeur zou dan toch naar een redundant setje 10Gbit poorten gaan...

Qua storage zou je eventueel ook kunnen kijken naar Nexenta als storage platform; is ook ZFS gebaseerd maar dan wel professioneler dan dat ZFSGuru in mijn ogen is. Daarnaast kun je Nexenta ook professioneel afnemen (lees licensed dus met support). Overigens kan je vanaf elk moment overstappen van Community (gratis t/m 18TB raw capacity & unsupported) naar Enterprise (betaald & met support). Ook kun je het krijgen met supported configuraties van HP of Dell als je daar meer behoefte aan zou hebben,

Daarnaast is het wellicht mogelijk om toch ook nog eens naar Infiniband te kijken; Infiniband 4x SDR (10Gbit) kost geen fluit meer als je dat 2e hands koopt (tussen de 25 en 50 euro voor een kaartje en de switch kun je zo duur maken als je zelf wilt...).
Ik heb net gezocht naar Nexenta maar dit komt qua performance in de buurt van FreeNas en het voordeel van FreeNas is dat ik het al ken :P
Daarnaast vind ik het nadeel van infiniband dat ik dan extra (behoorlijk ingewikkelde) kabels moet trekken, waar er al wel cat5e bekabeling ligt voor LAG met de MacPro's.

  • Clueless
  • Registratie: Juli 2001
  • Laatst online: 26-11 08:54
dubbi3 schreef op woensdag 07 januari 2015 @ 19:54:
[...]


Ik heb net gezocht naar Nexenta maar dit komt qua performance in de buurt van FreeNas en het voordeel van FreeNas is dat ik het al ken :P
Daarnaast vind ik het nadeel van infiniband dat ik dan extra (behoorlijk ingewikkelde) kabels moet trekken, waar er al wel cat5e bekabeling ligt voor LAG met de MacPro's.
Oeffff, ik zou Nexenta nou echt niet vergelijken met FreeNAS hoor. Nexenta is echt bedoelt om als basis voor een professioneler SAN/NAS te dienen en is in mijn ogen toch echt van een hoger kaliber in performance, stabiliteit & functionaliteit dan de relatieve "hobby"-projecten als FreeNAS en NAS4Free (hoewel die ook stabiel zijn ivm FreeBSD als basis maar de rest?).

Zakelijk zou ik echt liever voor een systeem gaan waar support voor is dan voor een systeem waarbij je afhankelijk bent van een "best effort" van een community. Hoeft niet slecht te zijn maar heeft meer te maken met garanties...

[ Voor 3% gewijzigd door Clueless op 08-01-2015 09:03 ]

I Don't Know, So Don't Shoot Me


  • CasGas
  • Registratie: November 1999
  • Laatst online: 26-11 21:45

CasGas

.

De support die Nexenta geeft is om te janken, ik denk dat het nog slechter is dan FreeNAS wat dat betreft. Zakelijk hebben wij daar ZEER slechte ervaring mee, upgrades die na 1 maand opeens worden teruggetrokken omdat het toch niet zo goed werkt. En als je een probleem hebt omdat je hebt geupgrade (op hun aanraden vanwege een storing) zeggen ze ook nog dat je dan maar weer terug moet naar de vorige versie in produktie tijd, die gasten hebben echt geen idee hoe een normaal bedrijf werkt in ieder geval..

(Ik bedoel het niet als ranten, maar kwaliteit hoef je daar niet van te verwachten..)

Sony A7III | Sony a6300 | Sony ZV-E1 | 12 2.0 | 21 1.4 | 24 1.4 | 35 2.8 | 50 1.4 | 135 1.8 | 16-28 2.8 | 16-70 4 | 28-75 2.8 | 70-200 2.8 II |


  • johnkeates
  • Registratie: Februari 2008
  • Laatst online: 04-07 16:30
Voor zo ver ik weet heeft Nexenta nog steeds geen SMB 3 support, die zou dus eigenlijk meteen afvallen. FreeNAS en ZFSGuru hebben dat wel. SMB 3 is toch wel een must als je met een eigen build hard data heen en weer wil pompen, vooral als je clients ook SMB 3 capable zijn.

Wat 10GbE betreft: het is gewoon altijd duurder dan een andere oplossing. Hoewel het technisch leuker/beter/sneller/handiger kan zijn het geld toch altijd wel doorslaggevend. Ik heb nog geen budget gezien, en van wat ik gelezen heb is er op het moment niet perse een grote bak geld beschikbaar om alles met highend prefab aan te pakken. Daarnaast is enterprise support, SLA's en commerciële backing leuk, maar in de praktijk doet dat niet zo veel als je met een klein bedrijfje videobewerking doet met 6 werkstations en 1 NAS. Er is hier geen sprake van een SAN of een gigantische enterprise... maar er is wel vraag naar ruwe performance. Die kan je prima zelf bouwen, met een community supported appliance distro zoals FreeNAS of zfsGuru.

Garanties zijn leuk, maar als ze geen 'garanties' bieden voor je workflow schiet je er niks mee op. een 4-uurs SLA is bijvoorbeeld niet iets wat automatisch betekent dat je nooit langer dan 4 uur niet kan werken, maar je betaalt je er wel blauw aan. Als iemand on-site het zelf kan doen is dat eigenlijk altijd sneller. Sure, je moet je procedures op orde hebben, maar verder kan daar geen SLA aan tippen, ook al is het 'professioneler'.

Dus, eerst hebben we eigenlijk een budget nodig, daarna is er pas weer wat interessants te verzinnen ;)
Verder kan je prima met 12Gbit (3x4 poorten kaartjes) trunken zodat elke client 2Gbit heeft: je patcht niet naar de switch, maar rechtstreeks naar de server! Intern zet je ze allemaal aan een grote bridge en boem, problem solved, voor een fractie van de prijs. Enige requirement is dat je server naast je patchpanel hangt. Als er maar 1 server is en 1 patch panel op 1 centraal punt is dat voor zo'n kleine setup toch geen punt. Dan kan je daarna zelfs met een goedkope unmanaged switch aan de slag, weer wat kosten weggedrukt.

Uiteraard zou het leuk zijn als je dual 10GbE connecties van je server naar je switch kon trekken, maar qua kosten komt er dat in dit geval gewoon niet uit denk ik, en qua performance is er nul verschil.

[ Voor 22% gewijzigd door johnkeates op 08-01-2015 13:56 ]


  • maratropa
  • Registratie: Maart 2000
  • Niet online
Ipv vet veel centen in de hardware te stoppen, het goedkoopste is natuurlijk een workflow aanpassing waarbij de users de videodata even lokaal neerzetten? Dan haal je nog meer performance ook. Of is dat gewoonweg onmogelijk?

specs


  • johnkeates
  • Registratie: Februari 2008
  • Laatst online: 04-07 16:30
maratropa schreef op donderdag 08 januari 2015 @ 14:01:
Ipv vet veel centen in de hardware te stoppen, het goedkoopste is natuurlijk een workflow aanpassing waarbij de users de videodata even lokaal neerzetten? Dan haal je nog meer performance ook. Of is dat gewoonweg onmogelijk?
Dat is vaak niet mogelijk om dat je ook nog scratchdisk ruimte nodig hebt, en een beetje archief snel groter is dan de interne SSD van een MacPro (of HDD als we het daar over hebben).

Wachten tot 100GB aan data overgezet is is ook niet zo leuk over een 1Gbit lijntje ;)

  • maratropa
  • Registratie: Maart 2000
  • Niet online
Als er geld is voor leipe hardware dan is er vast ook wel wat geld voor wat snelle extra lokale storage? Al dan niet extern? Een paar TB kost geen klap meer. Ik dacht dat hij zei dat de workstations op Dual Gbit zitten? Dan heb je 100GB in 6 minuten lokaal ofzo? Niet om lastig te doen maar ik weet hoe fijn snelle storage is als je met hoge datarates werkt.

specs


  • CAPSLOCK2000
  • Registratie: Februari 2003
  • Laatst online: 28-11 14:19

CAPSLOCK2000

zie teletekst pagina 888

Misschien kijk ik er over heen maar ik mis het probleem dat je probeert op te lossen.
Je gaat verhuizen en daarom koop je een nieuwe server?
Is het probleem dat die server niet meer bij jullie op kantoor kan staan?
Is je huidige server te langzaam?

This post is warranted for the full amount you paid me for it.


  • Clueless
  • Registratie: Juli 2001
  • Laatst online: 26-11 08:54
CasGas schreef op donderdag 08 januari 2015 @ 13:12:
De support die Nexenta geeft is om te janken, ik denk dat het nog slechter is dan FreeNAS wat dat betreft. Zakelijk hebben wij daar ZEER slechte ervaring mee, upgrades die na 1 maand opeens worden teruggetrokken omdat het toch niet zo goed werkt. En als je een probleem hebt omdat je hebt geupgrade (op hun aanraden vanwege een storing) zeggen ze ook nog dat je dan maar weer terug moet naar de vorige versie in produktie tijd, die gasten hebben echt geen idee hoe een normaal bedrijf werkt in ieder geval..

(Ik bedoel het niet als ranten, maar kwaliteit hoef je daar niet van te verwachten..)
Dan heb ik daar toch een andere mening over, want de ervaringen die ik daarmee heb zijn juist prima. En dan hebben we het niet over kleine systeempjes maar over systemen met capaciteiten die in de range van 200+ TB zitten. Wellicht dat we daarmee in een ietwat ander support regime zitten maar toch... SMB 3.0 komt met de 4.1 release en die wordt Q1 dit jaar verwacht heb ik begrepen.

Denk dan toch dat het wellicht wat overkill zal zijn voor dit doeleinde.Wellicht zou het zelfs zo simpel kunnen zijn om gewoon naar een bakje met wat raid-kaartjes en een Windows 2012 R2 licentie te kijken als SMB 3.0 zo de oplossing lijkt te zijn. Evt. met wat SSD caching als je dat nodig lijkt.

I Don't Know, So Don't Shoot Me


  • CasGas
  • Registratie: November 1999
  • Laatst online: 26-11 21:45

CasGas

.

eh.. 250TB omgeving bij ons dus vergelijkbaar..

Maanden lang heb je problemen, hebben ze misschien een idee dat het aan de hardware ligt, maar omdat je geen productie probleem hebt (alles draait dus..) staat het toch maar weer op een laag pitje bij hun.. 8)7 8)7

[ Voor 4% gewijzigd door CasGas op 08-01-2015 22:00 ]

Sony A7III | Sony a6300 | Sony ZV-E1 | 12 2.0 | 21 1.4 | 24 1.4 | 35 2.8 | 50 1.4 | 135 1.8 | 16-28 2.8 | 16-70 4 | 28-75 2.8 | 70-200 2.8 II |


  • Powermage
  • Registratie: Juli 2001
  • Laatst online: 27-11 22:27
Nu dateert mijn nexenta ervaring alweer van een aantal jaar geleden (hadden een relatief kleine enkelvoudige nexenta doos) maar vond de paar keer dat ik ze nodig had de kwaliteit van support eigenlijk ook ondermaats (zeker in verhouding tot de kosten van hun licenties)
Maargoed, een andere supported ZFS distri is Open-E's Jovian, heb hun support op hun DDS pakket een keer nodig gehad en vond dat wel goede gasten die echt hun best deden voor ons.

Join the club


  • jvanhambelgium
  • Registratie: April 2007
  • Laatst online: 17:12
Tja inderdaad, waarom niet lokaal op SSD(s) werken en tijdens de nachtelijke uren netjes een sync starten naar een (tragere) centrale eenheid ?
Tijdens de nacht steekt het niet op een uurtje meer of minder ?
2 SSD's lokaal in RAID0 (geen protectie) is toch zat snel niet ?

  • Frogmen
  • Registratie: Januari 2004
  • Niet online
TS Als je al ervaring met Clearos hebt zou ik gewoon lekker daar bij blijven 6.5 draait top en doet het gewoon goed. Zou eerst eens gewoon kijken of het draait met gewoon een Gigabit verbinding eventueel dubbel voor de server kan je ook nog de afweging maken als je toch een ieder met een ander project bezig bent met vier schrijven te werken en die ieder hun eigen share te laten delen waardoor je overal io performance stijgt. Het is maar een idee. Oude server desnoods inzetten voor nachtelijke backup.

Voor een Tweaker is de weg naar het resultaat net zo belangrijk als het resultaat.


  • dubbi3
  • Registratie: Juli 2009
  • Laatst online: 25-11 20:39
Frogmen schreef op woensdag 14 januari 2015 @ 18:47:
TS Als je al ervaring met Clearos hebt zou ik gewoon lekker daar bij blijven 6.5 draait top en doet het gewoon goed. Zou eerst eens gewoon kijken of het draait met gewoon een Gigabit verbinding eventueel dubbel voor de server kan je ook nog de afweging maken als je toch een ieder met een ander project bezig bent met vier schrijven te werken en die ieder hun eigen share te laten delen waardoor je overal io performance stijgt. Het is maar een idee. Oude server desnoods inzetten voor nachtelijke backup.
Ik vind het vooral lastig dat de netatalk installatie van Clearos zwaar gemod moest worden voor het aansluiten van externe disks via Esata met een mount-functie via de web interface.

Liever ga ik over op een systeem dat native netatalk heeft!

  • johnkeates
  • Registratie: Februari 2008
  • Laatst online: 04-07 16:30
Vergeet Clearos, ga gewoon naar een distro die het meteen goed doet.

  • Frogmen
  • Registratie: Januari 2004
  • Niet online
johnkeates schreef op donderdag 15 januari 2015 @ 04:40:
Vergeet Clearos, ga gewoon naar een distro die het meteen goed doet.
Zeker een slechte ervaring in het verleden gehad, want persoonlijk vindt ik het een van de beste distro's voor mensen die linux willen gebruiken maar niet direct in de commandline willen duiken.

Voor een Tweaker is de weg naar het resultaat net zo belangrijk als het resultaat.


  • johnkeates
  • Registratie: Februari 2008
  • Laatst online: 04-07 16:30
Frogmen schreef op donderdag 15 januari 2015 @ 14:27:
[...]

Zeker een slechte ervaring in het verleden gehad, want persoonlijk vindt ik het een van de beste distro's voor mensen die linux willen gebruiken maar niet direct in de commandline willen duiken.
Nee, maar de strategie die ClearOS hanteert werkt gewoon niet in high-volume productie omgevingen.

Waarom je trouwens opmerkt dat *ik* dan een slechte ervaring zou hebben om dat het voor mensen is die niet met de CLI willen werken slaat nergens op. Ik werk liever met de CLI dan een of andere knullige GUI. Ik gebruik daarom zelf voor ZFS servers gewoon FreeBSD, je kan alles prima vanaf de commandline configureren, het is een stuk sneller, berekenbaar en daarmee stabieler. De huidige staat van zaken als FreeNAS en zfsGuru maakt het mogelijk voor mensen die niet weten hoe je met computers moet werken om toch een goed storage systeem op te zetten. ClearOS voegt daar niks aan toe. Het is alsof je Linux Mint op een server gaat draaien...

Doe mij maar gewoon puur BSD zoals FreeBSD of een goede Linux distro zoals Debian in plaats van die eindgebruiker meuk die behalve performance inleveren niks anders doet dan een normale setup.

  • Frogmen
  • Registratie: Januari 2004
  • Niet online
Wat is volgens jouw de strategie van ClearOS en waarom werkt het niet op High Volume? Het is gewoon gebaseerd op CentOS alleen zit er een GUI op en zijn er dedicated geteste APPs.

Voor een Tweaker is de weg naar het resultaat net zo belangrijk als het resultaat.


  • dubbi3
  • Registratie: Juli 2009
  • Laatst online: 25-11 20:39
Tweakers,

Ik ben nu zo ver dat ik inderdaad een switch met 10 gbit uplink + 1 x 10gbit NIC wil aanschaffen.
Wat is prijs/kwaliteit beter? 10GBE of Fiber?

En is 2e hands een optie en waar? :)

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:39
Prijs / kwaliteit verwacht ik koper, fiber is vaak toch een flink stuk duurder qua kabel / switch en de modules die je nodig hebt.

2de hands zou ik zelf niet snel doen in een productie omgeving, tenzij je bij een probleem snel kan schakelen. Ik zou zelf toch wel graag minimaal next business day vervanging hebben van de apparatuur mocht er een calamiteit zijn, een service die vaak vervalt als je geen eerste eigenaar bent.

  • DJSmiley
  • Registratie: Mei 2000
  • Laatst online: 13-11 18:21
dubbi3 schreef op maandag 26 januari 2015 @ 16:46:
Tweakers,

Ik ben nu zo ver dat ik inderdaad een switch met 10 gbit uplink + 1 x 10gbit NIC wil aanschaffen.
Wat is prijs/kwaliteit beter? 10GBE of Fiber?

En is 2e hands een optie en waar? :)
Wat beter is? Niets over te zeggen. Wat heb je zelf inmiddels uitgezocht als voors en tegens voor 10Gbe of fiber?

Fiber: Goedkopere switches, de 'simpele' switches met 10G uplinks zijn meestal SFP+. 10Gbase-T zie je op de iets duurdere. Daarnaast galvanisch gescheiden.

Koper: Nieuwere serverborden hebben 10Gbase-T standaard al erop. Bespaart je weer een losse nic kopen

Kwa kosten zal het niet veel uitmaken. 10Gbase-SX kost tegenwoordig ook geen drol meer. Optics + patchkabeltjes heb je voor <100 eur. NIC is nog het duurste.

Maar wat is nu je plan mbt de server? Zolang je daar geen fatsoenlijke hardware inzet (met name kwa storage/io) kun je net zo goed 2x1Gbit onboard nicjes trunken..

2ehands... Als je zelf spares houd en het kan troubleshooten kan dat, maar 10G hardware is schaars, en wat er is is enterprise spul.
Aangezien je nieuw al voor <2k klaar bent zou ik in een productieomgeving geen 2ehands overwegen, tenzij je die keuze bewust gemaakt hebt. (dus spares, en inhouse kennis). En reken ook mee wat downtime kost als in verloren uren...

[ Voor 15% gewijzigd door DJSmiley op 26-01-2015 18:37 ]


  • dubbi3
  • Registratie: Juli 2009
  • Laatst online: 25-11 20:39
DJSmiley schreef op maandag 26 januari 2015 @ 18:35:
[...]


Wat beter is? Niets over te zeggen. Wat heb je zelf inmiddels uitgezocht als voors en tegens voor 10Gbe of fiber?

Fiber: Goedkopere switches, de 'simpele' switches met 10G uplinks zijn meestal SFP+. 10Gbase-T zie je op de iets duurdere. Daarnaast galvanisch gescheiden.

Koper: Nieuwere serverborden hebben 10Gbase-T standaard al erop. Bespaart je weer een losse nic kopen

Kwa kosten zal het niet veel uitmaken. 10Gbase-SX kost tegenwoordig ook geen drol meer. Optics + patchkabeltjes heb je voor <100 eur. NIC is nog het duurste.

Maar wat is nu je plan mbt de server? Zolang je daar geen fatsoenlijke hardware inzet (met name kwa storage/io) kun je net zo goed 2x1Gbit onboard nicjes trunken..

2ehands... Als je zelf spares houd en het kan troubleshooten kan dat, maar 10G hardware is schaars, en wat er is is enterprise spul.
Aangezien je nieuw al voor <2k klaar bent zou ik in een productieomgeving geen 2ehands overwegen, tenzij je die keuze bewust gemaakt hebt. (dus spares, en inhouse kennis). En reken ook mee wat downtime kost als in verloren uren...
Hi DJSmiley,

Ik heb nu een lijstje samengesteld waarvan in denk dat dit afdoende moet zijn. Wat denk je hier van?

http://azerty.nl/winkelma...D=1&product%5B715459%5D=2
Pagina: 1