Ik heb inmiddels al bijna 3 jaar de volgende setup draaien en moet de boel gaan uitbreiden. Ik heb deze vraag ook al eens voorgelegd in het DIY NAS topic, maar ik wil nu keuzes gaan maken, dus daarom toch maar even een eigen topic.
Ik heb ESXi 6.5 met een aantal virtual machines:
Ik heb geen 2de systeem tot mijn beschikking, dus data overpompen met zfs send/receive wordt lastig. Wellicht dat ik het lokaal op de server zelf kan regelen, omdat ik poorten vrij heb op mijn moederbord. Probleem is wel dat ik nu passthrough gebruik naar een VM. Zou betekenen dat ik lokaal FreeNAS of iets dergelijks moet booten en daar de boel moet overzetten. Ik draai verder eigenlijk al jaren met weinig issues (paar uitzondering na) RAIDZ2 met 6 disks dus daar ben ik eigenlijk wel tevreden over. Ik zie het bijvoorbeeld ook wil zitten om te migreren naar 6x6TB of 6x8TB.
Door het bij 6 drives te houden hoef ik mijn case en voeding ook niet te vervangen en dat vind ik persoonlijk ook best wel prettig. Qua storage voor mijn VM's ben ik van plan een grotere SSD te gaan nemen. Mijn Plex Metadata draait nu ook op ZFS en mijn zpool wordt ook gebruikt tijdens het transcoden en dat gaat niet helemaal vlekkeloos. Wanneer 2 mensen remote tegelijkertijd iets via Plex kijken, is het bijna altijd ellende (Plex crashed continue en de 2 streams krijgen bijna letterlijk ruzie met elkaar). Ik wil het liefst dus een grote SSD voor mijn VM/container data + plex metadata. Idem dito voor mijn OS. Ik boot nu ESXi vanaf een usb-stick, maar ik zie het ook wel zitten om een SSD in te gaan zetten voor mijn OS.
RAID1 voor VM/container storage en mijn OS (dus in totaliteit 4 SSD's) heb ik nu voor ogen. Ik kan er een Crucial M500 bij kopen en die samen mijn de SSD uit mijn huidige setup gebruiken voor RAID1 SSD, en 2 nieuwe SSD's gebruiken voor VM/container storage. (Ik ben er alleen nog niet over uit welke).
Idem dito voor de 6TB of 8TB drives. Ik lees hier en daar veel artikelen dat 8TB drives op dit moment nog niet optimaal zijn voor ZFS gebruik.
Heb ik wellicht nog iets over het hoofd gezien of heeft iemand anders een bright idea?
# | Product | Prijs | Subtotaal |
1 | Intel Xeon E3-1230 V3 Boxed | € 309,99 | € 309,99 |
1 | Supermicro X10SL7-F | € 273,25 | € 273,25 |
6 | WD Red WD30EFRX, 3TB | € 115,95 | € 695,70 |
1 | BitFenix Shadow | € 66,50 | € 66,50 |
7 | Sharkoon SATA III standard (50cm) | € 0,- | € 0,- |
1 | Kingston ValueRAM KVR16E11K4/32 | € 252,95 | € 252,95 |
1 | Seasonic G-series 360 watt | € 63,95 | € 63,95 |
1 | Crucial M500 2,5" 240GB | € 112,93 | € 112,93 |
Bekijk collectie Importeer producten | Totaal | € 1.775,27 |
Ik heb ESXi 6.5 met een aantal virtual machines:
- pfSense (DHCP, DNS & NAT, Internet routing)
- CentOS 7 VM1: ZFS + Samba (RAIDZ2)
- CentOS 7 VM2: Plex Media server (Emby als backup)
- CentOS 7 VM3: NZBGet, Couchpotato, Sonarr
- CentOS 7 VM4: MySQL en nog wat ander rommel om mee te spelen.
- ESXi inruilen voor Rancher, SmartOS, FreeNAS 10 (nog in beta) en Proxmox (heb nog geen keuze kunnen maken, maar ik wil wel 100% zeker overstappen naar lxc en of een docker principe).
- Afscheid nemen van pfSense (Unifi USG Pro 4 ligt al klaar op de planken)
- ZFS pool uitbreiden en/of opnieuw inrichten. Ik heb nu 6x3TB RAIDZ2 draaien, maar de pool begint aardig vol te lopen (89%). Ik heb advies nodig bij het uitbreiden van mijn storage. Ik kan er een hoop disken bij plaatsen en een 2de vdev toevoegen aan mijn pool, of een nieuwe grote pool inrichten. Mijn Supermicro X10SL7 moederbord beschikt over 14 poorten, dus in principe kan ik er een 2de VDEV van 6 disken bij steken. Sweet spot is een nieuwe 10 disk RAIDZ2 pool, maar ik wil ook geen overkill. Heel veel disken betekent ook dat ik waarschijklijk een nieuwe case moet gaan kopen en een andere psu, aangezien mijn huidge maar 360 watt aan kan.
Ik heb geen 2de systeem tot mijn beschikking, dus data overpompen met zfs send/receive wordt lastig. Wellicht dat ik het lokaal op de server zelf kan regelen, omdat ik poorten vrij heb op mijn moederbord. Probleem is wel dat ik nu passthrough gebruik naar een VM. Zou betekenen dat ik lokaal FreeNAS of iets dergelijks moet booten en daar de boel moet overzetten. Ik draai verder eigenlijk al jaren met weinig issues (paar uitzondering na) RAIDZ2 met 6 disks dus daar ben ik eigenlijk wel tevreden over. Ik zie het bijvoorbeeld ook wil zitten om te migreren naar 6x6TB of 6x8TB.
Door het bij 6 drives te houden hoef ik mijn case en voeding ook niet te vervangen en dat vind ik persoonlijk ook best wel prettig. Qua storage voor mijn VM's ben ik van plan een grotere SSD te gaan nemen. Mijn Plex Metadata draait nu ook op ZFS en mijn zpool wordt ook gebruikt tijdens het transcoden en dat gaat niet helemaal vlekkeloos. Wanneer 2 mensen remote tegelijkertijd iets via Plex kijken, is het bijna altijd ellende (Plex crashed continue en de 2 streams krijgen bijna letterlijk ruzie met elkaar). Ik wil het liefst dus een grote SSD voor mijn VM/container data + plex metadata. Idem dito voor mijn OS. Ik boot nu ESXi vanaf een usb-stick, maar ik zie het ook wel zitten om een SSD in te gaan zetten voor mijn OS.
RAID1 voor VM/container storage en mijn OS (dus in totaliteit 4 SSD's) heb ik nu voor ogen. Ik kan er een Crucial M500 bij kopen en die samen mijn de SSD uit mijn huidige setup gebruiken voor RAID1 SSD, en 2 nieuwe SSD's gebruiken voor VM/container storage. (Ik ben er alleen nog niet over uit welke).
Idem dito voor de 6TB of 8TB drives. Ik lees hier en daar veel artikelen dat 8TB drives op dit moment nog niet optimaal zijn voor ZFS gebruik.
Iemand ervaring met dan wel 6TB of 8TB drives die men van harte kan aanraden? Rest mij alleen nog de migratie tactiek en wat de doen met mijn "oude" drives. Ik heb 6 WD-RED's die ik inmiddels 3 jaar in gebruik heb en een 7de die nog nieuw op de plank ligt (backup). Hopelijk kan ik die verkopen en er nog iets aan verdienen. Persoonlijk denk ik dat +10 drives (dus een setup met 2 vdev's bijvoorbeeld) overkill is, ook qua stroomkosten.Some drives 8TB and larger are using SMR (Shingled Magnetic Recording) which should not be used with ZFS if you care about performance until drivers are developed. Be careful about any drive that says it’s for archiving purposes.
Heb ik wellicht nog iets over het hoofd gezien of heeft iemand anders een bright idea?
is everything cool?