"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Verwijderd
Wat heeft dat met ZFS te maken? Het is evengoed verstandig vt-d of zonder virtualisatie te werken met regulier software RAID.Paul schreef op vrijdag 19 februari 2016 @ 14:59:
De Atom op je bordje ondersteunt geen VT-d, en dus kun je geen PCI-device doorgeven aan je VM. FreeNAS (of een ander ZFS-OS) virtueel wordt dus afgeraden.
Euhm? Dat je beter geen RDM's of VMDK's kunt gebruiken? Waarom denk je dat iedereen losse LSI-controllers (of AHCI onboard) met VT-d doorgeeft in het ESXi-topic? Dat is niet omdat dat zo goedkoop of simpel is... Je maakt mij niet wijs dat je dat niet weetVerwijderd schreef op vrijdag 19 februari 2016 @ 15:01:
Wat heeft dat met ZFS te maken?
Die zin begrijp ik niet?Het is evengoed verstandig vt-d of zonder virtualisatie te werken met regulier software RAID.
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Yeah great, works like a charm! Even snel een VM aangemaakt en geïnstalleerd so far so good. Thx ga hier even mee testen!
@Paul
Yes dat weet ik maar ik ging er eigenlijk vanuit dat ik toch wel "raw disk" kon gebruiken.... Pin me er niet op vast maar volgensmij kan ik met VirtualBox op mijn PC (ook zonder VT-d) dat wél doen. Hoewel ik ook weer niet 100% durf te garanderen hoeveel emulatie er tussen zit.
En inderdaad dit was ook de grootste reden waarom ik ESXi aan de kant geschoven had, dit was toch wel een belangrijk punt
@CiPHER
Voor een 'simpele' VM boeit het geen drol. Die windows VM hoeft van mij echt geen direct-access naar een disk. Als die een virtuele disk heeft van een paar GB is het prima. Bedoel je trouwens niet "onverstandig" in je laatste zin?
3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Maargoed het leek me ook wel iets van overkill om een complete hypervisor te gebruiken voor 1 simpele windows VM (want FreeNAS mag van mij bare metal draaien)
maar thx in elk geval voor de info
3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)
Wanneer heb je het laatst je wachtwoord verandert? Er word op T.net de laatste tijd regelmatig misbruikt gemaakt van accounts met gelekte wachtwoorden om andere gebruikers op te lichten. Verander je wachtwoord, geef oplichters geen kans!
Waarom zou je betalen voor een Linux gebaseerde raid + virtualisatie oplossing als daar volop alternatieven zijn die wel goed gedocumenteerd zijn ? Ik vind dat unRAID maar vaag, kan nergens vinden wat er nu onder draait voor versies van Linux en hoe het technisch in elkaar zit, zelfs het feit dat het Linux gebaseerd is vind je op hun site nergens terug.Leo1010 schreef op vrijdag 19 februari 2016 @ 15:47:
Met het risico op een gebroken platenspeler te lijken, Unraid misschien?
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)
Verwijderd
Uiteraard is mij dat bekend, alhoewel sommigen zoals FireDrunk volgens mij ook impliceerde dat RDM in zijn geval prima werkte. Maar via vt-d doorgeven is nog altijd het beste omdat je de VM direct controle over de disks geeft. Dan werken zaken als APM/AAM/TRIM/SMART enzovoorts ook zonder problemen. En omdat er niets wordt geëmuleerd is er geen kans op problemen met dataintegriteit.Paul schreef op vrijdag 19 februari 2016 @ 15:21:
[...]
Euhm? Dat je beter geen RDM's of VMDK's kunt gebruiken? Waarom denk je dat iedereen losse LSI-controllers (of AHCI onboard) met VT-d doorgeeft in het ESXi-topic? Dat is niet omdat dat zo goedkoop of simpel is... Je maakt mij niet wijs dat je dat niet weet
Maar doordat je specifiek ZFS noemde, suggereerde je dat het probleem zich niet zou voordoen als je GEOM raid of Linux MD-RAID zou gebruiken in plaats van ZFS, dat is niet zo. ZFS is niet gevoeliger voor wegvallende disks, mogelijk zelfs minder gevoelig dan legacy RAID.
Mattie begon over ZFS, dan antwoord ik over ZFSVerwijderd schreef op vrijdag 19 februari 2016 @ 16:06:
Maar doordat je specifiek ZFS noemde, suggereerde je dat het probleem zich niet zou voordoen als je GEOM raid of Linux MD-RAID zou gebruiken in plaats van ZFS
Ik zie overigens eigenlijk (bijna?) geen mensen GEOM of MD gebruiken binnen een VM, of er vragen over stellen. Waarschijnlijk ook omdat veel van de functionaliteit die het biedt ook door de hypervisor (of de hardware) geregeld kan worden, terwijl ZFS niet alleen (delen van) de functionaliteit van GEOM of MD gebruikt maar ook een filesystem is, waardoor je het wel in de guest moet draaien. Ook wordt er volgens mij bij geen enkel ander FS zo gehamerd op "draai het zo rechtstreeks mogelijk op de hardware"
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
http://lime-technology.com/wiki/index.php/FAQu_nix_we_all schreef op vrijdag 19 februari 2016 @ 15:57:
Waarom zou je betalen voor een Linux gebaseerde raid + virtualisatie oplossing als daar volop alternatieven zijn die wel goed gedocumenteerd zijn ? Ik vind dat unRAID maar vaag, kan nergens vinden wat er nu onder draait voor versies van Linux en hoe het technisch in elkaar zit, zelfs het feit dat het Linux gebaseerd is vind je op hun site nergens terug.
Ik zal verder gelijk toegeven dat de documentatie een stuk beter kan.unRAID is based on a lean but up-to-date Slackware distribution of Linux
Wanneer heb je het laatst je wachtwoord verandert? Er word op T.net de laatste tijd regelmatig misbruikt gemaakt van accounts met gelekte wachtwoorden om andere gebruikers op te lichten. Verander je wachtwoord, geef oplichters geen kans!
Geeft geen antwoord op de vraag waarom ik zou betalen voor iets wat zo te zien opgebouwd is uit voornamelijk open-source componenten. Wat kun je er mee wat bijv. niet met Proxmox kan ?
Het is dus gebaseerd op een up-to-date versie van slackware. Whatever that is. De laatste stable slackware distro (14.1) is van 2013, verder is er alleen een beta van 14.2
You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.
Heb m'n nieuwe Nas server in elkaar gezet vandaag maar ik krijg met geen mogelijkheid freenas geïnstalleerd.
Elke keer als ik hem wil installeren via een bootable usb stick stop de installatie na een minuut met error 19.
1
2
| Trying to mount root from msdosfs:/dev/msdosfs/FREENAS_INS Mountroot: waiting for device /dev/msdosfs/FREENAS_INS... |
Vervolgens kom ik in een terminal met commandline om handmatig te mounten.
Ik meerdere usb sticks geprobeerd zonder succes.
Diversen instellingen aan/uit gezet in de BIOS o.a xhci helaas geen resultaat.
Iemand een idee ?
Op het moment heb ik oude PC in meterkast staan met:
- Intel Pentium G6960
- 4 GB RAM
- 1.5TB Seagate schijf
- 2TB Externe WD Schijf
- MicroStar MB
- FreeNAS
- Plex
- Sonarr
- Couchpotato
- Transmission (incl. PIA VPN)
- SABnzb
- HTPC Manager
- CIFS/FTP
Wat is hiervoor de beste optie? Zelf zou ik graag voor het zelf bouwen gaan met een goedkope tower behuizing met genoeg schijf opties om later uit te breiden. Maar dat zal waarschijnlijk nooit zo energie zuinig zijn als bv. een Synology.
Budget voor de NAS zelf dus zonder schijven zal ergens rond 400 - 500 liggen. Staat 24/7 aan en wil minimaal vier schijven kwijt kunnen om eventueel later RAID te gaan gebruiken.
Wat zou hier de beste optie zijn? Prebuilt a la Synology/QNAP of zelf bouwen?
Wat zegt je verbruiksmeter?
PS: wat voor voeding heb je? Misschien is je systeem al wel een stuk zuiniger te krijgen met een nieuwe voeding...
[ Voor 20% gewijzigd door FireDrunk op 21-02-2016 20:06 ]
Even niets...
Het budget is 400 - 500 hoeft niet allemaal opFireDrunk schreef op zondag 21 februari 2016 @ 20:06:
Voor 400 euro iets nieuws kopen alleen maar omdat het zuiniger moet is wel raar. Want een nieuw systeem gaat wel iets zuiniger zijn, maar die G6960 is volgens mij nou ook weer geen slurper...
Wat zegt je verbruiksmeter?
PS: wat voor voeding heb je? Misschien is je systeem al wel een stuk zuiniger te krijgen met een nieuwe voeding...
Het is ook niet alleen om het zuiniger te maken. Want op het moment staat er een kale kast zonder zijpanelen of iets in de meterkast met een externe 3,5 inch hdd waar eerst de CD drive zat. Deze kast kan maar 1 of 2 schijven kwijt wat te weinig is voor mij nu ik wil gaan uitbreiden.
De voeding is een FSP350-60 MDM komt uit een prebuild systeem van een aantal jaar terug.
Hij gaf 0.2 kWh aan na 2 uur 'idle' gebruik. Niks aan het downloaden of streamen.
Hoe maak je de usb stick? Met DD lukt dit bij mij altijd.ComTech schreef op zondag 21 februari 2016 @ 17:26:
Weet niet of dit het goeie topic is maar probeer het maar.
Heb m'n nieuwe Nas server in elkaar gezet vandaag maar ik krijg met geen mogelijkheid freenas geïnstalleerd.
Elke keer als ik hem wil installeren via een bootable usb stick stop de installatie na een minuut met error 19.
Ik meerdere usb sticks geprobeerd zonder succes.
Diversen instellingen aan/uit gezet in de BIOS o.a xhci helaas geen resultaat.
Iemand een idee ?
- Deze advertentie is geblokkeerd door Pi-Hole -
Als 4 HDD bays voldoende is, zou ik een HP MicroServer nemen, heb ik laatst voor een vriend ook thuis gebouwd, en de OS op een 2TB 2.5'' HDD ge-installeert, die ook dienst deed als tijdelijke download schijf, om het systeem nog zuiniger en betrouwbaarder te maken, daar dan de array +95% van de tijd gewoon spindown kan zijn, en de array alleen maar voor archiveren te gebruiken, en zo maar 30W verbruikte.Facerafter schreef op zondag 21 februari 2016 @ 20:46:
Het budget is 400 - 500 hoeft niet allemaal op
pricewatch: HP Proliant MicroServer Gen8 G1610T
Hier een review van de HP server.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Dat is zeker een mooie optie. Vooral omdat ie die 2.5 inch kwijt kan naast de 4 hdds. Maar wat bedoel je precies met de laatste 2 regels? Ik neem trouwens aan dat dit ook gewoon werkt met een bootable usb?player-x schreef op zondag 21 februari 2016 @ 21:09:
[...]
Als 4 HDD bays voldoende is, zou ik een HP MicroServer nemen, heb ik laatst voor een vriend ook thuis gebouwd, en de OS op een 2TB 2.5'' HDD ge-installeert, die ook dienst deed als tijdelijke download schijf, om het systeem nog zuiniger en betrouwbaarder te maken, daar dan de array +95% van de tijd gewoon spindown kan zijn, en de array alleen maar voor archiveren te gebruiken, en zo maar 30W verbruikte.
pricewatch: HP Proliant MicroServer Gen8 G1610T
Hier een review van de HP server.
EDIT:
Verschil tussen
pricewatch: HP Proliant MicroServer Gen8 G1610T
en
pricewatch: HP Proliant MicroServer Gen8 G1610T
Prijs schilt 40 euro maar de de duurdere heeft minder RAM? Ik zie voor de rest geen verschillen..
[ Voor 19% gewijzigd door Facerafter op 21-02-2016 22:24 ]
Met diversen tools rufus win32diskimage gedaan.A1AD schreef op zondag 21 februari 2016 @ 20:49:
[...]
Hoe maak je de usb stick? Met DD lukt dit bij mij altijd.
DD zal ik eens proberen morgen heb alleen op dit moment geen linux PC staan.
Heb het ook elke keer met 1 laptop gedaan zal nog eens een andere PC proberen .
Als het echt niet wil lukken toch ergens een cd lezer lenen?ComTech schreef op zondag 21 februari 2016 @ 21:50:
[...]
Met diversen tools rufus win32diskimage gedaan.
DD zal ik eens proberen morgen heb alleen op dit moment geen linux PC staan.
Heb het ook elke keer met 1 laptop gedaan zal nog eens een andere PC proberen .
- Deze advertentie is geblokkeerd door Pi-Hole -
*Algemeen Advies* HTPC en Homeserver Advies Guide/Server-HDDFacerafter schreef op zondag 21 februari 2016 @ 21:46:
Dat is zeker een mooie optie. Vooral omdat ie die 2.5 inch kwijt kan naast de 4 hdds. Maar wat bedoel je precies met de laatste 2 regels?
Ja dat moet gewoon werken.Ik neem trouwens aan dat dit ook gewoon werkt met een bootable usb?
Zijn er ook niet, alleen de 4GB versie wordt niet verkocht door de goedkopere leveranciers.Prijs schilt 40 euro maar de de duurdere heeft minder RAM? Ik zie voor de rest geen verschillen.[/s].
[ Voor 7% gewijzigd door player-x op 22-02-2016 06:15 ]
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Daar kan je elke (stok) oude PC voor gebruiken, zolang hij maar wekelijk via de bios kan opstarten, of iig een 'power on' functie in de bios heeft (wat de meeste biosen hebben), als hij weer stroom krijgt, via een schakel klok.
Zelf gebruik ik daar voor mijn oude server met een 10j oude S939 mobo, en 16x 750GB HDDs in RAIDZ3.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Dat is ook nog interessant, hoewel ik niet echt een geschikte oude PC heb hiervoor. De enige oude, ongebruikte pc die ik hier heb is een Dell Optiplex 755 (SFF) met maar 3 sata poorten geloof ik. Maar misschien dat het haalbaar is om een ITX moederbord met CPU onboard, voeding en case te vinden voor <€100. Ff hunten. Want ik zag dat m'n eerste idee van 4x losse 3.5" usb3.0 cases ook op amazon.de me nog steeds minimaal €65 gaat kostenplayer-x schreef op maandag 22 februari 2016 @ 11:37:
Ik zou er een offline ZFS RAIDZ1 (6TB) of RAIDZ2 (4TB) offline backup server mee maken, voor opslag van je belangrijkste onvervangbare privé data.
Daar kan je elke (stok) oude PC voor gebruiken, zolang hij maar wekelijk via de bios kan opstarten, of iig een 'power on' functie in de bios heeft (wat de meeste biosen hebben), als hij weer stroom krijgt, via een schakel klok.
Zelf gebruik ik daar voor mijn oude server met een 10j oude S939 mobo, en 16x 750GB HDDs in RAIDZ3.
Ik heb slechte ervaringen met USB(3) en ZFS.
Even niets...
Heb er zelf nog wel 1 liggen.Ga ik nog even proberen.A1AD schreef op zondag 21 februari 2016 @ 22:13:
[...]
Als het echt niet wil lukken toch ergens een cd lezer lenen?
Heb 1 usbstick die ik gemaakt had eens geprobeerd in een andere pc (m'n huidige desktop) en daar doet hij het prima.
Wel vreemd dat het in een nieuw moederbord niet werkt, zou het nog aan de usb controller ofzo kunnen liggen?
Zal toch wat zijn heb de onboard lan controller ook al uitgezet en een intel netwerkkaart erin gedaan.
(ubuntu server heeft problemen met de rtl8111).
Nee geen ZFS, die oude schijven zou ik dan gewoon afzonderlijk in 4 aparte cases stoppen, maar de suggestie van player-x is een goede, ik ga voor zoiets:FireDrunk schreef op maandag 22 februari 2016 @ 12:55:
ZFS via externe USB3 cases zou ik niet doen. Doe dan eSATA.
Ik heb slechte ervaringen met USB(3) en ZFS.
# | Product | Prijs | Subtotaal |
1 | ASRock C70M1 | € 37,- | € 37,- |
1 | Cooler Master Elite 110 | € 38,95 | € 38,95 |
1 | be quiet! System Power 7 300W | € 33,95 | € 33,95 |
Bekijk collectie Importeer producten | Totaal | € 109,90 |
Net iets meer dan €100, maar een stuk flexibeler. DDR3 RAM heb ik nog wel rondslingeren hier. En ik kan dan ook een extra back-up hiernaartoe trekken 1x in de maand van de nieuwe primary Freenas server (w10 en apple back-ups, timemachine). Ik zit voor deze secundaire offline Freenas server te denken aan een raidz2 config.
Even niets...
Gezien de prijs snap ik zijn keuze een beetje, maar welke zou jij in dit geval kiezen?FireDrunk schreef op maandag 22 februari 2016 @ 13:30:
C70 is wel *heel* oud. Ik zou naar een moderne Celeron kijken.
Ja idd, ik klikte meteen de goedkoopste aan, net zoals de caseVorCha schreef op maandag 22 februari 2016 @ 13:33:
[...]
Gezien de prijs snap ik zijn keuze een beetje, maar welke zou jij in dit geval kiezen?
Maar als er zwaarwegende redenen zijn, wil ik die €20 extra wel leggen voor een celeron J1800 bord bv.
Verbruik is ok, maar ook niet super laag. Als je het systeem alleen aan zet voor de backup is het wel een leuk bakje.
[ Voor 16% gewijzigd door FireDrunk op 22-02-2016 13:40 ]
Even niets...
Beide bordjes hebben maar 2 sata poorten. Ik ben zelf, vanuit historie, niet zo'n fan van MSI of ASRock. Dus ik zou voor deze Gigabyte gaan. pricewatch: Gigabyte GA-N3050N-D2P (rev. 1.0)
Dan staat bij mij overigens ook op de planning om als main ZFS storage doos te gaan gebruiken. Ter vervanging van mijn huidige pricewatch: Gigabyte GA-N3050N-D2P (rev. 1.0) en pricewatch: Intel Desktop Board DH61WWB3 (boxed) combi
Met een additionele controler erbij, al ben ik er nog niet helemaal uit welke.
MSI is juist (vaak) weer erg zuinig, en ASRock timmert tegenwoordig ook ernstig goed aan de weg.
Maar je moet het uiteraard zelf weten, als het systeem niet permanent aan staat, zou ik me niet zo druk maken over het verbruik, en gewoon (zoals je al deed) kijken naar de absolute aanschafprijs.
[ Voor 30% gewijzigd door FireDrunk op 22-02-2016 13:53 ]
Even niets...
Ik zou voor een van deze gaan, die hebben wel 4x sata, en samen met een USB stick kan je daar prima een server mee maken.
Of kijken of je iets goedkoops kan vinden tussen de Vraag & Aanbod advertenties, meestal is daar wel wat ouds maar nog steeds bruikbaar te vinden voor minder dan 5 tientjes of zo, en je hoeft hem niet meteen te kopen als er op het moment niets tussen staat, want er wordt steeds op nieuw genoeg aangeboden.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Voor het doel maakt het niet echt uit wat hij neemt, zelf zou ik gewoon rondvragen bij vrienden, familie of op werk, of iemand nog een oude PC over heeft staan, waar 4 HDDs in kunnen.FireDrunk schreef op maandag 22 februari 2016 @ 13:53:
Mja, ik ben juist weer geen fan van Gigabyte (meer). Voor gaming prima, maar absoluut niet zuinig, en qua features ook niet super ofzo.
MSI is juist (vaak) weer erg zuinig, en ASRock timmert tegenwoordig ook ernstig goed aan de weg.
Want stroom verbruik is echt onbelangrijk voor een OfflineServer, mijn oude server met een Opteron 170 + controller + 16+1 disk's, trekt tijdens het back-uppen ongeveer 350W, dat is ongeveer omgerekend ongeveer 1 euro per jaar aan stroom verbruik, voor die 5 tot 30min dat hij aan staat per week.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Goed idee. Die tweede Freenas NAS kan op zich nog wel wachten (de hdd's zitten nu toch in een TS412). Dan kan ik ondertussen (binnen nu en twee weken ongeveer) uitkijken naar een goede prijs voor een J1800/J1900/N3050 ITX bord.player-x schreef op maandag 22 februari 2016 @ 13:53:
Ja een C70 zal best wel werken, maar het wel echt oud, en nog langzamer als de 1th gen Atom's, ik zou ook een paar tientjes meer uitgeven.
Ik zou voor een van deze gaan, die hebben wel 4x sata, en samen met een USB stick kan je daar prima een server mee maken.
Of kijken of je iets goedkoops kan vinden tussen de Vraag & Aanbod advertenties, meestal is daar wel wat te vinden voor 5 tientjes of zo, en je hoeft hem niet meteen te kopen als er op het moment niets tussen staat, want er wordt steeds op nieuw genoeg aangeboden.
Ik ben door wat schade uit het verleden ook geen fan meer om een OS op usb te zetten. Zelfs FreeNAS had uiteindelijk last van corrupte sticks. Ook met ESXi heb ik al 3 keer een USB stick moeten vervangen.player-x schreef op maandag 22 februari 2016 @ 13:53:
Ik zou voor een van deze gaan, die hebben wel 4x sata, en samen met een USB stick kan je daar prima een server mee maken.
Ik weet dat er sticks moeten zijn met betere betrouwbaarheid, maar dan zorg ik liever voor wat extra SATA poorten dan dat ik teveel moeite moet gaan doen om de juiste stick te vinden.
Daarnaast heb ik gewoon geen goed gevoel meer bij en durft ik niet meer te vertrouwen om usb sticks als OS medium.
Die pricewatch: Gigabyte GA-N3150N-D3V (rev. 1.0) in je lijstje stond al op mn verlanglijstje voor een pfSense systeem vanwege de 2 nics, het was mij ontgaan dat er ook nog eens 4 sata poorten op zitten. Nice
Ben er zelf ook geen fan van, maar voor een offline server is het niet echt een groot probleem hoor.VorCha schreef op maandag 22 februari 2016 @ 14:07:
Ik ben door wat schade uit het verleden ook geen fan meer om een OS op usb te zetten.
En eigenlijk heeft hij niet genoeg aan 4 porten, tenzij hij een extra losse USB drive gebruikt, daar ik iig geen grote fan ben van ben om je OS op een raid array te zetten.
En als het moet, kan je ook twee sticks gebruiken voor je OS in Raid 1 (denk dat het mogelijk is), of een stick met een image kopie, maar voor een offline server vind ik dat zelf redelijk overbodig.
Hoewel een prima oplossing, maar ik zou niet voor een nieuw Atom bordje gaan kijken, maar gewoon voor een oude desktop PC, en het maakt weinig uit hoe oud, als het maar een 64 bit CPU is met twee CPU core's, zelfs een 10j oude AMD K8 X2 series is daar prima geschikt voor, werkt prima voor mij met 16 disks.Trishul schreef op maandag 22 februari 2016 @ 14:03:
Goed idee. Die tweede Freenas NAS kan op zich nog wel wachten (de hdd's zitten nu toch in een TS412). Dan kan ik ondertussen (binnen nu en twee weken ongeveer) uitkijken naar een goede prijs voor een J1800/J1900/N3050 ITX bord.
Zoiets als dit is regelmatig te koop: V&A aangeboden: Acer Veriton M460
En heeft de juiste prijs en hardware.
[ Voor 41% gewijzigd door player-x op 22-02-2016 14:35 ]
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Hartstikke bedankt! Top oplossing. Kan ik mijn huidige FreeNAS config houden en toch mooi naar een nieuwe behuizing en ook nog is zuiniger.player-x schreef op maandag 22 februari 2016 @ 06:13:
[...]
*Algemeen Advies* HTPC en Homeserver Advies Guide/Server-HDD
[...]
Ja dat moet gewoon werken.
[...]
Zijn er ook niet, alleen de 4GB versie wordt niet verkocht door de goedkopere leveranciers.
Ja kan inderdaad eens kijken in de bios en USB3 uitschakelen oid.ComTech schreef op maandag 22 februari 2016 @ 13:23:
[...]
Wel vreemd dat het in een nieuw moederbord niet werkt, zou het nog aan de usb controller ofzo kunnen liggen?
- Deze advertentie is geblokkeerd door Pi-Hole -
# | Product | Prijs | Subtotaal |
1 | ASRock QC5000-ITX/PH | € 64,95 | € 64,95 |
1 | Cooler Master Elite 110 | € 38,95 | € 38,95 |
1 | be quiet! System Power 7 300W | € 33,95 | € 33,95 |
Bekijk collectie Importeer producten | Totaal | € 137,85 |
Ander moederbord gepakt, wat moderner en meer power. Ook nog eens passief. Maar toch nog 4x sata en 6x usb3.0
Even kijken of ik nog wat kan bezuinigen op de behuizing, door een tweedehandsje te zoeken. Het is nu een uitdaging geworden om zo dicht mogelijk bij de €100 te komen.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Dat snap ik, alleen kan ik niet weer zo'n grote (tweede) tower case kwijt. Vandaar de voorkeur voor een itx of misschien m-atx build. Ik zag dat je bij amazon.de ook al een H81 itx moederbord met 4x sata hebt voor €53, en een celeron g1610 staat in v&a voor €20. Dan ben je €2 meer kwijt aan deze combo vergeleken met de AMD oplossing. Ook een optie. Maar deze build heeft geen haast, de nieuwe primaire NAS heeft prioriteit. Morgen de resterende componenten bestellenplayer-x schreef op woensdag 24 februari 2016 @ 13:24:
Een tweede hands PC zit makkelijk onder die €100, en werkt beter.
Ik heb de VirtualBox jail draaien maar ik heb problemen om USB devices werkend te krijgen in een virtual machine. Volgens http://www.clearchain.com...ualbox-and-usb2-0-devices komt dat doordat USB 2.0 niet (goed) werkt. Mijn device wordt inderdaad gezien als een 2.0 device. Echter vanwege de beperkte bandbreedte vind ik dat geen mooie oplossing die ze aanraden (set naar usb 1.1). edit: ook het setten naar 1.1 werkt niet.
Volgens "het internet" kan het gewoon maar moet je "virtualbox-ose-additions" hebben/installeren/updaten.
Zie bijv:
https://forums.freebsd.org/threads/38988/
http://www.freshports.org/emulators/virtualbox-ose-additions
en zo zijn er nog meerdere links te vinden.
Alleen bij eigenlijk alles wat ik probeer loop ik tegen problemen aan. Via "pkg install virtualbox-ose-additions" krijg ik de melding dat er wat dependencies nodig zijn (van http://pkg.freebsd.org/freebsd:9:x86:64/latest/All/) maar van alle files wil hij een oudere versie hebben dan daar beschikbaar. Wanneer ik dat zooitje probeer te update krijg ik 120 verplichte packages en als ik die installeer tja dan is die jail over de zeik
Ik kom op het internet ook alleen maar halve reacties tegen van "ja ik las ooit dat ie zoiets moet doen". Linux kennis is zeker aanwezig maar FreeBSD is hier nieuw dus allicht mis ik gewoon een simpele stap
Iemand dit toevallig voor elkaar?
(Gaat om de laatste stable van FreeNAS 9.3)
edit:
De melding die phpVirtualBox geeft bij het starten van een VM met usb2.0 support 'aan'
edit2:Implementation of the USB 2.0 controller not found! Because the USB 2.0 controller state is part of the saved VM state, the VM cannot be started. To fix this problem, either install the 'Oracle VM VirtualBox Extension Pack' or disable USB 2.0 support in the VM settings (VERR_NOT_FOUND)
Nog eea gevonden https://wiki.freebsd.org/VirtualBox waar ik het vanuit die port kan installeren maar:
edit3 (sorry wordt wel een wall-of-text zo):root@virtualbox:~ # cd /usr/ports/emulators/virtualbox-ose-additions && make install clean
===> virtualbox-ose-additions-4.3.36 requires kernel source files in /usr/src.
*** [install] Error code 1
Stop in /usr/ports/emulators/virtualbox-ose-additions.
Wanneer ik de source installeer met:
en dan edit2 nogmaals uitvoer krijg ik uiteindelijkwget ftp://ftp.freebsd.org/pub...amd64/9.3-RELEASE/src.txz
tar -C / -xvzf src.txz
===> Registering installation for p5-Locale-gettext-1.06 as automatic
pkg-static: Unable to access file /usr/ports/devel/p5-Locale-gettext/work/stage/usr/local/lib/perl5/site_perl/mach/5.16/auto/Locale/gettext/gettext.so: No such file or directory
pkg-static: Unable to access file /usr/ports/devel/p5-Locale-gettext/work/stage/usr/local/lib/perl5/site_perl/mach/5.16/Locale/gettext.pm: No such file or directory
pkg-static: Unable to access file /usr/ports/devel/p5-Locale-gettext/work/stage/usr/local/lib/perl5/site_perl/man/man3/Locale::gettext.3.gz: No such file or directory
*** [fake-pkg] Error code 74
Stop in /usr/ports/devel/p5-Locale-gettext.
*** [build-depends] Error code 1
Stop in /usr/ports/misc/help2man.
*** [install] Error code 1
Stop in /usr/ports/misc/help2man.
*** [build-depends] Error code 1
Stop in /usr/ports/textproc/flex.
*** [install] Error code 1
Stop in /usr/ports/textproc/flex.
*** [build-depends] Error code 1
Stop in /usr/ports/devel/kBuild.
*** [install] Error code 1
Stop in /usr/ports/devel/kBuild.
*** [build-depends] Error code 1
Stop in /usr/ports/emulators/virtualbox-ose-additions.
*** [install] Error code 1
Stop in /usr/ports/emulators/virtualbox-ose-additions.
[ Voor 45% gewijzigd door Mattie112 op 24-02-2016 21:27 ]
3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)
Het doel is als volgt:
NAS/Downloadbak.
Met primary doel, zuinigheid
Moment is mijn hekelpunt de traagheid van repareren van mijn downloads
ik heb nu:
Synology DiskStation DS1515
5x 6TB WD green schijven
6GB Memory
Nu heb ik het volgende op het oog, met uitbreiding mogelijkheden door kwa opslag ruimte d.m.v. een controller met extra poorten
De M.2. SSD heb ik over uit vorige build, memory overgenomen via een collega
# | Product | Prijs | Subtotaal |
1 | Intel Pentium G4400 Boxed | € 60,95 | € 60,95 |
1 | Gigabyte GA-B150M-D3H | € 78,95 | € 78,95 |
6 | WD Green HDD, 5TB | € 199,80 | € 1.198,80 |
1 | Fractal Design Node 804 | € 101,95 | € 101,95 |
1 | Kingston HyperX Fury HX421C14FBK4/32 | € 135,95 | € 135,95 |
1 | be quiet! System Power 7 300W | € 33,95 | € 33,95 |
1 | Samsung SM951 (NVMe) 256GB | € 137,75 | € 137,75 |
Bekijk collectie Importeer producten | Totaal | € 1.748,30 |
Gaat dit beter zijn?


Wat is dan nog de reden dat je het zuiniger wil? Want voor het verschil op je bankrekening doe je het blijkbaar niet?
Even niets...
Omdat nu de synology gemiddeld 22 uur op 80% staat met reparen van de files wat resulteert in hoog verbruik volgens de watt meter 89watt.FireDrunk schreef op donderdag 25 februari 2016 @ 15:30:
1700 euro uitgeven om een fractie zuinigere machine te krijgen?![]()
![]()
Wat is dan nog de reden dat je het zuiniger wil? Want voor het verschil op je bankrekening doe je het blijkbaar niet?
Ik heb al verschillende tools geprobeerd om te kijken of hij naar beneden kan, denk hierbij aan nzbget, sabnznd of downloadstation maar resultaat is hetzelfde.
Kosten vallen mee aangezien ik schijven kan lenen om mijn data over te zetten. en dan kaal door te verkopen.
Ik merk dat een synology toch nogal beperkt is kwa kunnen
Is een dedicated downloadpc dan niet een optie, met bv. raid-10 en een i3 tbv uitpakken?wetsteyn schreef op donderdag 25 februari 2016 @ 15:49:
[...]
Omdat nu de synology gemiddeld 22 uur op 80% staat met reparen van de files wat resulteert in hoog verbruik volgens de watt meter 89watt.
Ik heb al verschillende tools geprobeerd om te kijken of hij naar beneden kan, denk hierbij aan nzbget, sabnznd of downloadstation maar resultaat is hetzelfde.
Kosten vallen mee aangezien ik schijven kan lenen om mijn data over te zetten. en dan kaal door te verkopen.
Ik merk dat een synology toch nogal beperkt is kwa kunnen.
Nog even een vraag. Vanavond ga ik de rest van de componenten bestellen voor m'n nieuwe NAS, en hierbij zit ik nog een beetje te twijfelen tussen 3x4TB (€465) in raidz1 of 2x6TB (€518) in een mirror. Natuurlijk betekend dit netto 8TB tegen 6TB. Maar ik heb gelezen dat bij ZFS een schijf vervangen van 4TB enorm langzaam gaat, en zorgt voor een degraded array. Dit zou je niet hebben bij een mirror, dus vraag mij af wat nou interessanter is. Ik heb onlangs m'n huidige hoeveelheid data opnieuw geïnventariseerd, en kwam uit op 4.2TB. 3x6TB zie ik nu nog niet zitten vanwege de nu nog hoge prijs/GB van de 6TB schijven.
[ Voor 31% gewijzigd door Trishul op 25-02-2016 16:25 ]
i3 is zonde denk ik. RAR/ZIP/PAR doet het tegenwoordig best aardig op multicores dus kan je misschien beter voor een goedkope quadcore gaan. Anders zou ik voor een Pentium G4400 ofzo gaan. Beste bang-for-buck in dit verhaal denk ik.
Even niets...
Een DIY NAS, vooral boven de 4 HDDs is nagenoeg in alle gevallen beter, en iig goedkoper.wetsteyn schreef op donderdag 25 februari 2016 @ 15:07:
Gaat dit beter zijn?
Maar veel van je keuzes rijzen grote vragen op.
- Komt de server in het zicht te staan, zo nee, waarom dan een extreem dure kast?
- Wat moet je met 32GB duur geheugen, je moet het echt over hebben dan, want 8GB is meer dan voldoende, tenzij je ook veel VM's wil gaan draaien?
- Wat moet je met een NVMe SSD in een NAS, dat is net zo iets als race banden onder een Trabant, een 60GB SSD voor de OS is meer dan voldoende, zou de NVMe gebruiken voor je (game)PC.
- Blijf je je huidige NAS gebruiken, zo niet waarom dan nieuwe HDDs?
- Wil ZFS gaan draaien, dan zijn er vele betere mobo's
# | Product | Prijs |
1 | Intel Pentium G4400 Tray | € 59,10 |
1 | Gigabyte GA-X150-PLUS WS | € 118,50 |
1 | BitFenix Shinobi Window Zwart duurdere optie | € 62,50 |
1 | Codegen P3327-CA goedkopere optie | € 36,10 |
2 | Kingston ValueRAM KVR21E15S8/4 | € 58,18 |
Met die mobo heb je ook ECC ondersteuning, enige nadeel van deze mobo is dat het geen video uit heeft, en je dus tijdens het bouwen een losse video kaart moet gebruiken, welke je er later weer uit kan halen om stroom te besparen, en dan alleen met een remote desktop naar je server te gaan, wil je wel onboard video, dan kom je een paar tientjes duurder uit met de MSI C236M WS mobo,
[ Voor 5% gewijzigd door player-x op 25-02-2016 16:26 ]
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Euhm nee, € 549,50FireDrunk schreef op donderdag 25 februari 2016 @ 15:30:
1700 euro uitgeven om een fractie zuinigere machine te krijgen?![]()
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Deze vraag staat nog steeds open, heb eerst maar even geprobeerd of het via usb 1.1 wel werkt maar ook dat krijg ik niet voor elkaar ....Mattie112 schreef op woensdag 24 februari 2016 @ 20:15:
Even tussendoor een vraagje hier mbt FreeNAS.
Ik heb de VirtualBox jail draaien maar ik heb problemen om USB devices werkend te krijgen in een virtual machine. Volgens http://www.clearchain.com...ualbox-and-usb2-0-devices komt dat doordat USB 2.0 niet (goed) werkt. Mijn device wordt inderdaad gezien als een 2.0 device. Echter vanwege de beperkte bandbreedte vind ik dat geen mooie oplossing die ze aanraden (set naar usb 1.1). edit: ook het setten naar 1.1 werkt niet.
Volgens "het internet" kan het gewoon maar moet je "virtualbox-ose-additions" hebben/installeren/updaten.
Zie bijv:
https://forums.freebsd.org/threads/38988/
http://www.freshports.org/emulators/virtualbox-ose-additions
en zo zijn er nog meerdere links te vinden.
Alleen bij eigenlijk alles wat ik probeer loop ik tegen problemen aan. Via "pkg install virtualbox-ose-additions" krijg ik de melding dat er wat dependencies nodig zijn (van http://pkg.freebsd.org/freebsd:9:x86:64/latest/All/) maar van alle files wil hij een oudere versie hebben dan daar beschikbaar. Wanneer ik dat zooitje probeer te update krijg ik 120 verplichte packages en als ik die installeer tja dan is die jail over de zeik
Ik kom op het internet ook alleen maar halve reacties tegen van "ja ik las ooit dat ie zoiets moet doen". Linux kennis is zeker aanwezig maar FreeBSD is hier nieuw dus allicht mis ik gewoon een simpele stap
Iemand dit toevallig voor elkaar?
(Gaat om de laatste stable van FreeNAS 9.3)
edit:
De melding die phpVirtualBox geeft bij het starten van een VM met usb2.0 support 'aan'
[...]
edit2:
Nog eea gevonden https://wiki.freebsd.org/VirtualBox waar ik het vanuit die port kan installeren maar:
[...]
edit3 (sorry wordt wel een wall-of-text zo):
Wanneer ik de source installeer met:
[...]
en dan edit2 nogmaals uitvoer krijg ik uiteindelijk
[...]
Vervolgens het setten naar usb 1.1:[root@freenas] ~# usbconfig
ugen0.1: <EHCI root HUB Intel> at usbus0, cfg=0 md=HOST spd=HIGH (480Mbps) pwr=SAVE (0mA)
[..]
ugen0.4: <RTL2838UHIDIR Realtek> at usbus0, cfg=0 md=HOST spd=HIGH (480Mbps) pwr=ON (500mA)
Dan de RTL2838 (laatste in de lijst) stick er uit en er weer in maar helaas[root@freenas] ~# sysctl hw.usb.ehci.no_hs=0
hw.usb.ehci.no_hs: 1 -> 0
ugen0.1: <EHCI root HUB Intel> at usbus0, cfg=0 md=HOST spd=HIGH (480Mbps) pwr=SAVE (0mA)
[..]
ugen0.4: <RTL2838UHIDIR Realtek> at usbus0, cfg=0 md=HOST spd=HIGH (480Mbps) pwr=ON (500mA)
3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)
Is er niet nog een verschil omdat virtualbox in een jail draait, en daardoor misschien niet alle toegang heeft?Mattie112 schreef op donderdag 25 februari 2016 @ 19:23:
[...]
Deze vraag staat nog steeds open, heb eerst maar even geprobeerd of het via usb 1.1 wel werkt maar ook dat krijg ik niet voor elkaar ....
[...]
Vervolgens het setten naar usb 1.1:
[...]
Dan de RTL2838 (laatste in de lijst) stick er uit en er weer in maar helaas
[...]
Of is er geen verschil tussen virtualbox in een jail en virtualbox direct op je OS?
Geen idee, volgensmij heb ik wel toegang tot usb devices (als de virtualboxuser de goede rechten geef) en dat ding wordt ook wel gezien, alleen wanneer ik niet de USB2 controller aan zet gaat de windows VM op zn bek. En zet ik de USB2 controller aan naja dan zeurt ie dus over dat addon pack wat onmogelijk lijkt te zijn om te installeren.Harrie schreef op donderdag 25 februari 2016 @ 19:58:
[...]
Is er niet nog een verschil omdat virtualbox in een jail draait, en daardoor misschien niet alle toegang heeft?
Of is er geen verschil tussen virtualbox in een jail en virtualbox direct op je OS?
Maar als het handiger is om virtualbox niet in een jail te gebruiken let me know. Enige reden dat ik het zo heb is omdat FreeNAS het op die manier heeft
Sowieso heb ik geen ervaring met FreeBSD dus (deze) jails zijn onbekend terrein voor mij
[ Voor 5% gewijzigd door Mattie112 op 25-02-2016 20:02 ]
3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)
Met commando "jls" krijg je een lijst van je jails, met "jexec #nummer csh" log je in op de jail en kan je daar de packages imstalleren hopelijk.
Maar ik ken ook te weinig van de details van freebsd en jails..
[ Voor 11% gewijzigd door Harrie op 25-02-2016 20:28 ]
Verwijderd
Ik zou niet voor 5TB schijven gaan maar voor 6TB schijven. Die gebruiken namelijk 1200GB platters en zijn dus sneller. Ik heb zelf de Green 6TB schijven en ik ben er enorm tevreden over. Zeer zuinig per TB opslag, superstil, weinig vibraties en lekker rap voor 5400rpm - tegen de 175MB/s aan het begin van de capaciteit. Dat is zeker niet slecht.wetsteyn schreef op donderdag 25 februari 2016 @ 15:07:
Twijfel of ik beter voor een DIY NAS kan gaan ipv mijn huidige synology:
Kies je voor DDR4 dan vind ik dat je zeker voor 16GiB modules moet gaan. Desnoods ééntje zodat je altijd nog kunt uitbreiden, maar 2x 16GiB is natuurlijk superleuk en kun je later nog uitbreiden tot 64GiB mocht je dat ooit willen. Dat is nou het hele voordeel van DDR4.
Verder kun je voor een build van deze prijsklasse ook overwegen om voor een ECC capable setup te kiezen.
Ga je ZFS gebruiken of iets anders?
[ Voor 11% gewijzigd door Verwijderd op 25-02-2016 21:35 ]
Hij heeft 4x 8GB thuis liggen die hij wil hergebruiken.Verwijderd schreef op donderdag 25 februari 2016 @ 21:33:
Kies je voor DDR4 dan vind ik dat je zeker voor 16GiB modules moet gaan. Desnoods ééntje zodat je altijd nog kunt uitbreiden, maar 2x 16GiB is natuurlijk superleuk en kun je later nog uitbreiden tot 64GiB mocht je dat ooit willen. Dat is nou het hele voordeel van DDR4.
Maar wat zijn de echte voordelen van 16GB dimm's in een thuis NAS?
Gewoon 2x goedkope 4GB (bij voorkeur ECC) is meer dan voldoende om de simpele QD1 en 2 requists af te handelen van een thuis NAS, en 1 dimm gebruiken heeft zeker ook wel wat nadelen, geen bijzonder grote, maar ze zijn er wel.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Bedankt, hierbij antwoorden op je vragen:).player-x schreef op donderdag 25 februari 2016 @ 16:21:
[...]
Een DIY NAS, vooral boven de 4 HDDs is nagenoeg in alle gevallen beter, en iig goedkoper.
Met die mobo heb je ook ECC ondersteuning, enige nadeel van deze mobo is dat het geen video uit heeft, en je dus tijdens het bouwen een losse video kaart moet gebruiken, welke je er later weer uit kan halen om stroom te besparen, en dan alleen met een remote desktop naar je server te gaan, wil je wel onboard video, dan kom je een paar tientjes duurder uit met de MSI C236M WS mobo,
- Komt de server in het zicht te staan, zo nee, waarom dan een extreem dure kast?
- [b]Hij komt in mijn computerkamer voor zolang het duurt op een meubel te staan. Eventueel is een andere kans wenselijk maar moet niet gaan irriteren kwa uiterlijk.[/b]
- Wat moet je met 32GB duur geheugen, je moet het echt over hebben dan, want 8GB is meer dan voldoende, tenzij je ook veel VM's wil gaan draaien?
- [b]Had ik nog liggen, de bedoeling is om te spelen met FreeNas om te kijken of ik mijn IPcamera's werkend krijg. Zo niet zal ik het via een VM moeten doen?[/b]
- Wat moet je met een NVMe SSD in een NAS, dat is net zo iets als race banden onder een Trabant, een 60GB SSD voor de OS is meer dan voldoende, zou de NVMe gebruiken voor je (game)PC.
- [b]Het idee erachter is zoals je zegt swappen voor mijn SSD in mijn pc naar NVMe[/b]
- Blijf je je huidige NAS gebruiken, zo niet waarom dan nieuwe HDDs?
- [b]Goed punt, ik dacht als ik dan toch alles nieuw koop is, waarom geen schijven maar is wel een dure investering dan :).[/b]
- Wil ZFS gaan draaien, dan zijn er vele betere mobo's
- [b]Bedoeling is FreeNas, als downloadstation en ZFS als opslagcentrum i.c.m. aantal cronjob om back-ups te maken van de pc's in huis.[/b]
- Is 8GB echt genoeg voor 2 VM's?
- Heeft FreeNas geen baat bij meer geheugen?
- Is ECC geheugen zoveel beter dan gewoon memory?
- Heeft een extra SSD zin voor tijdelijke bestanden voor downloads zodat de spintime van de schijven laag blijft?
1. Ligt eraan wat de VM's doenwetsteyn schreef op vrijdag 26 februari 2016 @ 08:59:
De vragen die mij oproepen zijn:
Is 8GB echt genoeg voor 2 VM's?
Heeft FreeNas geen baat bij meer geheugen?
Is ECC geheugen zoveel beter dan gewoon memory?
Heeft een extra SSD zin voor tijdelijke bestanden voor downloads zodat de spintime van de schijven laag blijft?
2. Meer geheugen is meer ARC. Is het nodig? Ligt aan de workload en waar je hem voor gebruikt
3. Voor thuis gebruik niet echt. Maar er is genoeg te vinden in dit topic over ECC en ZFS
4. Geen idee.
Ja, de packages installeer in in de jail inderdaad.Harrie schreef op donderdag 25 februari 2016 @ 20:19:
Installeer je die packages wel in je jail? Ik heb de indruk dat je ze op je basis Freenas os installeert.
Met commando "jls" krijg je een lijst van je jails, met "jexec #nummer csh" log je in op de jail en kan je daar de packages imstalleren hopelijk.
Maar ik ken ook te weinig van de details van freebsd en jails..
3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)
wetsteyn schreef op vrijdag 26 februari 2016 @ 08:59:
De vragen die mij oproepen zijn:
- Is 8GB echt genoeg voor 2 VM's?
- Heeft FreeNas geen baat bij meer geheugen?
- Is ECC geheugen zoveel beter dan gewoon memory?
- Heeft een extra SSD zin voor tijdelijke bestanden voor downloads zodat de spintime van de schijven laag blijft?
- Als je permanent twee VM's draait kan het wat aan de krappe kant zijn, maar aangezien je geheugen hebt liggen zou ik zeggen, start met 16GB, en kijk hoeveel geheugen je vrij hebt tijdens piek gebruik.
- Ja en nee, ja ZFS heeft baad bij meer geheugen, vooral in zakelijk gebruik waar men bv een flinke database draait, dan is veel geheugen lekker als cachegeheugen voor files, een video server voor streaming maakt er niet echt gebruik van.
- Persoonlijk zit ik in het kamp dat zegt, ECC is niet echt heel noodzakelijk voor thuis gebruik, maar daar je toch nieuw koopt, zou ik zelf die 100 euro extra graag uitgeven voor de extra veiligheid die het je geeft, lees deze link en bepaal voor je zelf, de voor en nadeel (kosten) argumenten worden daar goed besproken.
- Persoonlijk zou ik geen SSD gebruiken voor tijdelijke DL's, zelf zou ik een of twee 2.5'' HDDs gebruiken voor de OS en tijdelijke downloads.
C:\ OS: SSD. (oude 64GB Samsung 830)
D:\ Tijdelijke schijf: 1TB 2.5'' HDD. (Gebruik ik voor torrent's en nieuws groepen tijdelijke DL)
E:\ Uitpak schijf: 2TB 2.5'' HDD. (Gebruik ik voor het uitpaken van torrent's en nieuws groepen, en de schijf waar ik het meeste nieuwe DL's van af bekijk, voor dat wat ik wil bewaren archiveer, en van af weggooi dat ik niet wil bewaren)
F:\ Archief schijven: 10x 8TB Archive BtrFS.(voor permanente opslag van A/V en data)
G:\ Backup belangrijke data: 2x 4TB HGST Ultrastar. (prive data zoals documenten en foto/video's)
H:\ Muziek schijf: 4TB Green. (voor het streamen van mijn muziek files naar HTPCs en audio spelers))
X:\ Netwerk schijf voor offline backup op aparte server van belangrijke data.
Z:\ Offsite backup van belangrijke data.
Als je je server op deze manier opbouw kan je de uptime van je array makkelijk met ongeveer 90% terug brengen van de uptime schat ik zo in.
Schijven C, D en E kunnen trouwens ook gecombineerd worden op een of twee schijven, als op een dergelijke manier je server bouwen, en kan je het energie verbruik, en het gevaar van het gebruik van goedkope consumeren HDDs behoorlijk terug brengen.
Daarnaast als je op deze manier je array gebruikt heb je veel minder fragmentatie van je data op je array.
Ik gebruik ook doelbewust zoveel mogelijk 2.5'' schijven, daar die echt veel minder stroom verbruiken dan 3.5'' schijven, daarnaast door het gebruik te maken van een tijdelijke download (en) uitpak schijf, verminder je ook de kans op crashes, daar je dan alle zwaardere I/O's op een losse schijf doet, die weinig invloed heeft op je systeem als die crasht.
[ Voor 7% gewijzigd door player-x op 26-02-2016 10:42 ]
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Verwijderd
Zodat je kunt uitbreiden. Als je alleen simpele dingen doet, heb je sowieso geen high end systeem nodig, en kun je met een Braswell setje voor 150 euro klaar zijn. Heb je wel meer nodig zoals het draaien van VMs, dan vind ik het zelf beter om dan gelijk in wat leuke dingen te investeren, dan kun je daar in de tijd meer mee gaan doen mocht je willen uitbreiden. Zoals beginnen met één reepje van 16GiB en later nog een reepje erbij en wie weet later nog weer uitbreiden.player-x schreef op vrijdag 26 februari 2016 @ 04:26:
Maar wat zijn de echte voordelen van 16GB dimm's in een thuis NAS?
RAM geheugen is natuurlijk heel fijn, ook voor thuis zodat je heel veel metadata kunt cachen bijvoorbeeld. Grote directories zijn dan supersnel en je VMs hebben daar ook baat bij. Bovendien snoepen VMs sowieso RAM geheugen op en je wilt juist dat er ook wat voor ZFS overblijft. Voor twee VMs zou ik 16GiB al als minimum zien wil je nog leuke performance ernaast. Een jail is overigens geen VM, die deelt de ARC/VMM met dezelfde kernel en heeft dus minder eisen aan RAM.
Duidelijkplayer-x schreef op vrijdag 26 februari 2016 @ 10:33:
[...]Zelf heb ik:
- Als je permanent twee VM's draait kan het wat aan de krappe kant zijn, maar aangezien je geheugen hebt liggen zou ik zeggen, start met 16GB, en kijk hoeveel geheugen je vrij hebt tijdens piek gebruik.
- Ja en nee, ja ZFS heeft baad bij meer geheugen, vooral in zakelijk gebruik waar men bv een flinke database draait, dan is veel geheugen lekker als cachegeheugen voor files, een video server voor streaming maakt er niet echt gebruik van.
- Persoonlijk zit ik in het kamp dat zegt, ECC is niet echt heel noodzakelijk voor thuis gebruik, maar daar je toch nieuw koopt, zou ik zelf die 100 euro extra graag uitgeven voor de extra veiligheid die het je geeft, lees deze link en bepaal voor je zelf, de voor en nadeel (kosten) argumenten worden daar goed besproken.
- Persoonlijk zou ik geen SSD gebruiken voor tijdelijke DL's, zelf zou ik een of twee 2.5'' HDDs gebruiken voor de OS en tijdelijke downloads.
C:\ OS: SSD. (oude 64GB Samsung 830)
D:\ Tijdelijke schijf: 1TB 2.5'' HDD. (Gebruik ik voor torrent's en nieuws groepen tijdelijke DL)
E:\ Uitpak schijf: 2TB 2.5'' HDD. (Gebruik ik voor het uitpaken van torrent's en nieuws groepen, en de schijf waar ik het meeste nieuwe DL's van af bekijk, voor dat wat ik wil bewaren archiveer, en van af weggooi dat ik niet wil bewaren)
F:\ Archief schijven: 10x 8TB Archive BtrFS.(voor permanente opslag van A/V en data)
G:\ Backup belangrijke data: 2x 4TB HGST Ultrastar. (prive data zoals documenten en foto/video's)
H:\ Muziek schijf: 4TB Green. (voor het streamen van mijn muziek files naar HTPCs en audio spelers))
X:\ Netwerk schijf voor offline backup op aparte server van belangrijke data.
Z:\ Offsite backup van belangrijke data.
Als je je server op deze manier opbouw kan je de uptime van je array makkelijk met ongeveer 90% terug brengen van de uptime schat ik zo in.
Schijven C, D en E kunnen trouwens ook gecombineerd worden op een of twee schijven, als op een dergelijke manier je server bouwen, en kan je het energie verbruik, en het gevaar van het gebruik van goedkope consumeren HDDs behoorlijk terug brengen.
Daarnaast als je op deze manier je array gebruikt heb je veel minder fragmentatie van je data op je array.
Ik gebruik ook doelbewust zoveel mogelijk 2.5'' schijven, daar die echt veel minder stroom verbruiken dan 3.5'' schijven, daarnaast door het gebruik te maken van een tijdelijke download (en) uitpak schijf, verminder je ook de kans op crashes, daar je dan alle zwaardere I/O's op een losse schijf doet, die weinig invloed heeft op je systeem als die crasht.
Dan gaat hij zo worden zonder HDD's.
# | Product | Prijs | Subtotaal |
1 | Intel Pentium G4400 Boxed | € 60,95 | € 60,95 |
1 | MSI C236M WORKSTATION | € 169,90 | € 169,90 |
1 | Delock PCI Express Card > 10 x internal SATA 6 Gb/s – Low Profile Form Factor | € 86,01 | € 86,01 |
1 | NZXT Source Elite 210 | € 48,95 | € 48,95 |
1 | Kingston ValueRAM KVR21N15D8/16 | € 106,- | € 106,- |
1 | be quiet! System Power 7 300W | € 33,95 | € 33,95 |
Bekijk collectie Importeer producten | Totaal | € 505,76 |
er komen dan 1 128GB SSD in als OS schijf, 2de SSD 256 for download+temp map.
rest zal disks zijn
Zelf zou ik gewoon beginnen met 2x 8GB ECC geheugen ipv 1x 16GB en kost het zelfde, CPU's hebben niet voor niets twee geheugen kanalen, het zal waarschijnlijk voor jouw doel weinig uit maken, maar het kan in sommige gevallen wel schelen, en je kan er nog steeds 16 of zelfs 32GB bij prikken, als 16GB toch niet voldoende zou blijken te zijn.wetsteyn schreef op vrijdag 26 februari 2016 @ 11:11:
er komen dan 1 128GB SSD in als OS schijf, 2de SSD 256 for download+temp map.
rest zal disks zijn.
Ben zelf niet zo heel dol op SSDs als DL schijf, HDDs zijn net iets betrouwbaarder als je veel DL, maar vooral veel goedkoper per GB, en nog steeds snel zat voor DL's en netwerk, maar als je er een neemt, dan kan je imho het beste een nemen met MLC, die zijn gewoon wat betrouwbaarder qua slijtage van cellen, zeker als je veel torrents download, dat geldt allemaal uiteraard niet als je NVMe SSD er voor gaat gebruiken omdat je die toch over hebt.
[ Voor 4% gewijzigd door player-x op 26-02-2016 12:26 ]
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
(Ging je nou voor Freenas?)wetsteyn schreef op vrijdag 26 februari 2016 @ 11:11:
[...]
Duidelijk.
Dan gaat hij zo worden zonder HDD's.
# Product Prijs Subtotaal 1 Intel Pentium G4400 Boxed € 60,95 € 60,95 1 MSI C236M WORKSTATION € 169,90 € 169,90 1 Delock PCI Express Card > 10 x internal SATA 6 Gb/s – Low Profile Form Factor € 86,01 € 86,01 1 NZXT Source Elite 210 € 48,95 € 48,95 1 Kingston ValueRAM KVR21N15D8/16 € 106,- € 106,- 1 be quiet! System Power 7 300W € 33,95 € 33,95 Bekijk collectie
Importeer productenTotaal € 505,76
er komen dan 1 128GB SSD in als OS schijf, 2de SSD 256 for download+temp map.
rest zal disks zijn.
Freenas installeert op een usbstick, en wordt daarna RO gemount (alleen bij wijzigingen vanuit GUI wordt ie ff RW)
Zou behoorlijk zonde zijn daar een SSD voor te gebruiken, de jails die je aanmaakt zou je wel op die SSD kunnen zetten, en vanuit daar een jail met VM opbouwen.
Freenas kan je ook prime op een SSD zetten, daar die gewoon betrouwbaarder zijn dan usb sticks, ik zou daar gewoon een oude SSD voor gebruiken, en de meer prijs van een goedkope SSD vs een goede stick is helemaal niet zo enorm groot.tweedebas schreef op vrijdag 26 februari 2016 @ 12:57:
(Ging je nou voor Freenas?)
Freenas installeert op een usbstick, en wordt daarna RO gemount (alleen bij wijzigingen vanuit GUI wordt ie ff RW)
Zelf zou ik geen FreeNAS gebruiken, Linux heeft tegenwoordig vergelijkbare ZFS ondersteuning, betere hardware ondersteuning, en gemakkelijker in het gebruik.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Ik wil op mijn nieuwe home server/NAS Xpenology bare metal of op ESXi installeren met daarbij ruimte houden om met VM's te putsen en plex te draaien.
De afweging is 1151 met "desktop" hardware en ruimte voor 10 Schijven (maar makkelijk uit te beiden naar 14 met 1 kabeltje erbij) of 1150 met ECC memory en potentieel ruimte voor 10 Schijven. (maar ook zeer makkelijk uitbreidbaar door er een controller bij te zetten)
Qua prijs maakt het niet zoveel uit maar beide systemen zijn wezenlijk anders in opzet. Mag ik jullie mening? Houdt er rekening mee dat ik nog 5x3TB schijven uit mijn oude NAS wil meenemen.
# | Product | Prijs | Subtotaal |
1 | Intel Core i3-6100 Boxed | € 122,40 | € 122,40 |
1 | Gigabyte GA-B150M-DS3P | € 87,50 | € 87,50 |
2 | Seagate Desktop HDD (DM000), 5TB | € 149,94 | € 299,88 |
1 | NZXT H440 New Edition Zwart/Zwart Closed | € 112,95 | € 112,95 |
1 | Delock Cable mini SAS 36pin > 4x SATA metal (SFF 8087 > 4x SATA) 50cm | € 16,70 | € 16,70 |
1 | Kingston HyperX Fury HX421C14FB/8 | € 33,95 | € 33,95 |
1 | Supermicro AOC-SASLP-MV8 | € 123,49 | € 123,49 |
1 | XFX TS 650W 80+ Gold | € 77,35 | € 77,35 |
Bekijk collectie Importeer producten | Totaal | € 874,22 |
# | Product | Prijs | Subtotaal |
1 | Intel Core i3-4170 Boxed | € 117,- | € 117,- |
1 | ASRock C226 WS | € 232,72 | € 232,72 |
2 | Seagate Desktop HDD (DM000), 5TB | € 149,94 | € 299,88 |
1 | NZXT H440 New Edition Zwart/Zwart Closed | € 112,95 | € 112,95 |
1 | Crucial CT102472BD160B | € 48,50 | € 48,50 |
1 | XFX TS 650W 80+ Gold | € 77,35 | € 77,35 |
Bekijk collectie Importeer producten | Totaal | € 888,40 |
Mijn stuff -> http://gathering.tweakers.net/forum/view_message/43289117
Ja dat kan, maar is nogal zonde aangezien (voor Freenas standaard install) het hele device dan gebruikt wordt, vervolgens wordt het OS op ramdisk geladen. Dus je leest het 1 keer uit en daarna maakt de snelheid van de stick ook niet meer uit.player-x schreef op vrijdag 26 februari 2016 @ 13:23:
[...]
Freenas kan je ook prime op een SSD zetten, daar die gewoon betrouwbaarder zijn dan usb sticks, ik zou daar gewoon een oude SSD voor gebruiken, en de meer prijs van een goedkope SSD vs een goede stick is helemaal niet zo enorm groot.
Zelf zou ik geen FreeNAS gebruiken, Linux heeft tegenwoordig vergelijkbare ZFS ondersteuning, betere hardware ondersteuning, en gemakkelijker in het gebruik.
Ook ben je een sata aansluiting kwijt, en kan je ook gewoon 2 of 3 USB stick in mirror zetten als je bang bent voor falende sticks.
Hoef ik niet eens over na te denken, de tweede set is de set die ik meteen zou nemen, wel zou ik een aparte DL (en) OS(*) disk er bij nemen, net zoals ik bij wetsteyn heb uitgelegd, dat maakt je systeem betrouwbaarder en zuiniger.janser01 schreef op vrijdag 26 februari 2016 @ 13:52:
Qua prijs maakt het niet zoveel uit maar beide systemen zijn wezenlijk anders in opzet.
(*) Als je van een USB stick werkt is dat natuurlijk niet nodig.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
En welke exotische hardware ga je in je nieuwe nas zetten?player-x schreef op vrijdag 26 februari 2016 @ 13:23:
Zelf zou ik geen FreeNAS gebruiken, Linux heeft tegenwoordig vergelijkbare ZFS ondersteuning, betere hardware ondersteuning, en gemakkelijker in het gebruik.
En makkelijker in gebruik is vooral een aanname vanuit jouw perspective en wellicht jouw gebrek aan kennis van het FreeBSD OS.
Want duidelijkheid en goed gedocumenteerd zijn juist 2 sterke punten van FreeBSD
fanboi out
Verwijderd
Bij FreeNAS is de situatie wel enigszins problematischer omdat zij heel oude BSD releases gebruiken (9.x). Ze lopen eigenlijk twee major branches achter. Dat betekent doorgaans dat heel nieuwe netwerkadapters niet werken. Een addon Intel netwerkkaartje van drie tientjes is dan de oplossing. Maar bij andere BSD-based derivatives is dit doorgaans niet nodig omdat die nieuwere BSD releases gebruiken.
Dat klinkt alsof je eerder iets anders zou aanraden?Verwijderd schreef op vrijdag 26 februari 2016 @ 15:22:
FreeBSD heeft mindere hardware support op het gebied van WiFi adapters en grafische GPUs. Dat gebruik je niet heel vaak op een server. FreeBSD is dan ook een echt server operating system.
Bij FreeNAS is de situatie wel enigszins problematischer omdat zij heel oude BSD releases gebruiken (9.x). Ze lopen eigenlijk twee major branches achter. Dat betekent doorgaans dat heel nieuwe netwerkadapters niet werken. Een addon Intel netwerkkaartje van drie tientjes is dan de oplossing. Maar bij andere BSD-based derivatives is dit doorgaans niet nodig omdat die nieuwere BSD releases gebruiken.
Zou kunnen, heb FreeNAS een hele tijd niet gebruikt, maar van wat ik begrijp, heeft (of iig had) Linux gewoon betere ondersteuning, vooral voor controllers.matty___ schreef op vrijdag 26 februari 2016 @ 15:07:
En welke exotische hardware ga je in je nieuwe nas zetten?Het is beetje achterhaalt dat minder werkt, zeker op een server kom je dat niet gauw tegen.
Linux is gewoon een uitgebreidere OS, daarnaast was tot een jaar geleden VM's nog redelijk experimenteel op FreeNAS.En makkelijker in gebruik is vooral een aanname vanuit jouw perspective en wellicht jouw gebrek aan kennis van het FreeBSD OS.
Ja maar dat geld ook voor Linux, dat had ik ook gewoon snel aan de gang, op best een complexe server.Want duidelijkheid en goed gedocumenteerd zijn juist 2 sterke punten van FreeBSD
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
edit:
Hoewel ik toe moet geven dat ik geen idee heb of er niet ook gewoon een losse interface voor linux is
[ Voor 46% gewijzigd door Mattie112 op 26-02-2016 16:02 ]
3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)
Op welk gebied is het uitgebreider?player-x schreef op vrijdag 26 februari 2016 @ 15:29:
Linux is gewoon een uitgebreidere OS, daarnaast was tot een jaar geleden VM's nog redelijk experimenteel op FreeNAS.
Greepje:
- Beheer interfaces (Cockpit?)
- Drivers (Nieuwste LSI Controllers, Nieuwste Intel GPU's, Diverse Fiber Channel adapters)
- Power usage (gaat hand-in-hand met vorige puntje)
- Package management (Yum, APT, DNF, hell, zelfs pacman van ArchLinux is beter dan FreeBSD's counterpart).
- DKMS
- Virtualisatie support (Virtualbox Guest Additions, VMWare Kernel module support )
Wil je nog meer?
[ Voor 5% gewijzigd door FireDrunk op 26-02-2016 16:17 ]
Even niets...
Beheer: Vast een 3rd party tool te krijgen.
Driver: Punt is aangehaald. FreeNAS loopt beetje achter FreeBSD current is netjes up to date. Zeker de LSI drivers
Power: Geen idee maar dat weet jij ook niet of heb je een test gedaan? Tickless kernel heeft FreeBSD
Package: PkgNG en dat werkt buiten gewoon goed of heb je use case uit ervaring waar dat niet zo is?
Virt: Xen support is er, Virtualbox draait, en native is er bhyve
Draait op alle grote cloud providers.
Zoiets?
Verwijderd
Ik heb onder BSD lager idle verbruik geteld dan onder Ubuntu Linux toen ik een tijdje geleden testte. Ten tijde van: Stroomverbruik Processor+Moederbord+Geheugen. Dus dat Linux per definitie minder verbruikt zou ik willen bestrijden. BSD ondersteunt namelijk ACPI throttling tot 400MHz terwijl Linux alleen de C-states ondersteunt - standaard in elk geval misschien valt dit ook te tunen.
Qua virtualisatie is Linux wel beter. Zo heeft Virtualbox geen extension pack voor FreeBSD en dus mis je USB2/USB3 support en RDP; USB1 en VNC ondersteuning is er wel gewoon. En KVM is toch echt in betere staat dan Bhyve, al doet Bhyve het best aardig. Ik mis wel VNC/RDP ondersteuning.
Dus Linux is denk ik vooral een voorkeur van wat je gewend bent of als je specifieke wensen hebt. Voor een pure ZFS NAS is BSD gewoon het beste.
Wow, die kennis is oudVerwijderd schreef op vrijdag 26 februari 2016 @ 18:10:
BSD ondersteunt namelijk ACPI throttling tot 400MHz terwijl Linux alleen de C-states ondersteunt - standaard in elk geval misschien valt dit ook te tunen.
Linux heeft zo veel meer dan BSD.
- Hardware assisted tickless kernel, Virtualisatie Rescheduling (tickless kernel voor je VM's), PC-States, GPU P & C States, PCH P&C States
(om er maar even wat termen door heen te mieteren).
Dan hebben we het nog niet eens over dingen als DIPM, HIPM, ASPM.
En wat dacht je van NVME?
Intel ontwikkeld direct aan de Linux kernel voor device support. Ik zie regelmatig in de mailing lists dat Intel al nieuwe code heeft gereleased die zelfs op geen enkel windows platform werkt
Zo is support voor nieuwe GPU's vaak al heel snel te vinden in Linux, waar de Windows drivers nog geupdatet moeten worden.
[ Voor 20% gewijzigd door FireDrunk op 26-02-2016 18:38 ]
Even niets...
1) HGST Ultrastar 7K6000 6TB
2) HGST Deskstar NAS v2 6TB
3) Seagate Archive HDD 8TB
Voordeel van de Seagate disken is dat ze iets goedkoper zijn en 33% meer storage leveren. Echter is HGST een stuk betrouwbaarder. HGST HE8 of HE10 disken zijn helaas nog te prijzig, want HE8 8TB is ruim 2x de prijs van een Seagate.
... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...
Wil je er echt iets van VM's (bij) zetten, zou ik voor de HGST Deskstars gaan. SMR is funest voor random writes.
Ook zou ik zonder ZFS denk ik niet voor SMR gaan. Ik blijft toch het gevoel hebben dat als er bij SMR tijdens een write iets mis gaat, je potentieel andere sectoren sloopt, waardoor een SMR schijf het risico op data corruptie verhoogt.
[ Voor 32% gewijzigd door FireDrunk op 26-02-2016 19:02 ]
Even niets...
Verwijderd
Veel van de dingen die noemt ken ik niet, PCH P&C states bijvoorbeeld. De PCH is de chipset (southbridge) maar wat daar verder aan te klokken valt zou ik niet weten. SATA bijvoorbeeld kan met DIPM tot 0 watt teruggebracht worden. Dat wil zeggen: het uitschakelen van de SATA controller in het BIOS en het gebruik van DIPM (met of zonder SSDs erop) maakt geen enkel verschil (minder dan 0,1 watt).
Wat over NVMe? Dat ondersteunt BSD toch ook gewoon? Zo ouderwets is BSD niet hoor. Het loopt alleen gigantisch achter als desktop OS. Daarvoor moet je het niet willen gebruiken, tenzij je echt BSD fan bent.
Intel werkt ook samen met BSD, maar BSD devs hebben vooral baat bij goede documentatie. Intel is daar doorgaans vrij goed in.
Ik snap niet hoe je dat voor elkaar krijgt, maar ik denk dat het vooral aan je Ubuntu installatie / versie ligt.
Kijk vooral met powertop, dat is de tool om support voor bepaalde power saving features te bekijken.
PS: De laatste keer dat ik keek, deed BSD nog geen NVMe, (en de daarbij behorende power saving features).
Dus daar lig ik achter
PPS: jij zegt 400Mhz, maar bij de allerlaagste P&C States is er geen clocksignaal meer, dus draait je CPU feitelijk niet meer.
zie hier:
Idle 96.3% | Idle 99.2% | Idle 99.4% 99.7% 1200 MHz 2.7% | 1200 MHz 0.6% | 1.71 GHz 0.0% 0.2% 1.71 GHz 0.1% | 1.71 GHz 0.0% | 1200 MHz 0.4% 0.1% 1400 MHz 0.1% | 1300 MHz 0.3% | 1300 MHz 0.2% 0.0% 1300 MHz 0.6% | 1400 MHz 0.0% | 1400 MHz 0.0% 1500 MHz 0.0% | 1500 MHz 0.0% | 1500 MHz 0.0% 1.60 GHz 0.0% | 1.60 GHz 0.0% | 1.60 GHz 0.0% 1.80 GHz 0.0% | 1.80 GHz 0.0% | 1.80 GHz 0.0% 1.91 GHz 0.0%
[ Voor 47% gewijzigd door FireDrunk op 26-02-2016 19:07 ]
Even niets...
Verwijderd
Ik vind dat je veel uitgeeft voor een dualcore en dan relatief weinig krijgt ten opzichte van de prijs die je betaalt. Ik zelf ben eerder: of je neemt een goedkope J1900/N3150 of je gaat voor een echte quadcore en dan ook gelijk maar ECC erbij. Daartussen vind ik dat je niet zoveel waar voor je geld krijgt. Dat is een overweging.janser01 schreef op vrijdag 26 februari 2016 @ 13:52:
Na HEEL lang puzzelen met tientallen combinaties heb ik mijn keuze uiteindelijk tot 2 systemen kunnen reduceren.
Verder zou ik zelf aanraden je schijven te vervangen voor WD Greens en dan niet 5TB maar 6TB want die zijn sneller (1200GB platters).
Je SAS controller is echt slecht die moet je niet nemen! Neem een LSI SAS controller en niet die controller op basis van Marvell chipset. Je kunt eventueel ook voor de Delock gaan, maar die wordt nog niet goed door BSD ondersteund. Ik verwacht dat dat wel gaat komen overigens: http://www.delock.com/produkte/G_89384/merkmale.html. Deze is veel zuiniger en goedkoper dan de LSI SAS controller en toch 2 poorten meer. Ondersteunt ook gewoon TRIM/APM/AAM enzovoorts.
Ga je voor DDR4 dan kun je 16GiB UDIMM modules overwegen. Dat is nou het voordeel van DDR4 namelijk. Leuk als je later meer met je machine wilt doen. Vooral als je toch voor de quadcore+ECC route gaat dan zou ik dat doen. Voor J1900/N3150 braswell met DDR3 zijn 8GiB modules de max.
Verder is je voeding misschien aan de ruime kant? Beter iets minder vermogen waarschijnlijk. Scheelt ook weer iets qua aanschafprijs.
Juist dat had ik ook begrepen (zie Mattie112 in "Het grote DIY RAID NAS topic deel 3"). Echter ik heb dus het probleem dat een USB2 device niet werkt en dat ik hem niet kan forceren naar USB1, voor het geval je mijn post over het hoofd hebt gezien: toevallig enig idee hoe dat op te lossen?Verwijderd schreef op vrijdag 26 februari 2016 @ 18:10:
[..]
Qua virtualisatie is Linux wel beter. Zo heeft Virtualbox geen extension pack voor FreeBSD en dus mis je USB2/USB3 support en RDP; USB1 en VNC ondersteuning is er wel gewoon. En KVM is toch echt in betere staat dan Bhyve, al doet Bhyve het best aardig. Ik mis wel VNC/RDP ondersteuning.
[..]
3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)
Verwijderd
De package bedoel je mee de CPU package in die zin dat de CPU tegenwoordig CPU+GPU+northbridge en soms ook southbridge is, correct? Ik weet niet precies wat de extra ondersteuning die Linux dan zou hebben daadwerkelijk toevoegt qua idle verbruik? Weet jij dat?FireDrunk schreef op vrijdag 26 februari 2016 @ 19:04:
Woops, ik had Package moeten zeggen ipv PCH. Daar mist BSD volgens mij nog wat stapjes in.
Tja, kwestie van default powerd op BSD met een standaard Ubuntu installatie. Kan zijn dat nieuwere Ubuntu versies en dus ook Linux kernels ook verbeteringen hebben.Ik snap niet hoe je dat voor elkaar krijgt, maar ik denk dat het vooral aan je Ubuntu installatie / versie ligt.
Maar mijn interpretatie was dat ACPI states het toelaten dat je CPU tot 400MHz terugklokt. Dit gaat echter wel ten koste van prestaties omdat het relatief lang duurt voordat je CPU weer op een hoge frequentie draait. Bij de C-states is dat supersnel bij moderne chips en dus kun je bij BSD de ACPI throttling ook uitschakelen. ZFSguru heeft in de /boot/loader.conf bijvoorbeeld opgenomen:
1
2
3
| # disable ACPI CPU frequency throttling (better performance, higher idle power) hint.p4tcc.0.disabled="1" hint.acpi_throttle.0.disabled="1" |
NVMe wordt al sinds FreeBSD 9.2 ondersteund. Dus misschien loop je achter op BSD gebied.PS: De laatste keer dat ik keek, deed BSD nog geen NVMe, (en de daarbij behorende power saving features).
Dus daar lig ik achter
man nvme
Ik weet het ook niet precies. Maar zonder ACPI throttling was het volgens mij 1200MHz en met ACPI throttling 400MHz. Ik heb destijds duidelijk metingen gedaan dat dit best nog wel iets scheelde in het idle verbruik. Misschien tijd om die metingen op zowel BSD als Linux nog eens te herhalen. Ik heb hier echter enkel Ivy Bridge en Haswell chips, geen Skylake, mocht dat nog uitmaken.PPS: jij zegt 400Mhz, maar bij de allerlaagste P&C States is er geen clocksignaal meer, dus draait je CPU feitelijk niet meer.
Huidige situatie:
OS: Windows Server
2x 500GB RAID 1
met 32GB ssd voor cache (Intel RST)
3x 3TB RAID 5 (=6tb) aan 'storage'.
1x 2TB 'los' (backup disk van een vriend die een externe locatie wil)
Niet in gebruik bij huidige server maar wel beschikbaar:
120GB Samsung EVO SSD
Dus hoe ga ik mijn nieuwe systeem inrichten?
De storage array wil ik eigenlijk 1:1 over zeggen. Hier staat de bulk van de stuff en wat mij betreft blijft dit ook storage (backups, films etc). Deze disks zullen niet heel veel load krijgen, of in elk geval niet veel aan random IO.
Dan 2x 500GB (RAID1). Deze array is nu in gebruik als OS disk (icm SSD cachine) voor Windows Server. Deze wil ik gaan gebruiken om (o.a.) de virtual harddisk op te zetten voor ook de Windows VM. Ik zou deze ruimte ook mooi kunnen gebruiken voor wat overige zaken. Lijkt me dan ook handig om voor deze set caching te gebruiken? (L2ARC?)
Ik zit nog even te twijfelen om misschien hier 2x 1TB van te maken, maar ik heb 1 disk met 37 dode sectors (en 1 goede 1tb disk) dusja of dat wijsheid is...
In het kort denk ik dus aan:
- 3x 3TB RAIDZ
- 2x 500GB MIRROR + 120gb SSD voor L2ARC
Overige specs:
- 8-core atom CPU
- 32GB ECC ram
Is dit logisch? Gaat de SSD nut hebben? Wil zo'n 4 tot 8gb ram voor VM'(s) reserveren dus volgensmij is er nog genoeg ram beschikbaar. Is het handig om de SSD gewoon toe te voegen en indien het niet nuttig blijkt te zijn hem weg te halen?
Of kan ik beter een andere setup gebruiken?
3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)
Even niets...
Bedankt voor je reactie!Verwijderd schreef op vrijdag 26 februari 2016 @ 19:08:
[...]
Ik vind dat je veel uitgeeft voor een dualcore en dan relatief weinig krijgt ten opzichte van de prijs die je betaalt. Ik zelf ben eerder: of je neemt een goedkope J1900/N3150 of je gaat voor een echte quadcore en dan ook gelijk maar ECC erbij. Daartussen vind ik dat je niet zoveel waar voor je geld krijgt. Dat is een overweging.
Verder zou ik zelf aanraden je schijven te vervangen voor WD Greens en dan niet 5TB maar 6TB want die zijn sneller (1200GB platters).
Je SAS controller is echt slecht die moet je niet nemen! Neem een LSI SAS controller en niet die controller op basis van Marvell chipset. Je kunt eventueel ook voor de Delock gaan, maar die wordt nog niet goed door BSD ondersteund. Ik verwacht dat dat wel gaat komen overigens: http://www.delock.com/produkte/G_89384/merkmale.html. Deze is veel zuiniger en goedkoper dan de LSI SAS controller en toch 2 poorten meer. Ondersteunt ook gewoon TRIM/APM/AAM enzovoorts.
Ga je voor DDR4 dan kun je 16GiB UDIMM modules overwegen. Dat is nou het voordeel van DDR4 namelijk. Leuk als je later meer met je machine wilt doen. Vooral als je toch voor de quadcore+ECC route gaat dan zou ik dat doen. Voor J1900/N3150 braswell met DDR3 zijn 8GiB modules de max.
Verder is je voeding misschien aan de ruime kant? Beter iets minder vermogen waarschijnlijk. Scheelt ook weer iets qua aanschafprijs.
De processor afweging neem ik mee. Ik dacht neem een i3 voor het geval je Plex wilt gaan draaien en eventueel wat met VM's wilt gaan prutsen. Een beetje middle of the road en als je dan toch echt meer prik nodig hebt dan kan je nog altijd de processor vervangen en er wat krachtigers in prikken.
De Greens zijn in overweging genomen. Ze zijn echter ook weer wat prijziger. Alle kleine beetjes maken toch weer een hoop.
Over de controller had ik ook wat twijfels maar hij wordt wel door Xpenology ondersteund. Dat was voor mij de reden om hem in de lijst te zetten. De Delock is op papier de mooiere optie, 10 SATA poorten voor die prijs. Maar ik weet niet of die controller ook door Xpenology wordt ondersteund. Als ik daar een positief antwoord op kan vinden dan gaat de SAS controller van de lijst :-). Is Xpenology/DSM gebaseerd op BSD? Dan zie ik het wellicht zwaar in voor die controller.
16Gb ram is eigenlijk ook weer hetzelfde verhaal als de schijven, ik kan er toch nog altijd 16gb in prikken en die 8Gb naar mijn desktop moven (i5 6500).
De voeding is gekozen op het aantal SATA poorten. ik heb 5x3TB maar ook nog 2x1Tb uit mijn eerste nas en een 500Gb en een 750Gb schijf liggen. Samen met de 2 nieuwe schijven worden dat er al 11 die ik potentieel in de kast kan hangen. (Of het allemaal zo handig is laat ik even in het midden)
Mijn stuff -> http://gathering.tweakers.net/forum/view_message/43289117
# | Product | Prijs |
1 | Delock PCI Express Card > 10 x internal SATA 6 Gb/s – Low Profile Form Factor | € 87,95 |
1 | Areca ARC-1320IX-16 | € 559,82 |
1 | LSI SAS 9201-16i | € 412,35 |
1 | LSI SAS 9300-16i Host Bus Adapter | € 486,54 |
Bekijk collectie Importeer producten |
Heeft er iemand ervaring met een controller van Delock? Was eigenlijk op zoek naar een tweede hands Areca of LSI om te gebruiken met minimaal 10 disken icm ZFS (FreeNAS), maar een simpele Delock volstaat misschien ook wel.
... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...
Ik heb gisteren heel het internet afgezocht naar meer info over die kaart omdat ik ook een NAS met minimaal 10 disks wil hebben. Ik ben uiteindelijk op deze pagina gestoten. Kennelijk zitten er 2 ASMedia ASM1062 controllers en 2 JMicron JMB575 splitters op. Volgens de ASMedia website stuurt een ASM1062 echter maar 2 SATA poorten aan. De JMicron chip is een port multiplier en kan maximaal 5 poorten aan.Zware Unit schreef op zaterdag 27 februari 2016 @ 21:53:
Heeft er iemand ervaring met een controller van Delock? Was eigenlijk op zoek naar een tweede hands Areca of LSI om te gebruiken met minimaal 10 disken icm ZFS (FreeNAS), maar een simpele Delock volstaat misschien ook wel.
Ik heb er geen ervaring mee maar misschien dat je met de info wat kan. Ik had hem eerst ook op mijn lijstje staan maar nu weet ik het ook niet meer.
Mijn stuff -> http://gathering.tweakers.net/forum/view_message/43289117
Het is vergelijkbaar met de oplossing die Backblaze gebruikt in zijn Storage Pods.janser01 schreef op zaterdag 27 februari 2016 @ 23:44:
Ik heb er geen ervaring mee maar misschien dat je met de info wat kan. Ik had hem eerst ook op mijn lijstje staan maar nu weet ik het ook niet meer.
Dit zijn de belangrijke punten:
- [b]De Port Multiplier [url="http://www.jmicron.com/PDF/brief/jmb575.pdf"]JMicron JMB575[/url] ondersteund [abbr="FIS-based (frame information structure) switching FIS-based switching is similar to a USB hub. In this method of switching the host controller can issue commands to send and receive data from any drive at any time. A balancing algorithm ensures a fair allocation of available bandwidth to each drive. FIS-based switching allows the aggregated saturation of the host link and does not interfere with NCQ."]FIS-based switching![/abbr][/b] d:)b
- [b]Specification[/b]
- Supports Native Command Queuing (NCQ)
- Supports ATA, ATAPI
- Hot Plug
- OS independent, no driver installation necessary
- [b]System requirements[/b]
- Built-in AHCI support needed. (en welke moderne SATA controller ondersteund dat tegenwoordig niet)
Doordat er NCQ gebruikt kan worden, zullen kleine files waarschijnlijk zelfs niet langzamer zijn dan op een gewone 1 HDD per SATA/SAS port oplossing.
Wil je een snellere controller dan kom je uit op iets als een IBM ServeRAID M1015/M1115 of een andere vergelijkbare (rebranded) LSI Controller, met de bijkomende kosten, en twee porten minder, zeker nu de M1015 niet of slecht verkrijgbaar is, kom je uit op de duurdere M1115 van ongeveer 250 euro, dat is dan wel even 9 vs 30 euro per port, een aanzienlijk verschil.
Al met al, is imho de Delock een prima controller voor een thuis server.
Wil je PM's in je server, eigenlijk niet, maar ja, de meeste mensen zouden ook het liefst in bv een Lexus of BMW 5 series naar werk rijden, maar toch rijden de meeste mensen in een Astra of zo iets naar werk, gewoon omdat het een voldoende werkende en een betere betaalbare en voldoende oplossing is.
[ Voor 32% gewijzigd door player-x op 28-02-2016 14:29 ]
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Controleer goed of hij met Freenas werkt, ik dacht dat hier iemand zei dat hij niet wilde werken icm Freenas. Dus best eens zoeken in deze thread, of die user PM-en.Zware Unit schreef op zaterdag 27 februari 2016 @ 21:53:
# Product Prijs 1 Delock PCI Express Card > 10 x internal SATA 6 Gb/s – Low Profile Form Factor € 87,95 1 Areca ARC-1320IX-16 € 559,82 1 LSI SAS 9201-16i € 412,35 1 LSI SAS 9300-16i Host Bus Adapter € 486,54 Bekijk collectie
Importeer producten
Heeft er iemand ervaring met een controller van Delock? Was eigenlijk op zoek naar een tweede hands Areca of LSI om te gebruiken met minimaal 10 disken icm ZFS (FreeNAS), maar een simpele Delock volstaat misschien ook wel.
De Dell H200 bijvoorbeeld is anders nog regelmatig voor 50$-60$ te krijgen hoor. Hou in gedachten dat er meer kaartjes zijn dan enkel de M1015.player-x schreef op zondag 28 februari 2016 @ 05:23:
Wil je een snellere controller dan kom je uit op iets als een IBM ServeRAID M1015/M1115 of een LSI Controller, met de bijkomende kosten, en twee porten minder, zeker nu de M1015 niet of slecht verkrijgbaar is, kom je uit op de duurdere M1115 van ongeveer 250 euro, dat is dan wel even 9 vs 30 euro per port, een aanzienlijk verschil.
Wanneer heb je het laatst je wachtwoord verandert? Er word op T.net de laatste tijd regelmatig misbruikt gemaakt van accounts met gelekte wachtwoorden om andere gebruikers op te lichten. Verander je wachtwoord, geef oplichters geen kans!
Hmmm, ook die is tegenwoordig slechter te verkrijgen, en bv de +150 euro kostende Dell PERC H200, komt ook nog neer op nog steeds 21 euro per aansluiting.Leo1010 schreef op zondag 28 februari 2016 @ 10:12:
De Dell H200 bijvoorbeeld is anders nog regelmatig voor 50$-60$ te krijgen hoor. Hou in gedachten dat er meer kaartjes zijn dan enkel de M1015.
Dat weet ik daarom zij ik ook "of een LSI controller", maar heb mijn post aangepast ter verduidelijking.
Zo beter?Wil je een snellere controller dan kom je uit op iets als een IBM ServeRAID M1015/M1115 of een *andere vergelijkbare (rebranded)* LSI Controller, met de bijkomende kosten, en twee porten minder, zeker nu de M1015 niet of slecht verkrijgbaar is, kom je uit op de duurdere M1115 van ongeveer 250 euro, dat is dan wel even 9 vs 30 euro per port, een aanzienlijk verschil.
Als ik het goed heb, zou het gewoon moeten werken, daar het min of meer een onzichtbare oplossing is voor het OS, net zo iets als een USB-hub voor een thumb-drive.Harrie schreef op zondag 28 februari 2016 @ 08:21:
Controleer goed of hij met Freenas werkt, ik dacht dat hier iemand zei dat hij niet wilde werken icm Freenas. Dus best eens zoeken in deze thread, of die user PM-en.
Probeer niet opeens evangelist te zijn voor Delock PM oplossing, zelf zou ik eerder naar een Intel RAID Expander Card RES2SV240 oplossing kijken, maar het is wel een leuke prijs georiënteerde oplossing.
[ Voor 9% gewijzigd door player-x op 28-02-2016 14:58 ]
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Ja inderdaad, maar johnnygo had problemen met de kaart icm Freebsd / Freenas:player-x schreef op zondag 28 februari 2016 @ 14:34:
[...]
Hmmm, ook die is tegenwoordig slechter te verkrijgen, en bv de Dell PERC H200, komt ook nog neer op nog steeds 21 euro per aansluiting.
Dat weet ik daarom zij ik ook "of een LSI controller", maar heb mijn post aangepast ter verduidelijking.
[...]
Zo beter?
[...]
Als ik het goed heb, zou het gewoon moeten werken, daar het min of meer een onzichtbare oplossing is voor het OS, net zo iets als een USB-hub voor een thumb-drive.
Johnnygo in "Het grote DIY RAID NAS topic deel 3"
Op Linux en Windows werkte het blijkbaar wel.
Tja, dat is ook een van de redenen dat ik niet met FreeBSD werk, maar met Linux, daar Linux gewoon betere ondersteuning heeft, vooral Intel brengt storage updates, meestal eerst op Linux uit, en blijkbaar hebben de BSD versies als FreeNAS, geen ondersteuning voor AHCI in hun kernel.Harrie schreef op zondag 28 februari 2016 @ 14:43:
Ja inderdaad, maar johnnygo had problemen met de kaart icm Freebsd / Freenas:
Johnnygo in "Het grote DIY RAID NAS topic deel 3"
Op Linux en Windows werkte het blijkbaar wel.
- [b]System requirements[/b]
- Built-in AHCI support needed.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.