Acties:
  • 0 Henk 'm!

  • Le Enfant!
  • Registratie: Juli 2012
  • Laatst online: 19-09 13:56
Zijn er hier mensen die Freenas draaien i.c.m. ESXi? Ik ben namelijk van plan om binnen enkele maanden mijn server te bouwen en ik zou graag op één van mijn virtual machines FreeNas installeren waarop ook Plex en mijn download client staat. Nu heb ik deze link waar er staat dat FreeNas kan werken i.c.m. ESXi (als er een HBA controller wordt gebruikt), maar dan lees ik volgende:
Single disk: Vulnerable to pool metadata corruption, which could cause the loss of the pool. Can detect — but cannot repair — user data corruption.
Three or more virtual disks striped (even if they are from the same datastore!): Resilient against pool corruption. Can detect — but cannot repair — corrupted data in the pool. Depending on what backs the vDisks you may be able to survive a physical disk failure, but it is unlikely that the pool will survive.
Three or more virtual disks in RAIDZ: Can detect and repair data corruption in the pool, assuming the underlying datastore and/or disks are functional enough to permit repairing by ZFS’ self-healing technology.
Striping your vDisks

In this configuration, ZFS will be unable to repair data corruption but it will be resilient against pool corruption caused by damage to critical pool data structures causing loss of the entire pool. If you are using a SAN/NAS to provision the vDisk space, then three striped 1TB drives will require 3TB of external LUN usable space.
RAIDZ protection of your vDisks

In this configuration, ZFS will repair data corruption. However, you will waste an additional virtual disk worth (or two if RAIDZ2 is used) of space since the external storage array protects the LUN and RAIDZ creates parity to protect each vDisk. If you are using a SAN/NAS to provision the vDisk space, then three RAIDZ1 1TB drives will require 4.5TB of external LUN usable space.
Disk space needed for provisioning

With striping, you’ll be required to provision 3TB of space from the SAN/NAS storage array to get 3TB of usable space. If you use RAIDZ protection, it will use one of the virtual disks for parity, and you will be required to provision 4.5 TB of space from the SAN/NAS storage array to get 3TB of usable space. Depending on the $/GB for your SAN/NAS this additional 1,500 GB can get quite expensive.
Dus als ik goed begrijp kan ik enkel volledig gebruik maken van ZFS als ik de virtuele schijven met de RAIDZ-opstelling gebruik, maar dat betekent dat ik maar 10/10.5 GB (als het niet meer is) kan gebruiken van de 12 TB dat er in zal zitten? Doe ik dit niet, dan kan data corruptie niet hersteld worden. Wat is dan het nut van ZFS als er enkel corruptie kan worden vastgesteld, maar niet hersteld kan worden?

Of zie ik dit verkeerd?

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 09:50
Le Enfant! schreef op maandag 8 mei 2017 @ 20:54:
Dus als ik goed begrijp kan ik enkel volledig gebruik maken van ZFS als ik de virtuele schijven met de RAIDZ-opstelling gebruik, maar dat betekent dat ik maar 10/10.5 GB (als het niet meer is) kan gebruiken van de 12 TB dat er in zal zitten?
Met RAID-Z offer je inderdaad (de grootte van) één schijf op aan het kunnen herstellen van corruptie, net als je dat bij RAID 5 doet. Bij RAID-Z2 en RAID 6 offer je zelfs twee schijven op, en bij RAID-Z3 (je raad het al...) drie.

Dit om te voorkomen dat je alles kwijt bent je backups terug moet gaan zetten als er één (of, afhankelijk van de RAID-level, twee of drie) schijven (tegelijk stuk gaan. Bijkomend voordeel is dat je ook corruptie of filesystem-niveau kunt detecteren en corrigeren.
Wat is dan het nut van ZFS als er enkel corruptie kan worden vastgesteld, maar niet hersteld kan worden?
Dat je weet dat er iets (en wat!) er corrupt is. Bij (veel) andere filesystems weet je niet eens dat er corruptie is.

En als je weet wat er stuk is kun je die data restoren van je backup.

Van je 12 TB blijft in Windows / FreeNAS toch al maar 10.9 TiB over (het getalletje dat je daar in beeld ziet), als je 6 schijven van 2 TB hebt dan hou je in RAID-Z 9.1 TiB over. Zelf heb ik 5 schijven in van 4 TB in RAID Z staan, er zijn mensen die vinden RAID Z (en RAID 5) "ouderwets" want met de huidige groottes zou het welhaast gegarandeerd zijn dat de volgende fout al optreed nog voordat alle data veilig is gesteld, maar ik neem dat "risico", volgens mij wordt die soep niet zo heet gegeten :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Apache
  • Registratie: Juli 2000
  • Laatst online: 16-09 10:29

Apache

amateur software devver

@Le Enfant! persoonlijk ben ik afgestapt van situaties waarbij er een kip-ei relatie ontstaat tussen virtualisatie en storage wanneer ze gecombineerd zijn op 1 machine.

Proxmox lijkt mij in die gevallen een veel logischere oplossing waarbij je bare metal os zowel vm's kan runnen/managen als storage.

If it ain't broken it doesn't have enough features


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

Apache schreef op dinsdag 9 mei 2017 @ 11:38:
@Le Enfant! persoonlijk ben ik afgestapt van situaties waarbij er een kip-ei relatie ontstaat tussen virtualisatie en storage wanneer ze gecombineerd zijn op 1 machine.

Proxmox lijkt mij in die gevallen een veel logischere oplossing waarbij je bare metal os zowel vm's kan runnen/managen als storage.
Los van de webinterface, is dat bij Proxmox niet zo heel erg veel anders en was het niet zo dat bij ESXi 6.5 de GUI in een webserver draait?

Ok, je heb geen HA. Daar heb je een vSphere appliance voor nodig en dat is wel een van de grote voordelen van Proxmox ten opzichte van ESXi. Maar ook bij ESXi, ook oudere versies, ben je niet afhankelijk van je storage anders dan waar het OS zelf op draait.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Le Enfant!
  • Registratie: Juli 2012
  • Laatst online: 19-09 13:56
Paul schreef op maandag 8 mei 2017 @ 23:25:
[...]
Met RAID-Z offer je inderdaad (de grootte van) één schijf op aan het kunnen herstellen van corruptie, net als je dat bij RAID 5 doet. Bij RAID-Z2 en RAID 6 offer je zelfs twee schijven op, en bij RAID-Z3 (je raad het al...) drie.

Dit om te voorkomen dat je alles kwijt bent je backups terug moet gaan zetten als er één (of, afhankelijk van de RAID-level, twee of drie) schijven (tegelijk stuk gaan. Bijkomend voordeel is dat je ook corruptie of filesystem-niveau kunt detecteren en corrigeren.

[...]
Dat je weet dat er iets (en wat!) er corrupt is. Bij (veel) andere filesystems weet je niet eens dat er corruptie is.

En als je weet wat er stuk is kun je die data restoren van je backup.

Van je 12 TB blijft in Windows / FreeNAS toch al maar 10.9 TiB over (het getalletje dat je daar in beeld ziet), als je 6 schijven van 2 TB hebt dan hou je in RAID-Z 9.1 TiB over. Zelf heb ik 5 schijven in van 4 TB in RAID Z staan, er zijn mensen die vinden RAID Z (en RAID 5) "ouderwets" want met de huidige groottes zou het welhaast gegarandeerd zijn dat de volgende fout al optreed nog voordat alle data veilig is gesteld, maar ik neem dat "risico", volgens mij wordt die soep niet zo heet gegeten :)
Het is bedoeling dat er 4x 3TB schijven in zullen zitten, maar dit betekent wel dat ik al zeker één schijf niet kan gebruiken. En vergroot die back-up ook iedere keer als er meer data op de schijven staan?
Apache schreef op dinsdag 9 mei 2017 @ 11:38:
@Le Enfant! persoonlijk ben ik afgestapt van situaties waarbij er een kip-ei relatie ontstaat tussen virtualisatie en storage wanneer ze gecombineerd zijn op 1 machine.

Proxmox lijkt mij in die gevallen een veel logischere oplossing waarbij je bare metal os zowel vm's kan runnen/managen als storage.
Eén van de redenen waarom ik voor ESXi kies is omdat dit ook vaak wordt gebruikt in bedrijven en je daar ook certificaten van kunt behalen. En aangezien ik graag binnen een anderhalf jaar de stap wil zetten naar systeembeheer is ESXi voor mij de logische keuze. Alleen jammer dat dit me duur gaat komen staan als daardoor één schijf (=120 euro) al zeker wegvalt.

Acties:
  • +1 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

Le Enfant! schreef op dinsdag 9 mei 2017 @ 18:57:
[...]

Eén van de redenen waarom ik voor ESXi kies is omdat dit ook vaak wordt gebruikt in bedrijven en je daar ook certificaten van kunt behalen. En aangezien ik graag binnen een anderhalf jaar de stap wil zetten naar systeembeheer is ESXi voor mij de logische keuze. Alleen jammer dat dit me duur gaat komen staan als daardoor één schijf (=120 euro) al zeker wegvalt.
ESXi kan *zo* weinig, dat daar thuis ervaring mee op doen eigenlijk niet echt relevant is. Als je ervaring met ESXi op wil doen, doe dan dat op een test machientje en speel d'r wat mee. VMWare word pas leuk met vCenter en dat kost serieuze hoeveelheden geld. :) (Nja, vanaf een paar honderd EUR voor een cluster van 3 servers, maar dan heb je nog lang niet alle features en blijft het privé aan de prijs.)

Conceptueel gezien lijken hypervisors erg op elkaar en doe je er qua werkervaring misschien wel beter aan te spelen met een andere hypervsisor die wel de concepten van de grote jongens gebruikt, dan nu een enkele server op basis van ESXi thuis te gebruiken.

De ervaring is absoluut leuk, maar als je de stap maar systeembeheer wilt maken zet een enkele thuisserver op ESXi geen zoden aan de dijk.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!
Mwoh, je kan 180 dagen doen met een trial van vCenter. Dus je kan genoeg spelen. Als de trial verlopen is, installeer je het ding opnieuw en kan je weer verder knutselen.

Of je zorgt dat je via andere manier goedkoop aan een licentie komt, er is een VMUG licentiemodel waarmee je voor een paar honderd euro per jaar keys krijgt voor thuisgebruik.

offtopic:
en er zijn andere manieren om aan keys te komen...

Even niets...


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

FireDrunk schreef op dinsdag 9 mei 2017 @ 21:51:
Mwoh, je kan 180 dagen doen met een trial van vCenter. Dus je kan genoeg spelen. Als de trial verlopen is, installeer je het ding opnieuw en kan je weer verder knutselen.
In een testlab, ja.
Maar hier gaat het om een semi productie omgeving thuis en dan is dat niet zo'n handige keuze.

Dat draaien op ESXi, fair enough, maar een enkele machien kun je niet zo veel mee en iedere 180 dagen je thuis omgeving of een deel daarvan opnieuw installeren lijkt mijn niet zo'n fijn idee.

Daarom mijn suggestie dat op aparte hardware te doen en niet ESXi op een enkele node te installeren omdat je daar praktijkervaring mee op wil doen.
Of je zorgt dat je via andere manier goedkoop aan een licentie komt, er is een VMUG licentiemodel waarmee je voor een paar honderd euro per jaar keys krijgt voor thuisgebruik.

offtopic:
en er zijn andere manieren om aan keys te komen...
Een paar honderd eur per jaar vind ik eh, best veel geld voor wat thuisgebruik licenties en "andere manieren" lijkt me niet echt de bedoeling.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!
Als je er later je werk van wil maken, is die paar honderd euro mijns inziens gewoon een investering voor je carriere. De grote reden dat ik een thuiscluster heb gekocht voor ~1000 euro om lekker met VMware te kunnen spelen een paar jaar geleden. Ik heb er mijn VCP5 op gehaald en dat staat gewoon goed op je CV.

Maar ieder zijn afwegingen, ik geef hem alleen maar opties.

Even niets...


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 09:50
Le Enfant! schreef op dinsdag 9 mei 2017 @ 18:57:
Het is bedoeling dat er 4x 3TB schijven in zullen zitten, maar dit betekent wel dat ik al zeker één schijf niet kan gebruiken.
Niemand verplicht je RAID te gebruiken, ben je er alleen van bewust wat dat inhoudt als er een schijf stuk gaat :)
En vergroot die back-up ook iedere keer als er meer data op de schijven staan?
Ik denk dat ik je vraag niet snap. Zoals ik het nu lees vraag je of je backup groter wordt als je meer data hebt, en het antwoord daarop lijkt me vrij logisch :)

Vraag is ook of je daadwerkelijk 10.9 TiB aan data op wil slaan; zelf merk ik dat ik sinds Netflix en YouTube eigenlijk amper meer data zelf opsla. Ik heb nog ongeveer een TB of twee aan foto's en backups and that's about it. Maar dat kan ik uiteraard niet voor jou beslissen.

In plaats van RAID kun je ook kiezen om geen RAID te gebruiken en volledig te vertrouwen op je backups (die uiteraard niet op dezelfde NAS staan...). Voor het geld van die schijf kun je bijvoorbeeld een twee-jarig abonnement op Crashplan nemen.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Nu online

FREAKJAM

"MAXIMUM"

unezra schreef op dinsdag 9 mei 2017 @ 20:41:
[...]


ESXi kan *zo* weinig, dat daar thuis ervaring mee op doen eigenlijk niet echt relevant is. Als je ervaring met ESXi op wil doen, doe dan dat op een test machientje en speel d'r wat mee. VMWare word pas leuk met vCenter en dat kost serieuze hoeveelheden geld. :) (Nja, vanaf een paar honderd EUR voor een cluster van 3 servers, maar dan heb je nog lang niet alle features en blijft het privé aan de prijs.)

Conceptueel gezien lijken hypervisors erg op elkaar en doe je er qua werkervaring misschien wel beter aan te spelen met een andere hypervsisor die wel de concepten van de grote jongens gebruikt, dan nu een enkele server op basis van ESXi thuis te gebruiken.

De ervaring is absoluut leuk, maar als je de stap maar systeembeheer wilt maken zet een enkele thuisserver op ESXi geen zoden aan de dijk.
vCenter heb je niet echt nodig toch als thuisgebruiker? De nieuwe ingebakken ui in ESXi 6 is wat dat betreft voor mij voldoende.

is everything cool?


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

FREAKJAM schreef op woensdag 10 mei 2017 @ 09:14:
[...]


vCenter heb je niet echt nodig toch als thuisgebruiker? De nieuwe ingebakken ui in ESXi 6 is wat dat betreft voor mij voldoende.
Daar ging het niet om. :)

Het ging er om dat 'ie ESXi thuis wil inzetten om te leren hoe VMWare werkt en zijn baankansen te vergroten. Dan heb je aan ESXi niet zo heel erg veel. In bedrijven heb je bijna altijd te maken met vSphere en dat kun je privé alleen in trial mode draaien zonder er minimaal een paar honderd EUR voor te betalen.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Nu online

FREAKJAM

"MAXIMUM"

Ah, dat stukje had ik gemist. Wat dat betreft moet ik je gelijk geven; hier op het werk kan ik ook niet zonder vCenter! Hoewel ik denk dat als je thuis met ESXi plus de embedded ui werkt toch wel heel wat mee gaat krijgen van de basis van het geheel.

is everything cool?


Acties:
  • 0 Henk 'm!

  • Le Enfant!
  • Registratie: Juli 2012
  • Laatst online: 19-09 13:56
Paul schreef op dinsdag 9 mei 2017 @ 23:23:
Niemand verplicht je RAID te gebruiken, ben je er alleen van bewust wat dat inhoudt als er een schijf stuk gaat :)
Het meeste zal vooral media zijn (audio en videobestanden), dus zo 'belangrijk' is het natuurlijk niet. Wel flink balen als ik het allemaal zou verliezen. Ik kan natuurlijk ook gewoon nu RAID-Z gebruiken en dan eventueel volgend jaar of het jaar erop een simpele Synology of HP Proliant MicroServer aanschaffen die dan zal dienen voor de back-up. Of mischien een extra schijf aan schaffen als ik de onderdelen zal bestellen.
Paul schreef op dinsdag 9 mei 2017 @ 23:23:
Ik denk dat ik je vraag niet snap. Zoals ik het nu lees vraag je of je backup groter wordt als je meer data hebt, en het antwoord daarop lijkt me vrij logisch :)
Inderdaad een idiote vraag 8)7 Maar klopt het dat bij een Raid-opstelling alles wordt gespreid over de 12 TB?
FireDrunk schreef op dinsdag 9 mei 2017 @ 21:51:
Mwoh, je kan 180 dagen doen met een trial van vCenter. Dus je kan genoeg spelen. Als de trial verlopen is, installeer je het ding opnieuw en kan je weer verder knutselen.

Of je zorgt dat je via andere manier goedkoop aan een licentie komt, er is een VMUG licentiemodel waarmee je voor een paar honderd euro per jaar keys krijgt voor thuisgebruik.

offtopic:
en er zijn andere manieren om aan keys te komen...
Ik denk niet dat het echt bevorderlijk is voor mijn server als om de 180 dagen mijn hypervisor (neem ik aan?) plat ligt en ik alles opnieuw moet installeren en instellen. Een beetje teveel van het goede. Ik kan dan eventueel kijken om zo aan een licentie te geraken, als het überhaupt nodig gaat zijn.

Maar als ik zo de algemene opinie lees hier, dan kan ik beter kijken voor een andere hypervisor?

Acties:
  • +1 Henk 'm!
Nee hoor, ESXi blijft gewoon werken. Alleen vCenter werkt niet meer.

Even niets...


Acties:
  • 0 Henk 'm!

  • Le Enfant!
  • Registratie: Juli 2012
  • Laatst online: 19-09 13:56
FireDrunk schreef op woensdag 10 mei 2017 @ 19:39:
Nee hoor, ESXi blijft gewoon werken. Alleen vCenter werkt niet meer.
Dan wordt het wel terug interessant. :+

Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 19-09 11:58
ESXi werkt misschien wel zonder licentie, maar als je die wilt koppelen met een vCenter server, zal die ook onder licentie (al dan niet trial) moeten vallen.
Nu is een herinstallatie van ESXi niet zo moeilijk, en kan je alles gemakkelijk importeren, praktisch is iets anders.

Trouwens de trial licenties zijn maar 60 dagen geldig dacht ik.

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 09:50
Le Enfant! schreef op woensdag 10 mei 2017 @ 18:27:
Maar klopt het dat bij een Raid-opstelling alles wordt gespreid over de 12 TB?
Met een RAID-variant die aan "striping" doet (alles behalve RAID 1 / mirroring zo ongeveer, en JBOD, als je dat RAID wil noemen) zal de data "stripen" over de beschikbare schijven.

Stel je hebt een RAID5 of RAID Z met een stripe size van 128 KB,je hebt 4 schijven in totaal en een bestand van 2 MB, dan zal het dat bestand worden opgeknipt in 16 blokken van 128 KB, blok A tot en met P.
De verdeling wordt dan (ongeveer) als volgt:
Schijf  1  2  3  4
Blok    A  B  C  *
Blok    *  D  E  F
Blok    G  *  H  I
Blok    J  K  *  L
Blok    M  N  O  *
Blok    *  P  0  0

De sterretjes zijn de blokken met de parity van de drie blokken data op de andere drie schijven, nullen op het eind zijn net welke data er op die plek op de harddisk staat. Dat kunnen (binaire) nullen zijn, maar ook een ander bestand, metadata, of zelfs garbage. die data wordt ook gebruikt voor het berekenen van de parity, want de parity bekommert zich niet met bestandjes, alleen met blokken data.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • The Van
  • Registratie: Maart 2006
  • Laatst online: 09-02-2023
Le Enfant! schreef op maandag 8 mei 2017 @ 20:54:
Zijn er hier mensen die Freenas draaien i.c.m. ESXi?
Yup. FreeNAS Corral, onder ESXi 6.5. SuperMicro bordje, 64GB ECC. FreeNAS met HBA in pass thru mode, ZFS6 array met SSD for log en 1 HD spare.
Ik hier hier veel aan gehad.

Edit: ga qua Corral wel weer terug naar de main 9.10 versie, maar da's een ander verhaal 8)
MoBo: X10SRH-CF, XEON E5, Samsung 32GB ECC * 2, NZXT H440. En die zit nu hel-le-maal vol met Toshiba's ( DT01ACA300 )

[ Voor 20% gewijzigd door The Van op 11-05-2017 12:53 ]


Acties:
  • 0 Henk 'm!

  • The Van
  • Registratie: Maart 2006
  • Laatst online: 09-02-2023
Le Enfant! schreef op woensdag 10 mei 2017 @ 18:27:
Ik denk niet dat het echt bevorderlijk is voor mijn server als om de 180 dagen mijn hypervisor (neem ik aan?) plat ligt en ik alles opnieuw moet installeren en instellen.
Alleen de licentiesleutel ingeven - voor ESXi krijg je trouwens een eeuwigdurende. Ik zou beginnen met 6.0, en dan de VMWare ESXi client dowloaden en gebruiken. Ik mis VCenter niet, maar probeer dan ook niet om VMWare certified te worden.
De 6.5 interface kan niet alles (networking is een crime!) wat de 6.0 client kan. En ik heb het gevoel (...) dat 6.5 instabieler is - ik moet telkens de management interface herstarten (wat prima gaat met iPME :9~ )

Als je FreeNAS (of een ander ZFS storage iets) wilt gaan gebruiken: ESXi is erg makkelijk qua pass-thru; ik heb XENServer geprobeerd, en dat performt vele malen beter, maar is lastiger (geen GUI) te configureren qua pass-thru.

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

Le Enfant! schreef op woensdag 10 mei 2017 @ 19:45:
[...]

Dan wordt het wel terug interessant. :+
Los van het feit dat ESXi een *erg* kale hypervisor is.

Ik zou echt even goed bedenken waarom je voor ESXi wilt gaan en niet voor een alternatief dat veel meer mogelijkheden in de gratis versie bied.

Als je doel enkel "leren met ESXi om gaan" is, pak 2 oude PCtjes, zet daar ESXi op en oefen. Heb je meer aan want juist aan je thuisserver wil je niet te veel onderhoud plegen. Zoiets wil je niet in de kreukels omdat je even wat wilde uitproberen. :)

Daar aan denkende, bekijk deze lijst eens:
Wikipedia: Comparison of platform virtualization software

Lees je in, probeer wat dingen uit op test hardware en maak later een keuze. Maar zoals gezegd, bedenk dus ook *waarom* je een bepaalde keuze maakt en bepaal tevoren je wensen en eisen.

Ik ben thuis voor Proxmox gegaan omdat een van de eisen die ik had een goede HTML-based GUI was. Daarbij wilde ik cluster mogelijkheden en iets dat 100% OSS was. In Proxmox vind ik dat. Wil ik met VMWare stoeien doe ik dat wel op test hardware of op kantoor in het LAB. :)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!
ESXi heeft de Host UI? Is een prima grafische HTML Interface hoor. (En ook vCenter heeft tegenwoordig een HTML5 Interface. Hoewel nog niet 100% on-par met de Flash interface qua features, maar al goed bruikbaar.)

Proxmox is ook leuk, draaien we hier op het werk ook. Heeft wel wat vage dingen die je persé via de command line moet doen als je clusters enzo gaat maken, maar verder werkt het prima inderdaad.

[ Voor 21% gewijzigd door FireDrunk op 11-05-2017 17:12 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

FireDrunk schreef op donderdag 11 mei 2017 @ 17:11:
ESXi heeft de Host UI? Is een prima grafische HTML Interface hoor. (En ook vCenter heeft tegenwoordig een HTML5 Interface. Hoewel nog niet 100% on-par met de Flash interface qua features, maar al goed bruikbaar.)
6 en 6.5 waren volgens mij nog niet uit toen ik voor Proxmox koos, maar het was niet mijn enige eis voor thuis. :)

Juist de extra features als native ZFS ondersteuning, LXC, volledige HA setups, etc, hebben mij over de treep getrokken.

Ik heb jaren lang stock Xen op debian gedraait, 100% CLI en dat begon me op een gegeven moment wat te irriteren. Ook omdat je niet (makkelijk) grafische consoles kunt overnemen. Daarbij vind ik een goede GUI overzichtelijker.

Thuis op een niet-OSS platform draaien vind ik hoe dan ook geen optie. VMWare kan morgen besluiten dat je ESXi niet meer gratis kunt gebruiken. Met een OSS pakket is dat niet, de kans is bijna 100% dat al zou development gestopt worden, er wel een fork komt.

Fin, zat redenen om privé (thuis en met de stichting) voor Proxmox te kiezen. Het plan is tussen nu en 2 maanden ook op kantoor het eerste Proxmox cluster in te zetten. Niet om vSphere te vervangen maar voor een specifieke taak waar Proxmox een betere oplossing is. Bevalt dat goed, sluit ik niet uit dat we het vaker in gaan zetten.
Proxmox is ook leuk, draaien we hier op het werk ook. Heeft wel wat vage dingen die je persé via de command line moet doen als je clusters enzo gaat maken, maar verder werkt het prima inderdaad.
Het is vrijwel overal zo dat er zaken zijn die je via de CLI moet doen. Probeer maar eens een bestand via de datastore browser te verplaatsen naar een andere directory. :) ssh naar je vsphere en het werkt zonder problemen. (Ok, traag, maar dat ligt niet aan de CLI.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Le Enfant!
  • Registratie: Juli 2012
  • Laatst online: 19-09 13:56
Ik heb een eigen topic gemaakt voor mijn zoektocht naar een home-server. Als er iemand bereidt is om me te helpen, je vindt het hier: Le Enfant! in "Aankoop Home-server"

Naar aanleiding van bovenstaande discussie zou het fijn zijn moesten er mensen reageren met ervaring in FreeNas i.c.m. ESXi.

Acties:
  • 0 Henk 'm!

  • koelkast
  • Registratie: Juni 1999
  • Niet online
Ik wil graag mijn 6 TB JBOD NAS, die met ESXi + W10 is uitgerust, vervangen door iets beters.
Daarvoor wil ik liefst bestaande hardware gebruiken. Zo heb ik nog een aantal dingen liggen:

Asrock Q1900 Itx board met onboard CPU
12 Gb geheugen (non ECC)
6x4 TB harde schijven

Graag zou ik hier een Freenas systeem van willen maken, maar dan niet gevirtualiseerd.
Echter, het Q1900 board heeft slechts 4 Sata poorten, en aangezien ik Raidz2 wil gebruiken binnen Freenas heb ik behoefte aan 6 Sata poorten.
Ik begrijp dat je dan een Raidcontroller nodig hebt, maar bestaand die eigenlijk wel met een PCIe x1 slot, terwijl ze compatible zijn met Freenas? Of moet ik echt een ander moederbord met i5 processor gebruiken, die ik eigenlijk ergens anders voor wil gebruiken?

Acties:
  • 0 Henk 'm!

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 13:02
@koelkast Je wilt juist geen raid controller voor zfs maar een zo 'dom' mogelijke sata controller die enkel ahci doet. Je zou bijvoorbeeld eens kunnen kijken naar kaartjes met een Asmedia asm1061 controller, die kun je op ebay voor minder dan een tientje vinden en worden goed ondersteunt door linux en *bsd.

/edit: Grappige is dat je ook al zo'n controller op je bordje hebt zitten die zorgt voor 2 van de 4 sata poorten, dus dan kan er nog mooi eentje bij :)

[ Voor 20% gewijzigd door Nielson op 08-06-2017 23:39 ]


Acties:
  • 0 Henk 'm!

  • koelkast
  • Registratie: Juni 1999
  • Niet online
Nielson schreef op donderdag 8 juni 2017 @ 23:35:
@koelkast Je wilt juist geen raid controller voor zfs maar een zo 'dom' mogelijke sata controller die enkel ahci doet. Je zou bijvoorbeeld eens kunnen kijken naar kaartjes met een Asmedia asm1061 controller, die kun je op ebay voor minder dan een tientje vinden en worden goed ondersteunt door linux en *bsd.

/edit: Grappige is dat je ook al zo'n controller op je bordje hebt zitten die zorgt voor 2 van de 4 sata poorten, dus dan kan er nog mooi eentje bij :)
Aha, dat is duidelijk! Ik ga eens naar zo'n asm1061 kaartje kijken. Ik begrijp dat deze ook ondersteund wordt vanuit Freenas, zodat ik eenvoudig 6 schijven kan aansluiten i.c.m. 2 usb sticks voor Freenas mirroring?

Acties:
  • 0 Henk 'm!

  • chris10r
  • Registratie: Mei 2011
  • Laatst online: 19-09 11:41
@koelkast Yep, het asm1061 kaartje zal gewoon werken in Freenas, omdat deze gebaseerd is op FreeBSD waar deze kaart goed ondersteund wordt. Dat geld ook voor de 2e sata controller op je moederbord.

Acties:
  • 0 Henk 'm!

  • TommyboyNL
  • Registratie: Januari 2006
  • Niet online
Ik ben ook een NAS aan het optuigen op basis van FreeNAS. Ik wil deze voorzien van 5 disks van 6TB. De vraag is alleen, welke...
Ik neig momenteel naar schijven die door hun fabrikant als NAS schijven bestempeld zijn, en twijfel tussen de volgende drie types:
#ProductPrijsSubtotaal
1HGST Deskstar NAS (2017), 6TB€ 213,-€ 213,-
1Seagate IronWolf, 6TB€ 205,39€ 205,39
1Toshiba N300 (EZSTA), 6TB€ 210,-€ 210,-
Bekijk collectie
Importeer producten
Totaal€ 628,39

Vergelijking:
https://tweakers.net/pric...are/569347;718663;717967/

De disks hebben allemaal zo hun voor- en nadelen:

HGST Deskstar NAS (2017), 6TB
Voor:
- 227MB/s
Tegen:
- Unrecoverable error rate: 1 per 10E14 bits read
- 7.3W idle

Seagate IronWolf, 6TB
Voor:
- Unrecoverable error rate: 1 per 10E15 bits read
- 9.0W operating
Tegen:
- 7.2 W idle
- 195MB/s

Toshiba N300 (EZSTA), 6TB
Voor:
- 6,7W idle
Tegen:
- Unrecoverable error rate: 1 per 10E14 bits read
- 10.1W operating
- 210MB/s

MTBF, RAM, power-on hours per dag zijn allemaal gelijk.

Heeft er iemand een mening hierover?

Acties:
  • 0 Henk 'm!
Eigenlijk zou je je alleen druk moeten maken over stroomverbruik. Of het ding nou 1 op 10^14 of 15 doet. ZFS vangt het toch wel op, dus dat maakt niet uit.

Zelfde geld voor snelheid. Je gaat een Copy on Write filesystem gebruiken, dus dat kost je gewoon wat performance. Met 4/5 schijven haal je 100-en MB/s, in welke use case ga je het verschil merken tussen 4*170MB/s en 4*210MB/s?

Even niets...


Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 09:33
Dan kom je uit op WD Blue WD60EZRZ met read/write verbruik van 5,3W en een idle verbruik van 3,4W.

Enig nadeel van deze schijf is dat je volgens mij nog steeds de head parking met wdiddle moet aanpassen, maar dat is zo gebeurd.

Acties:
  • 0 Henk 'm!

  • ChrisVrolijk
  • Registratie: September 2007
  • Laatst online: 19-09 11:28
imdos schreef op donderdag 4 februari 2016 @ 20:40:
[...]

Optie 4. :P :X FreeNAS (Is FreeBSD maar dan ietsjes gebruiksvriendelijker en gewoon ZFS) + diverse plugins in eigen jails of zelf installeren in 1 eigen jail + 1x virtualbox met een Linux naar keuze.
Ik ga niet linken; maar er is hier en op freenas.org genoeg info te vinden.
@Underground75 Voor welke optie heb je gekozen? Freenas?
Als je voor freenas hebt gekozen ben ik benieuwd hoe het bevalt.

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 13:34
FireDrunk schreef op zondag 11 juni 2017 @ 21:02:
Eigenlijk zou je je alleen druk moeten maken over stroomverbruik.
3W idle = €6/jaar verschil, nou ook niet echt iets om je druk over te maken.
Of het ding nou 1 op 10^14 of 15 doet. ZFS vangt het toch wel op, dus dat maakt niet uit.
Ik zou zelf voor de HGST gaan, HGST heeft gewoon een goede naam opgebouwd qua betrouwbaarheid, uiteraard, in het verleden behaalde betrouwbaarheid is geen garantie voor toekomst, maar meestal wel een goede indicatie.

En die paar euro prijsverschil zou ik me ook niet druk over maken.
Zelfde geld voor snelheid. Je gaat een Copy on Write filesystem gebruiken, dus dat kost je gewoon wat performance. Met 4/5 schijven haal je 100-en MB/s, in welke use case ga je het verschil merken tussen 4*170MB/s en 4*210MB/s?
Yep daar zou i mij ook niet echt druk overmaken, 680 of 840MB/s is tenzij je 10Gbit netwerk heb totaal irrelevant, en zelfs 680GB/s is nog steeds rap zelfs over 10Gbit.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!
Helemaal mee eens (ik heb 100-en Watts idle draaien hier... :+), maar van de punten waar hij zich dus druk over maakt, is power usage de enige die zinnig is.

Absoluut gezien is power usage zeker belangrijk, maar relatief gezien, maakt het weinig uit bij al die schijven inderdaad.

Ik heb zelf ook HGST, en ben er ook zeker tevreden over. Als merk je niet uitmaakt, en je vindt ze allemaal even betrouwbaar zou ik gewoon voor de goedkoopste gaan.

Misschien nog even de meest recente BlackBlaze disk stats erbij pakken. Misschien staan ze erbij.

Even niets...


Acties:
  • 0 Henk 'm!

  • kdbruin
  • Registratie: Augustus 2003
  • Laatst online: 08-08 14:47
Ik krijg de laatste tijd "CAM status: ATA Status Error" meldingen in m'n log en heb al gekeken of m'n kabels goed aangesloten zitten. Daar zag ik geen vreemde zaken dus ik vermoed dat m'n kabels een beetje brak zijn. Iemand suggesties voor een set goede kabels? Er is zo veel keus dat ik liever gelijk de goede bestel.

Acties:
  • 0 Henk 'm!
Scheelt allemaal weinig. De kabels die je bij moederborden krijgt zijn prima.
Lange kabels geven eerder problemen. Theoretische lengte van SATA is dacht ik 1M, maar ik hou ze liever korter.

Even niets...


Acties:
  • 0 Henk 'm!

  • kdbruin
  • Registratie: Augustus 2003
  • Laatst online: 08-08 14:47
OK, dan ga ik maar eens een setje bestellen zodat ik ze morgen in huis heb.

Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 19-09 11:58
In mijn zoektocht naar het quasi onmogelijke kwam ik dit tegen:
https://www.crowdsupply.com/gnubee/personal-cloud-1

Misschien interessant voor sommige tweakers.

Acties:
  • 0 Henk 'm!
Grappig ding! Niet heel goedkoop overigens, maar wel een leuk idee!

Even niets...


Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 19-09 11:58
Spijtig genoeg niet combineerbaar met 2.5" in 5.25" modules.
Dat had eenvoudig geweest, en een veel afgewerkter product opgeleverd.

Was dus op zoek naar een capabel nano-ITX sotrage bord (2 giga LAN en 6 SATA III) Maar dat is totaal niet verkrijgbaar.

Acties:
  • 0 Henk 'm!
Waarom perse Nano-ITX? Is Mini-ITX niet klein genoeg?

Even niets...


Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 19-09 11:58
nano-itx is 12*12cm, dat past binnen een 5.25" bay. Op zich meer dan voldoende plaats voor aansluitingen.
Mini-ITX valt daar met zijn 17*17 aanzienlijk buiten.

Bedoeling was dus een nano-ITX bordje op een 6-in-1 module te plaatsen, voor een compacte NAS.
Zoiets: Afbeeldingslocatie: https://www.icydock.com/images/tougharmor_lineup/MB996SP-B.jpg

Heb nu een DS411Slim, maar met een 4 * 1TB RAID0 haal ik bedroevende snelheden via iSCSI.
De DS416Slim is iets sneller met een recentere dual core SoC, maar nog steeds aan de trage kant en ik wil ook meer controle over het geheel (Meer RAM, caching, ...).

Acties:
  • 0 Henk 'm!

  • Saltysalt
  • Registratie: Januari 2017
  • Laatst online: 17-09 14:26
Beste tweakers,

Graag ontvang ik wat feedback van jullie betreffend mijn build. Het idee achter de build is zo laag mogelijk low power idle verbruik. Heb ook nog niet besloten wat voor schijven ik erin stop dat is voor later zorg.

Wat wil je doen met je nieuwe systeem?
Hoofdoel is een NAS(op basis van freenas)
Daarnaast zal ik er een enkele vm of wat docker containers draaien. Mogelijk dus freenas virtueel hypervisor heb ik nog niet besloten. Intresseert me wat dat betreft ook niet bijster veel.

Heb je nog bepaalde eisen/wensen?
Low power
ECC ram 16GB (32GB wordt me al gauw te duur)
pico psu?
Ik heb niet bijzonder veel opslag nodig redudantie vind ik belangrijker.
Enigzins compact het systeem wordt geplaatst in een kleine meterkast.

Wat verwacht je van ons?

Graag wat feedback over de build en eventuele alternatieven voor moederbord, ram, case.

#ProductPrijsSubtotaal
1Intel Pentium G4560 Boxed€ 67,76€ 67,76
1Fujitsu D3417-B€ 136,-€ 136,-
1Fractal Design Define Mini€ 85,95€ 85,95
1Samsung M391A1G43EB1-CRC€ 71,56€ 71,56
1Seasonic G-series 360 watt€ 60,95€ 60,95
Bekijk collectie
Importeer producten
Totaal€ 422,22

Acties:
  • 0 Henk 'm!

  • -JB-
  • Registratie: September 2002
  • Laatst online: 19-09 10:43
Saltysalt schreef op donderdag 27 juli 2017 @ 21:59:

Graag wat feedback over de build en eventuele alternatieven voor moederbord, ram, case.

#ProductPrijsSubtotaal
1Intel Pentium G4560 Boxed€ 67,76€ 67,76
1Fujitsu D3417-B€ 136,-€ 136,-
1Fractal Design Define Mini€ 85,95€ 85,95
1Samsung M391A1G43EB1-CRC€ 71,56€ 71,56
1Seasonic G-series 360 watt€ 60,95€ 60,95
Bekijk collectie
Importeer producten
Totaal€ 422,22
Voor een kaby lake processor zoals de G4560 heb je een B2 revisie van dat moederbord nodig, de d3417-B2. Deze staat ook in de pricewatch en is daarnaast te bestellen (en leverbaar) bij Reichelt.nl.

Qua voeding kan je uit de voeten met een Pico PSU, mits je er niet teveel 3,5" schijven en andere hardware aan hangt.

Ik heb zelf bijna dezelfde setup met een 90w Pico PSU en 3*2,5" schijven.
Mocht je ook voor 2,5" gaan; in de Maxtor M3 externe schijven zitten mooie Seagate schijven die los veel duurder zijn!

Gasloos sinds september 2024 - Itho Amber 65 - 7830Wp APSystems DS3L


Acties:
  • 0 Henk 'm!

  • Saltysalt
  • Registratie: Januari 2017
  • Laatst online: 17-09 14:26
@Verwijderd

Bedankt O+ . Ik ga grotendeels voor dezelfde build nu. Mijn plan was om alles zo basic mogelijk te houden en wat te downclocken indien mogelijk. Had nog niet aan 2.5 inch schijven gedacht. Wat verbruik jij gemiddeld idle?

Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 18-09 13:09
Voor mijn ZFS setup heb ik nu één Sandisk ReadyCache 32GB welke zowel dienst doet als SLOG (8GB) en L2ARC (8GB), de resterende 16GB is niet gepartitioneerd nu. Met dingen als torrents en VM's (op dezelfde pool, nee dat is niet heel handig) zie ik dat zowel de SLOG als de L2ARC goed gevuld worden. De hitrate op de L2ARC valt tegen, maar deze zit dan ook al vrij snel heel erg vol door de torrents. Met enkel de VM zal ik nog wat benchmarks moeten uitvoeren om te kijken hoe de hitrate is.

Aannemende dat de hitrate met VMs een stuk hoger komt te liggen wil ik eigenlijk een betere (snellere, grotere) SSD gaan gebruiken als SLOG en L2ARC, en eventueel de torrents naar een eigen zpool verhuizen. Voor nu ben ik nog heel erg aan het kijken welke SSD zou passen en of het echt nuttig is. Ik heb mijn oog laten vallen op twee Kingston SSDNow V300 480GB SSDs welke gedeeltelijk (16GB?) als SLOG/ZIL gebruikt kunnen worden (dat staat in RAID1/mirror AFAIK) en dan voor ~200GB elk als L2ARC gebruikt kunnen worden (dat staat in RAID0/striped AFAIK). Is dat een realistisch idee? Zijn er betere SSDs hiervoor? Is het een beter idee om twee SSD's te gebruiken voor SLOG/ZIL en twee andere voor L2ARC?

De huidige opzet is een IBM M1015 met daaraan 6 1TB 2.5" schijven en één SSD (de ReadyCache). De bedoeling is dat dit langzaam maar zeker gaat groeien naar in totaal 30~40 dergelijke schijven verdeeld over twee Intel RES2SV240 SAS expanders. Op die manier heb ik minder snelheid (maximaal ~100MByte/s per schijf) maar wel de opslag die ik graag wil. De caching SSDs zouden moeten helpen met de snelheid voor VMs e.d.

Acties:
  • 0 Henk 'm!

  • -JB-
  • Registratie: September 2002
  • Laatst online: 19-09 10:43
Saltysalt schreef op maandag 31 juli 2017 @ 18:25:
@Verwijderd

Bedankt O+ . Ik ga grotendeels voor dezelfde build nu. Mijn plan was om alles zo basic mogelijk te houden en wat te downclocken indien mogelijk. Had nog niet aan 2.5 inch schijven gedacht. Wat verbruik jij gemiddeld idle?
Mijn verbruik had ik hier gepost -JB- in "Het grote zuinige server topic - deel 2"

Kaal verbruik onder een kale esxi installatie was 5,9w.
Met 2 VMs en de schijven in spindown zit ik momenteel op 11w idle. :)

Afgelopen weekend poste een andere tweaker in dat topic ook een verbruik van 5,9w met het zelfde moederbord onder Ubuntu.

[ Voor 14% gewijzigd door -JB- op 02-08-2017 20:52 ]

Gasloos sinds september 2024 - Itho Amber 65 - 7830Wp APSystems DS3L


Acties:
  • 0 Henk 'm!

  • stimm
  • Registratie: Juli 2005
  • Laatst online: 11-08 19:34
Op dit moment heb ik een Synology DS412+ met 2x WD RED 3TB disken erin. Hij doet wat hij moet doen maar ik loop tegen beperkingen aan met docker wat geheugen en processor betreft.

Daarom wil ik overstappen naar een FreeNAS systeem met ZFS en ECC geheugen. Er moeten daarnaast 13 docker containers op draaien, denk hierbij aan home-assistant, unifi controller, nzbget e.d.

Dit is wat ik samengesteld heb:

#ProductPrijsSubtotaal
1Intel Xeon E3-1225 v6 Boxed€ 229,-€ 229,-
1Fujitsu D3417-B2€ 150,-€ 150,-
3WD Red WD30EFRX, 3TB€ 105,95€ 317,85
1Corsair Carbide Air 240 Zwart€ 84,90€ 84,90
1Sandisk Extreme USB 3.0 Flash Drive 64GB Zwart€ 39,90€ 39,90
1Kingston ValueRAM KVR21E15D8/16€ 169,99€ 169,99
1Corsair SF450€ 84,49€ 84,49
Bekijk collectie
Importeer producten
Totaal€ 1.076,13


Doelstelling hierbij was een systeem dat bestaat uit de laatste generatie hardware met oog op energie verbruik omdat de NAS 24/7 zal draaien.

Ik heb mijn grootste twijfels bij het geheugen, en kom niet uit de keuze van een voeding, wat denken jullie?

[ Voor 6% gewijzigd door stimm op 03-08-2017 09:17 ]


Acties:
  • 0 Henk 'm!

  • toelie
  • Registratie: December 2006
  • Laatst online: 24-11-2023
Xudonax schreef op woensdag 2 augustus 2017 @ 13:48:
Voor mijn ZFS setup heb ik nu één Sandisk ReadyCache 32GB welke zowel dienst doet als SLOG (8GB) en L2ARC (8GB), de resterende 16GB is niet gepartitioneerd nu. Met dingen als torrents en VM's (op dezelfde pool, nee dat is niet heel handig) zie ik dat zowel de SLOG als de L2ARC goed gevuld worden. De hitrate op de L2ARC valt tegen, maar deze zit dan ook al vrij snel heel erg vol door de torrents. Met enkel de VM zal ik nog wat benchmarks moeten uitvoeren om te kijken hoe de hitrate is.
Je kunt per zfs filesystem beinvloeden wat er in de ARC en L2ARC gecached wordt (keuze uit metadata of all). Probeer eens op je torrent filesystem het volgende:

zfs set primarycache=metadata tank/torrent
zfs set secondarycache=metadata tank/torrent

Hierdoor wordt de torrent data zelf niet gecached en heb je meer ruimte in je ARC en L2ARC voor je VM filesystem.
Mocht je L2ARC hitrate nog steeds laag blijven dan kun je zelfs het beste je L2ARC verwijderen, want L2ARC heeft ram nodig om te werken en snoept dus iets van je max ARC size af.

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 19-09 11:58
Even verder gezocht naar compacte opties.
De combinatie van:
pricewatch: ASRock Beebox J3160/B/BB
https://www.aliexpress.co...ion-Raid/32793704153.html
Eventueel met een extension cable.
https://www.aliexpress.co...er-Cable/32519974160.html
Alleen zijn SAS to SATA breakout kabels meestal veel te lang

Als ik het goed zie heeft de BeeBox 2 mini PCIe slots, waarvan 1 msata ondersteund.
Wifi heb ik toch niet nodig, dus dat kan er uit.
En nog een apart SATA slot.

Er zijn zoveel mini PC opties, en de specificaties ervan zijn heel moeilijk te bepalen.
Ook hebben de nieuwere versies M.2 slots waarvan meestal 1 met A/E keying voor wireless netwerken.
Technisch gezien kan A/E keying 2 PCIe lanes ondersteunen, maar het is natuurlijk geen garantie dat het zal werken enzovoorts...

--edit--
Trouwens, M.2 keying is een RAMP.
En correcte pinout informatie vinden is ook al niet gezellig.
M.2 A+E ondersteunt 2 PCIe lanes.
B+M ondersteunt ook 2 PCIe lanes.
Maar de pinouts van deze lanes komen niet overeen.
En deftige converters zijn uiteraard (quasi) niet te vinden.
It's driving me insane.

[ Voor 13% gewijzigd door IceTeaGX op 10-08-2017 16:32 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Dag allemaal,

Ik wil heel graag zelf een nas maken met daarop ubuntu. Ik probeer een zo zuinig mogelijke nas te maken die tergelijkertijd, ook erg snel moet zijn.
Willen jullie eens kijken wat je hiervan vindt, en of ik hier nog iets aan moet veranderen?
Ik kan voor de installatie toch gewoon een beeldscherm aansluiten op de onboard HDMI?

Dank voor jullie hulp alvast.

#ProductPrijsSubtotaal
1Intel Core i5-7400 Boxed€ 169,-€ 169,-
1ASRock H110M-ITX€ 65,75€ 65,75
1WD Red WD40EFRX, 4TB€ 133,-€ 133,-
1Fractal Design Node 304 Zwart€ 73,-€ 73,-
1Crucial CT2K4G4DFS8213€ 64,95€ 64,95
1Seasonic G-series 360 watt€ 61,-€ 61,-
1Adata Premier Pro SP900 128GB€ 85,78€ 85,78
Bekijk collectie
Importeer producten
Totaal€ 652,48

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

@Verwijderd Waarom je keuze voor Ubuntu en niet iets als FreeNAS?
Snelheid bij een NAS is in de regel niet zo relevant, als je 'm als pure NAS gebruikt.
Wat is je doel met de machine?

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

Verwijderd

unezra schreef op maandag 14 augustus 2017 @ 23:48:
@Verwijderd Waarom je keuze voor Ubuntu en niet iets als FreeNAS?
Snelheid bij een NAS is in de regel niet zo relevant, als je 'm als pure NAS gebruikt.
Wat is je doel met de machine?
Even wat context. Ik heb nu een Synology ds414, maar die is echt heel langzaam, vooral met het repareren/verifieren van pakketten en het draaien van meerde instanties. Mijn keuze daarom om er nu eentje zelf te maken, ik weet dat de cpu wat aan de snelle kant is, maar deze moet ook een tijdje mee (althans, dat is het idee.)
Er moet een surveillance-centre op draaien, (voor mijn camera's), sab, sonarr, radarr, misschien een teamspeak muziekbot, etc.
Ik heb geen ervaring met freenas, en ik las onlangs dat Ubuntu ook goed kan fungeren als os voor een nas.Of denkt u dat Freenas een betere optie is?

groet

Acties:
  • 0 Henk 'm!

  • ZaPPZion
  • Registratie: Februari 2009
  • Laatst online: 28-08 12:46
Dat ligt een beetje aan de hoeveelheid schijven en het gebruik er van. Ubuntu is wat makkelijker te besturen, FreeNAS heeft ondersteuning voor ZFS (dat kan natuurlijk ook met ZFS on linux, maar goed, FreeNAS is er voor gemaakt).
Ik denk dat niet het ene beter is dan het andere, maar ik denk dat als je gaat kijken naar energieverbruik dat je misschien een paar procenten lager uit kunt komen met FreeNAS, omdat er geen grafische interface hoeft te draaien (alles wordt bestuurd vanuit een webinterface).
Ik ben zelf erg fan van ZFS, maar dan vooral als je meerdere schijven in je NAS wilt hebben (met RaidZ(2) bijvoorbeeld)

Acties:
  • 0 Henk 'm!

Verwijderd

Ja, daar heeft u een goed punt, echter mis ik daar nu de kennis voor. Het idee is wel om er met een soort van remote desktop in te gaan. Ik heb nog niet onderzocht of dat kan met Ubuntu. Wat vindt u van dr specificaties over het algemeen en, ik kan toch gewoon gebruik maken van de onboard videopoort (hdmi) voor de installatie?

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

@ZaPPZion Ubuntu Server heeft ook geen grafische interface. :)

@Verwijderd Hmm, de software die je nodig hebt voor je camera's, draait die uberhaupt wel onder Linux?

FreeNAS is echt een pure NAS, er kunnen wat applicaties op draaien maar dat is zeer beperkt. Het nadeel van een kale Linux is weer dat configuratie een flink stuk hariger en minder vriendelijk is dan FreeNAS dat je geheel via de web-based GUI bedient.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • ZaPPZion
  • Registratie: Februari 2009
  • Laatst online: 28-08 12:46
unezra schreef op dinsdag 15 augustus 2017 @ 00:14:
@ZaPPZion Ubuntu Server heeft ook geen grafische interface. :)
Klopt, maar dan is het ook weer ronduit lastiger configureren dan FreeNAS :P
Verwijderd schreef op dinsdag 15 augustus 2017 @ 00:12:
Het idee is wel om er met een soort van remote desktop in te gaan. Ik heb nog niet onderzocht of dat kan met Ubuntu. Wat vindt u van dr specificaties over het algemeen en, ik kan toch gewoon gebruik maken van de onboard videopoort (hdmi) voor de installatie?
Remote desktop kan inderdaad gewoon, zijn verschillende mogelijkheden voor, oa VNC.
De specs zijn wel wat overkill voor een simpele NAS, maar hier kun je wel weer een tijd mee vooruit :). Onboard video kun je inderdaad gewoon tijdens de installatie gebruiken (ook daarna natuurlijk)

Acties:
  • 0 Henk 'm!

Verwijderd

Dank jullie wel heren,
Ik ben wat onzeker over de cpu en het moederboard, gaat dat werken met elkaar?

Acties:
  • 0 Henk 'm!

  • ZaPPZion
  • Registratie: Februari 2009
  • Laatst online: 28-08 12:46
Voor zover ik het kan zien wel ja :) Het is de juiste socket en chipset, dus dat moet goed gaan. Ik zie geen extra CPU koeler er in staan die eventueel te groot zou kunnen zijn met het geheugen er naast of zo, dus het lijkt me prima zoals je het nu hebt.

Acties:
  • 0 Henk 'm!

Verwijderd

Dank,
Dan ga ik dit bestellen wanneer ik weer tijd heb om te knutselen. Ik zal wat foto's maken van de klus.
Nagmaals bedankt voor de hulp jongens.

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

@Verwijderd Wat is je kennis van Linux? Want het *kan* inderdaad wel, Linux met een remote desktop achtige maar het is behoorlijk ongebruikelijk. De vraag is hoe goed Linux te beheren valt als je niet met de CLI om kunt gaan.

Schaf in ieder geval pas hardware aan als je een goed en compleet beeld hebt van hoe je wat precies wilt gaan doen. Ik zie wat over IP cams, maar ik zie ook wat over een gebrek aan Linux kennis. Misschien is een Windows server wel beter geschikt voor je als je daar meer bekend mee bent en dan kan het zijn dat je op andere hardware uit komt dan als je voor een Linux of BSD (FreeNAS is gebaseerd op FreeBSD) machine gaat.

FreeNAS heeft wel weer als *groot* voordeel dat het ZFS gebruikt. Qua dataveiligheid en snelheid kan daar weinig tegenop. Aan de andere kant, FreeNAS is een puur NAS OS met een paar modules waardoor het iets meer kan. Wil je meer met je NAS dan data serveren, is FreeNAS misschien niet het meest geschikt. (Al blijf ik voorstander van het scheiden van taken. Dus 2 of meer servers. 1 met FreeNAS als opslag en daarvoor machines die je specifiek in richt voor de taak die ze hebben, met ALLE storage op je NAS. Dus enkel een disk voor het server-OS maar je data via NFS of SMB ontsloten op je NAS.)

Ná Scaoll. - Don’t Panic.


Acties:
  • +3 Henk 'm!

  • Tortelli
  • Registratie: Juli 2004
  • Laatst online: 17-09 14:49

Tortelli

mixing gas and haulin ass

Met een beperkte linux kennis vraag ik me af of dit een verstandige keuze is. Je zou dan nog beter zoiets kunnen draaien op esxi; Het Grote XPenology Topic
Heb je iig de voordelen van een Synology (camera's etc), nadeel is dat je 0 support hebt natuurlijk. Het is altijd maar afwachten of je de nieuwere software versies draaiende krijgt etc.

Zie het nut ook niet waarom je zeer snelle hardware (i5 etc) zou kopen, met een single disk setup?; als je ZFS oid wilt draaien......
Kun je niet beter b.v. een DS415play kopen?. De X86 modellen zijn met usenet repairen en uitpakken veel sneller. Moet je een 50GB bestand repareren zal dit nog wel even duren tozv een i5 natuurlijk, dan kom je echt op zelfbouw uit.

Acties:
  • 0 Henk 'm!

Verwijderd

@unezra , ik hoop gemakshalve dat Ubuntu geringe bloathware heeft en tegelijkertijd iets gebruiksvriendelijker is, dat is voor mij de voornaamste rede. Ik zou natuurlijk ook windows server kunnen draaien, maar eigenlijk vind ik het ook leuk om aan de gang te gaan met een nieuwe os. Wat ik van u begrijp is dat een soort van remote desktop onhandig werkt, ik hoef het dus niet te vergelijken met het gemak van Synology's DSM interface?

@Tortelli die single drive moet je even optioneel zien, daar komen er meer bij natuurlijk.

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

@Verwijderd Ik ga met @Tortelli mee. Ik vraag me af of je er goed aan doet met Ubuntu aan de slag te gaan als je daar geen noemenswaardige ervaring mee hebt. De kans dat je data onherstelbaar beschadigd is vrij maximaal.

Koop of bouw een NAS (Synology, QNAP, FreeNAS), zet daar je data op. Zorg voor een PC, een hypervisor en ga daar lekker met Linux op zitten spelen.

Als je op dit moment wel vertrouwd bent met Windows Server, bouw daar je server mee. (Denk je wel aan de licentiekosten?)

Qua FreeNAS, zo ziet het er uit: http://www.freenas.org/about/screenshots/

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

Verwijderd

Mijn voornaamste probleem met 'een' NAS is dat ze ook langzaam worden als SSL aan staat bij het downloaden, cpu schiet in z'n max dan en dat zorgt weer voor heel veel frequentie in downloadsnelheid, daardoor kan hij parallelle taken ook minder goed aan. Ik ga me de komende dagen eens inlezen op Ubuntu, ik ben niet compleet nieuw met het systeem, alleen puur werken met een shell is wel nieuw voor mij. Ik zal jullie op de hoogte houden.

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

Verwijderd schreef op dinsdag 15 augustus 2017 @ 10:08:
Mijn voornaamste probleem met 'een' NAS is dat ze ook langzaam worden als SSL aan staat bij het downloaden, cpu schiet in z'n max dan en dat zorgt weer voor heel veel frequentie in downloadsnelheid, daardoor kan hij parallelle taken ook minder goed aan. Ik ga me de komende dagen eens inlezen op Ubuntu, ik ben niet compleet nieuw met het systeem, alleen puur werken met een shell is wel nieuw voor mij. Ik zal jullie op de hoogte houden.
FreeNAS is gewoon FreeBSD met een schil en draai je op eigen hardware. Dat is zo snel of langzaam als je het zelf maakt.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Harrie
  • Registratie: November 2000
  • Laatst online: 12:13

Harrie

NederVlaming

IceTeaGX schreef op donderdag 10 augustus 2017 @ 14:10:
Even verder gezocht naar compacte opties.
De combinatie van:
pricewatch: ASRock Beebox J3160/B/BB
https://www.aliexpress.co...ion-Raid/32793704153.html
Eventueel met een extension cable.
https://www.aliexpress.co...er-Cable/32519974160.html
Alleen zijn SAS to SATA breakout kabels meestal veel te lang

Als ik het goed zie heeft de BeeBox 2 mini PCIe slots, waarvan 1 msata ondersteund.
Wifi heb ik toch niet nodig, dus dat kan er uit.
En nog een apart SATA slot.

Er zijn zoveel mini PC opties, en de specificaties ervan zijn heel moeilijk te bepalen.
Ook hebben de nieuwere versies M.2 slots waarvan meestal 1 met A/E keying voor wireless netwerken.
Technisch gezien kan A/E keying 2 PCIe lanes ondersteunen, maar het is natuurlijk geen garantie dat het zal werken enzovoorts...

--edit--
Trouwens, M.2 keying is een RAMP.
En correcte pinout informatie vinden is ook al niet gezellig.
M.2 A+E ondersteunt 2 PCIe lanes.
B+M ondersteunt ook 2 PCIe lanes.
Maar de pinouts van deze lanes komen niet overeen.
En deftige converters zijn uiteraard (quasi) niet te vinden.
It's driving me insane.
Die miniPCIe naar SAS is wel interessant!
Ik had ze enkel nog maar met 4 gewone sata poorten gezien. Dan kan je natuurlijk wel ook korte sata kabels gebruiken, als je de das naar SATA kabels te lang vind.

Acties:
  • 0 Henk 'm!

  • Tortelli
  • Registratie: Juli 2004
  • Laatst online: 17-09 14:49

Tortelli

mixing gas and haulin ass

Verwijderd schreef op dinsdag 15 augustus 2017 @ 10:08:
Mijn voornaamste probleem met 'een' NAS is dat ze ook langzaam worden als SSL aan staat bij het downloaden, cpu schiet in z'n max dan en dat zorgt weer voor heel veel frequentie in downloadsnelheid, daardoor kan hij parallelle taken ook minder goed aan. Ik ga me de komende dagen eens inlezen op Ubuntu, ik ben niet compleet nieuw met het systeem, alleen puur werken met een shell is wel nieuw voor mij. Ik zal jullie op de hoogte houden.
Een ARM NAS word traag van SSL; mijn vader zijn 215j haalt maximaal zo'n 15MB/s over FTP met SSL @ 100% CPU load. Usenet een vergelijkbare snelheid.
Mijn eigen DS1815+ (met x86 Intel C2538) haalt >110MB/s met een beperkt CPU gebruik, heb meerdere tweakers dit zien bewijzen met Gbit verbinding thuis.(FTP kun je eenvoudig op Interne Gbit testen natuurlijk).

Met b.v. product: Synology DiskStation DS916+ of product: Synology DS1517+ heb je dit probleem niet, en kun je ook nog eens uitbreiden naar 9 of 15 bays.

[ Voor 14% gewijzigd door Tortelli op 15-08-2017 16:09 ]


Verwijderd

Dank Tortelli,
Wat ik van u hoor is dat die desbetreffende nas wél snel is, óók daar zal ik eens naar kijken. Een andere vraag: is AMD een goede keuze als cpu, of raden jullie dit af? Zo ja, welke dan?

groet

ps: ik ben inmiddels bezig geweest met Windows server, dat ziet er goed uit.

Update: ik ben ook bezig met Freenas, even via Oracle bridged... ziet er prima uit zo via die webinterface. Als ik het daarmee kan doen, en zo spelende wijs kan oefenen met die terminal ga ik voor Freenas, ik zie ook dat er voldoende plugins voor zijn.

[ Voor 45% gewijzigd door Verwijderd op 18-08-2017 00:06 ]


Acties:
  • 0 Henk 'm!

  • Kortfragje
  • Registratie: December 2000
  • Laatst online: 18-09 22:14

Kortfragje

......

Zelf goeie ervaringen met AMD (vooral wegens ECC support op low end procs). Maar ik denk dat je de vraag wat specifieker moet stellen. Ofwel wat is je processor budget, ofwel ik twijfel tussen model x en y, welke is de beste. De vraag of AMD goed is, is veel te breed. :)


Overigens zelf deze server en NAS (met amd cpu) en werkt als een trein! https://gathering.tweakers.net/forum/view_message/44352518

http://www.gjpvanwesten.nl


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 13:34
Verwijderd schreef op donderdag 17 augustus 2017 @ 21:45:
Dank Tortelli,
Wat ik van u hoor is dat die desbetreffende nas wél snel is, óók daar zal ik eens naar kijken. Een andere vraag: is AMD een goede keuze als cpu, of raden jullie dit af? Zo ja, welke dan?
Ik zit zelf naar een 8 core Ryzen te kijken voor mijn server, daar veel video encoding doe, maar draai geen zware VM's of andere dingen, dan gaat mijn voorkeur uit naar een Celeron, dat is zwaar genoeg voor elke normale server.

Als je toch AMD wilt, let dan op de prestaties per watt, want Intel is nog steeds zuiniger, 1W per jaar = €2 extra kosten perjaar
Kortfragje schreef op vrijdag 18 augustus 2017 @ 20:57:
Zelf goeie ervaringen met AMD (vooral wegens ECC support op low end procs).
De meeste Celeron's en Pentium's onderstuenen ook gewoon ECC, net als een flink aantal i3/i5/i7 non K versies.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

Verwijderd

IceTeaGX schreef op donderdag 10 augustus 2017 @ 14:10:
Even verder gezocht naar compacte opties.
De combinatie van:
pricewatch: ASRock Beebox J3160/B/BB
https://www.aliexpress.co...ion-Raid/32793704153.html
Eventueel met een extension cable.
https://www.aliexpress.co...er-Cable/32519974160.html
Alleen zijn SAS to SATA breakout kabels meestal veel te lang


Als ik het goed zie heeft de BeeBox 2 mini PCIe slots, waarvan 1 msata ondersteund.
Wifi heb ik toch niet nodig, dus dat kan er uit.
En nog een apart SATA slot.

Er zijn zoveel mini PC opties, en de specificaties ervan zijn heel moeilijk te bepalen.
Ook hebben de nieuwere versies M.2 slots waarvan meestal 1 met A/E keying voor wireless netwerken.
Technisch gezien kan A/E keying 2 PCIe lanes ondersteunen, maar het is natuurlijk geen garantie dat het zal werken enzovoorts...

--edit--
Trouwens, M.2 keying is een RAMP.
En correcte pinout informatie vinden is ook al niet gezellig.
M.2 A+E ondersteunt 2 PCIe lanes.
B+M ondersteunt ook 2 PCIe lanes.
Maar de pinouts van deze lanes komen niet overeen.
En deftige converters zijn uiteraard (quasi) niet te vinden.
It's driving me insane.
Al bekend of dit werkt ? Ik ben in de markt voor een kleine simpele server, voor opslag en 4 personen vanilla minecraft

Acties:
  • 0 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 19-09 11:58
Verwijderd schreef op zondag 10 september 2017 @ 20:08:
[...]
Al bekend of dit werkt ? Ik ben in de markt voor een kleine simpele server, voor opslag en 4 personen vanilla minecraft
Ik heb het niet in de praktijk gebracht.
Ondertussen ook volgend moederbord gevonden:
https://nl.aliexpress.com...ay-ports/32792602057.html
Maar ik heb geen idee hoe compatibel alles is met de aanwezige mPCIe slots.

  • TommyboyNL
  • Registratie: Januari 2006
  • Niet online
Ik ben nu al de hele avond bezig met mijn Dell H200 om te flashen naar een IT firmware, maar het wil niet lukken. Ik krijg altijd de "Firmware Download Failed!" melding.
Ik heb meerdere handleidingen gevonden (waaronder deze, maar ik kom er niet meer uit.
Ik probeer hem te flashen in een Microserver Gen8 vanaf een FreeDOS stick. Iemand nog goede ideeën?

Acties:
  • 0 Henk 'm!

  • toelie
  • Registratie: December 2006
  • Laatst online: 24-11-2023
Ik heb er ook een keer enorm mee liggen kloten. Nadat ik het op een ander moederbord probeerde werkte het wel meteen. Het zijn wel veel stappen die je moet doorlopen. De volgende guide werkte bij mij:
https://techmattr.wordpre...-dell-perc-h200-and-h310/

Acties:
  • 0 Henk 'm!

  • Br00d
  • Registratie: September 2017
  • Laatst online: 17-09 14:13
Ik wil een HP Compaq dc7900 gebruiken als (file) server. Hij draait al Arch op een HDD van ongeveer 150 GB. Nu wil ik er twee HDDs van 3TB bij plaatsen voor RAID 1 met ZFS. Er zit onder de optical drive een plaats voor een tweede HDD. Voor de derde HDD wil ik de optical drive eruit halen en een soort desktop HDD caddy erin stoppen. Heeft iemand enig idee of zoiets voor dit model bestaat? En zo niet, hoe kan ik het best een HDD stevig vast maken binnen de behuizing?

dc7900 ODD

Acties:
  • +1 Henk 'm!

  • casemodder
  • Registratie: Mei 2003
  • Laatst online: 18-09 18:06

casemodder

--->

pricewatch: Icy Dock MB971SP-B"]pricewatch: Icy Dock MB971SP-B

En nog plek voor een extra ssd /2.5inch disk ;)

[ Voor 12% gewijzigd door casemodder op 29-09-2017 22:01 ]

Server: Intel Xeon E5 1620v3--Gigabyte X99 sli--128GB ecc--Samsung evo 960 250GB--Samsung evo 970plus 1TB--5x Seagate barracuda 2TB raid6--PSU Coolermaster 1000M--3Ware 9650SE-8LPML


  • Br00d
  • Registratie: September 2017
  • Laatst online: 17-09 14:13
Bedankt casemodder, dankzij die link kwam ik deze op het spoor:

pricewatch: Chenbro SK41101

Is precies wat ik zocht :) .

Acties:
  • 0 Henk 'm!

  • Br00d
  • Registratie: September 2017
  • Laatst online: 17-09 14:13
Ik heb mijn server bij mijn ouders thuis staan, omdat ik op kamers woon. Ik had uitgerekend dat het ongeveer 500 euro kost om hem een heel jaar te laten draaien. Dit is een stuk meer dan de Raspberry pi die ik hiervoor gebruikte (minder dan 10 euro, minus externe HDD). Als ik de server 12 uur i.p.v. 24 laat draaien, halveert de prijs.

Ik las dat sommige moederboorden een wake-on-lan functie hebben, maar ik betwijfel dat de mijne dat heeft. Zal morgen even checken. In het geval dat het er niet is, is er een soort 'button presser' o.i.d. die ik kan installeren voor aan de behuizing die ik over het netwerk kan besturen?

Ik heb de Raspberry pi nog die ik zou kunnen modden, maar dan moet ik wel uitvinden hoe ik dit wil gaan doen met technische ict. Misschien lijkt dit allemaal meer moeite dan dat het resultaat waard is, maar het lijkt me wel leuk om te kunnen :9 .

Acties:
  • 0 Henk 'm!

  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 18-09 20:51

heuveltje

KoelkastFilosoof

Br00d schreef op maandag 2 oktober 2017 @ 00:13:
Ik las dat sommige moederboorden een wake-on-lan functie hebben, maar ik betwijfel dat de mijne dat heeft. Zal morgen even checken. In het geval dat het er niet is, is er een soort 'button presser' o.i.d. die ik kan installeren voor aan de behuizing die ik over het netwerk kan besturen?
Volgens mij heeft elk mobo van de afgelopen 10 jaar die functie ?

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


Acties:
  • 0 Henk 'm!

  • Br00d
  • Registratie: September 2017
  • Laatst online: 17-09 14:13
Ik lees nu in de manual dat de BIOS wake-on-line support heeft. Nice!

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19-09 18:13
Probleem met wake on lan is dat het niet altijd even betrouwbaar is. Denk aan het in slaap vallen terwijl iemand vanaf de FTP een bestand aan het streamen is.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

Br00d schreef op maandag 2 oktober 2017 @ 00:13:
Ik heb mijn server bij mijn ouders thuis staan, omdat ik op kamers woon. Ik had uitgerekend dat het ongeveer 500 euro kost om hem een heel jaar te laten draaien. Dit is een stuk meer dan de Raspberry pi die ik hiervoor gebruikte (minder dan 10 euro, minus externe HDD). Als ik de server 12 uur i.p.v. 24 laat draaien, halveert de prijs.
€500 per jaar?
Ik heb even snel een rekentool er bij gepakt, maar zelfs voor mijn setup (3 Microservers waarvan 1 in gebruik als NAS) kom ik daar bij lange na niet aan. Die dingen doen volcontinu tussen de 140W en 150W, wat me grofweg € 269,81 per jaar kost.

http://www.verbruiken.nl/...uikskosten-apparaat#begin

Om €500 per jaar te halen moet je grofweg 260W-270W verstoken. Dat is voor een dc7900 (als ik het goed begrijp) op zijn best onwaarschijnlijk. Hoe kom je tot dat vermogen? (Of lees ik verkeerd en ga je een andere machine gebruiken?)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Br00d
  • Registratie: September 2017
  • Laatst online: 17-09 14:13
unezra schreef op maandag 2 oktober 2017 @ 06:24:
[...]
Om €500 per jaar te halen moet je grofweg 260W-270W verstoken. Dat is voor een dc7900 (als ik het goed begrijp) op zijn best onwaarschijnlijk. Hoe kom je tot dat vermogen? (Of lees ik verkeerd en ga je een andere machine gebruiken?)
Er zijn drie verschillende form factors en ik was vergeten te vermelden dat ik een dc7900 SFF (Small Form Factor) bezit, die een PSU heeft van 240 W.

Afbeeldingslocatie: https://i.imgur.com/0psFcbr.png

Acties:
  • +1 Henk 'm!

  • tsjoender
  • Registratie: April 2005
  • Laatst online: 19-09 19:09
Br00d schreef op maandag 2 oktober 2017 @ 08:58:
[...]


Er zijn drie verschillende form factors en ik was vergeten te vermelden dat ik een dc7900 SFF (Small Form Factor) bezit, die een PSU heeft van 240 W.

[afbeelding]
Die 240W geeft aan dat die voeding maximaal 240W kan leveren. De kans dat die dit ook daadwerkelijk moet leveren omdat de vraag zo hoog is, is nihil en dat zal zeker niet 24/7/365 gebeuren. Goede kans dat die desktop idle zonder scherm aangesloten iets van 80W trekt.

Acties:
  • +3 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

@Br00d Wat @tsjoender zegt.

Rule of thumb is dat je *minimaal* de maximale waarde door 2 kunt delen, dus die 240W zal in de praktijk nooit meer dan pak 'm beet 120W piek worden. Een NAS staat 80% van de tijd te idlen, grote kans dat dat ding gemiddeld niet vee meer dan 50, misschien 60W gaat verbruiken.

(Je CPU word zodra het kan in diverse slaapstanden gezet en een disk die idlet verbruikt ook veel minder dan een disk die vol in bedrijf is. Disks stil zetten zou ik minder snel doen. Gewoon steady draaien is vaak beter voor ze dan vaak start-stop.)

Die 60W is ongeveer € 115,63 per jaar aan stroom. Geen €500. :)

EDIT:
Ik heb die rule of thumb trouwens met diverse servers en PC's uitgemeten. Servers met 2x500W voeding doen in de regel niet meer dan pak 'm beet 180-200W in regulier bedrijf. Die 2x500W is pure redundancy, op een enkele voeding werkt het ook. Dus bij een server met 2 voedingen die bedoeld zijn voor redundancy, deel je 1 voeding door 2 en da's grofweg het max verbruik in regulier bedrijf. (Dus niet idle.)

Bij een PC same shit. That is, bij off-the-shelf PC's. Bij PC's die je zelf bouwt bepaal je natuurlijk zelf wat voor voeding d'r in zit en gaat die regel totaal niet meer op.

[ Voor 32% gewijzigd door unezra op 02-10-2017 10:55 ]

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Br00d
  • Registratie: September 2017
  • Laatst online: 17-09 14:13
Bedankt voor de info! _/-\o_

Acties:
  • 0 Henk 'm!

Verwijderd

Gisteren mijn Microserver Gen8 compleet corrupt geraakt. Tweede keer dit jaar, vorige keer door een defecte disk (hidden). S.M.A.R.T. vond alles ok en is groen, maar helaas is de corruptie al over de 4 disken (raid 10) verspreid. Ik heb tot nu toe zeer slechte ervaringen met de Seagate Barracuda's. Onbetrouwbaar en de firmware kan dit soort fouten niet detecteren, tenzij ik een paar keer reboot.

Na wat zoeken op internet zie ik dat dit vaker voorkomt. Oplossing is het vervangen van de disken voor die van Western Digital, een voor een :) Corruptie is niet weg te nemen, maar ben wel klaar met deze troep. Heb tevens een server met WD blue schijven en dit soort vage dingen nooit gehad.

RIP data, bedankt Seagate.

Acties:
  • 0 Henk 'm!
Wat voor OS/Filesystem draai je?

[ Voor 3% gewijzigd door FireDrunk op 09-10-2017 14:56 ]

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

FireDrunk schreef op maandag 9 oktober 2017 @ 14:56:
Wat voor OS/Filesystem draai je?
CentOS 7 / xfs hetzelde op de Gen8 met 2x WD Blue.
WD Blue geeft 0 problemen en heb ik zelfs al langer.
Seagate (barracuda) geeft alleen maar rare problemen, zoals vage corruptie of defecte disken.

[ Voor 36% gewijzigd door Verwijderd op 09-10-2017 16:17 ]


Acties:
  • +2 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 17-09 14:50

Quindor

Switching the universe....

Sinds Crashplan gaat stoppen met hun "family plan" ben ik bezig geweest met het zoeken naar een goedkope oplossing om het te vervangen. Cloud viel vanwege kosten en de eis om zelf meerdere clients te kunnen backuppen al vrij snel af. Blackblaze B2 was het goedkoopste, maar met 5TB eigen data nog steeds vele malen duurder dan crashplan was.

Vervolgens ben ik gaan kijken wat het zou kosten als ik het zelf zou bouwen. Wat blijkt, als je het zelf bouwt en kunt delen met wat vrienden of familie als een soort van multi-tenant, multi-client oplossing, is het, gekeken naar minimaal 3 jaar, vele malen goedkoper dan de cloud!

Goed, tot zo ver de inleiding. Ik heb enkele artikelen geschreven op mijn blog hierover en daarnaast enkele video reviews gemaakt van de hardware die ik gebruik. Naast dat een dergelijke oplossing geschikt is als "backup storage" kan het ook prima dienen als soort van low cost DIY NAS! Vandaar mijn post hier.


De hardware "server" hardware is een Intel Apollo Lake, passief gekoelde Quad-Core met 4GB RAM en 32GB eMMC opslag, Gigabit netwerk, Wireless en meerdere USB3 poorten, dat geeft meer dan voldoende performance als kleine server en kost als complete "server" maar 179$. Gemiddeld verbruik ongeveer 5 a 6 watt.


Dat combineer ik met een Oricio 5 bay USB3 storage cabinet voor 5x SATAIII. Performance is gelimiteerd tot zo'n 225MB/sec tot 250MB/sec vanwege USB3 maar uiteindelijk is een Gigabit toch maar 100MB/sec dus vormt het voor een NAS in principe geen bottleneck.


De "server" ondersteund Linux (Ubuntu 16.04.3 LTS) zonder issues en de 32GB eMMC opslag werkt als bootschijf hiervoor. Ik gebruik vervolgens ZFS voor RAIDz2 (5x10TB) om er zeker van te zijn dat er geen data verloren gaat als er een schijf stuk gaat en er ook geen bitrot voorkomt! Daarnaast is ZFS handig in het "DIY cloud backup" stuk omdat ik daarmee per user een quota kan zetten.

Als server backup maak ik 1x per maand een DD van de eMMC storage naar een 32GB SD kaartje zodat als de eMMC storage dood zou gaan ik daarvan direct kan booten, ook maak ik een kopie naar het externe storage cabinet. Het storage cabinet is geheel los en kan zeer gemakkelijk aan een random ander linux systeem gekoppeld worden waar ZFS op aanwezig is en geïmporteerd worden.

Persoonlijk is dit voor mij een zeer kost effectieve (~300$) oplossing die meer dan genoeg performance bied. Ik ben de laatste maanden aan het testen geweest en met de hardware van hierboven geen enkel issue gehad (100% stabiel). Daarbij heb ik zelfs de 30TB gevuld met random data en daarna 50TB via een scrub geverifieerd zonder issues.

Nu alles een beetje af is wilde ik het in dit topic ook delen voor mensen die wellicht opzoek zijn naar iets vergelijkbaars!

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • Ravefiend
  • Registratie: September 2002
  • Laatst online: 19-09 16:18

Ravefiend

Carpe diem!

Quindor schreef op donderdag 12 oktober 2017 @ 17:45:
Ik gebruik vervolgens ZFS voor RAIDz2 (5x10TB) om er zeker van te zijn dat er geen data verloren gaat als er een schijf stuk gaat en er ook geen bitrot voorkomt!
Met RAIDZ2 neem ik aan dat je dan geen 5 maar 6 schijven hebt?

Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 17-09 14:50

Quindor

Switching the universe....

Ravefiend schreef op vrijdag 13 oktober 2017 @ 18:04:
[...]


Met RAIDZ2 neem ik aan dat je dan geen 5 maar 6 schijven hebt?
Ik snap wat je bedoelt, maar helaas wel, dus ik heb inderdaad een beetje slack space door het gebruik van native 4K sectors. Echter door het aanzetten van LZ4 gaat de standaard formule van de macht van 2 al niet meer op voor ZFS.

In mijn geval gaat er echter niet al teveel te comprimeren zijn (alles komt encrypted binnen) dus het kan zijn dat ik 1 a 1.5TB aan ruimte inlever. Dat was voor mij het verschil tussen 20TB netto (4 disks) of ~28.5TB (5 disks) nog wel waard aangezien ik ook geen RAIDz1 wilde draaien en die 8.5TB "relatief goedkoop" zijn.

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!
Als je de recordsize nog hoger zet gaat dat verlies zelfs omlaag.

Even niets...


Acties:
  • 0 Henk 'm!

  • Quindor
  • Registratie: Augustus 2000
  • Laatst online: 17-09 14:50

Quindor

Switching the universe....

FireDrunk schreef op vrijdag 13 oktober 2017 @ 19:15:
Als je de recordsize nog hoger zet gaat dat verlies zelfs omlaag.
Yes inderdaad, daar was ik nog mee aan het experimenteren (Qua wat voor invloed het heeft). Dus heb ik iig uit het verhaal en artikelen gehouden voor nu.

Intermit.Tech YouTube Kanaal, Intermit.Tech Blog, QuinLED


Acties:
  • 0 Henk 'm!

  • LightStar
  • Registratie: Juli 2003
  • Laatst online: 19-09 09:14
Goedenavond allen, vraagje ik ben momenteel bezig met mijn nieuwe server (12 bay chenbro kast) en ben opzoek naar een 4x sata naar mini-sas (8087), nu heb ik wel 2 kabels maar die lijken allebei niet te werken (ik zie de disken namelijk niet in de bios verschijnen)

Iemand enig idee wat voor kabel ik hiervoor kan gebruiken ?

Acties:
  • +1 Henk 'm!

  • IceTeaGX
  • Registratie: Maart 2010
  • Laatst online: 19-09 11:58
LightStar schreef op maandag 16 oktober 2017 @ 19:30:
Goedenavond allen, vraagje ik ben momenteel bezig met mijn nieuwe server (12 bay chenbro kast) en ben opzoek naar een 4x sata naar mini-sas (8087), nu heb ik wel 2 kabels maar die lijken allebei niet te werken (ik zie de disken namelijk niet in de bios verschijnen)

Iemand enig idee wat voor kabel ik hiervoor kan gebruiken ?
Je hebt die in forward breakout (mini-sas aan de moederbord kant) of reverse breakout (mini-sas aan de drive kant, bij backplanes b.v.)
o.a.: https://forums.lime-techn...-reverse-which-where-why/

Acties:
  • 0 Henk 'm!

  • LightStar
  • Registratie: Juli 2003
  • Laatst online: 19-09 09:14
IceTeaGX schreef op maandag 16 oktober 2017 @ 19:39:
[...]

Je hebt die in forward breakout (mini-sas aan de moederbord kant) of reverse breakout (mini-sas aan de drive kant, bij backplanes b.v.)
o.a.: https://forums.lime-techn...-reverse-which-where-why/
Tnx ik ben dus een reverse breakout nodig :)

Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-08 07:45

InflatableMouse

Carina Nebula says hi!

Hey ik kan wel wat tips gebruiken. Ik heb 4 x 4 TB's besteld om uit te breiden (1 spare).

Ik draai een server met Arch Linux met 2 x 1 TB ZFS mirror en 3 x 4 TB in een RAIDZ.

Ik wil de 2 x 1TB vervangen en 1 extra 4 TB plaatsen. Totaal dus 6 x 4 TB.

De 1 TB's kunnen leeg en ik heb dus 1 spare 4 TB. Ik kan dat tijdelijk in mijn eigen PC plaatsen om een backup te maken van de server voordat ik hem leeg gooi. Dat past net met de ruimte die ik daar ook nog vrij heb :).

OS draait op een PCI-E NVMe 256 GB, onafhankelijk van alle ZFS pools, op swap space na maar dat boeit niet dat gebriukt tie toch niet. Ik kan dat tijdelijk unmounten en opnieuw aanmaken op de nieuwe pools.

Mijn meest belangrijke spullen worden offsite gebackupped, nadeel is restore gaat een week duren. Dit is puur voor disaster recovery dus ik moet het tijdelijk naar een andere (mijn) PC copieren.

Hoe kan ik het beste uitbreiden?

Het makkelijkst is denk ik om een nieuwe RAIDZ te maken met 3 x 4 TB, maar ik zou ook een RAIDZ2 kunnen maken met 6 disks. Ik ben een beetje in dubio of ik wel de moeite moet nemen om er 1 grote pool van te maken of de gemakkelijkere weg en er een 2de pool bij te plaatsen.

Ik weet dat ZFS niet uitgebreid kan worden dus een grote RAIDZ2 moet ik backuppen en volledig opnieuw aanmaken.

Hoe zouden jullie dit aanpakken en waarom?

Alvast bedankt!
Pagina: 1 ... 214 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.