Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Acties:
  • +1Henk 'm!

  • CAPSLOCK2000
  • Registratie: februari 2003
  • Laatst online: 15-11 15:16

CAPSLOCK2000

zie teletekst pagina 888

Mooie setup, maar eh... weet je dat LackRack bedoelt is voor 19" rackable apparatuur en niet voor towers?

This post is warranted for the full amount you paid me for it.


  • CurlyMo
  • Registratie: februari 2011
  • Nu online

CurlyMo

www.pilight.org

Dat is precies wat ik ook doe. Via ssh een snapshot maken, rsync, snapshot verwijderen. Vrij simpele commando's.

geen vragen via PM die ook op het forum gesteld kunnen worden.


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 19:45
Er zijn meerdere optie, maar een bridge is eigenlijk het simpelst. Zoek eerst een guide hoe je een bridge maakt van je lokale LAN (of WLAN) en daarna kan je de virtuele NIC direct op de bridge hangen.

Als je dingen wil weten over Linux Kernel Virtualisatie, kan je beter zoeken op KVM ipv QEMU. Het heet tegenwoordig in de kernel namelijk gewoon KVM, qemu was de oude softwarematige virtualisatie, toen kwam er qemu-kvm (een fork van qemu die Processor assisted virtualisatie ondersteunde), en later is dit weer gemerged in de kernel naar gewoon KVM.

De Userland tools heten nog qemu, terwijl het eigenlijk gewoon KVM is. Toen ik net googlede op QEMU kreeg ik ook een heel aantal resultaten die al veel te oud zijn. Oppassen dus :)

http://www.linux-kvm.org/page/Networking

Hier staat genoeg over het gebruik van bridges. (TIP: gebruik niet die kvm ifup scripts, maar de "Solution 1" scripts die iets verder staan, en start de bridge altijd. Dat betekend dat de bridge altijd actief is ookal draaien er geen VM's, maar dat kan helemaal geen kwaad).

Voor simpel(er) VM management, kan ik je virt-manager aanraden. Dat werkt toch een stuk makkelijker dan op de command line met qemu klooien. Je hebt er geen hele X11 omgeving voor nodig, je kan virt-manager prima draaien via X-forwarding in SSH.

En dat ziet er zo uit:
https://tweakers.net/ext/f/mMT8ffs0FH3zOYV9ZheyWRB9/thumb.png

FireDrunk wijzigde deze reactie 23-08-2016 08:04 (6%)

Even niets...


  • Basz0r
  • Registratie: april 2009
  • Nu online
Hierbij mijn setup.


Hypervisor
Ik heb een custom build Hypervisor in mijn meterkast draaien voor diverse doeleinden. Als OS heb ik gekozen voor Ubuntu 16.04 LTS. Ik gebruik KVM om te virtualiseren, en bcache voor SSD offloading van de disken die er in zitten. Ook heb ik een 2 port Intel NIC er in geprikt om LACP te kunnen doen naar m'n HP Procurve switch.


Hardware
Het volgende heb ik aan hardware in m'n hypervisor zitten.

#ProductPrijsSubtotaal
1Intel Core i5-4460 Boxed€ 178,50€ 178,50
1Asus H81I-PLUS€ 67,51€ 67,51
2WD Green HDD, 3TB€ 101,95€ 203,90
1Cooler Master Elite 110€ 39,-€ 39,-
1Intel Pro/1000 PT Dual Port€ 154,50€ 154,50
1Silverstone Argon AR06€ 39,99€ 39,99
1Kingston HyperX Fury blu HX313C9FK2/16€ 76,-€ 76,-
1Seasonic G-series 360 watt€ 59,95€ 59,95
2Kingston SSDNow V300 120GB€ 46,18€ 92,36
Bekijk collectie
Importeer producten
Totaal€ 911,71


De hardware is opgebouwd uit bij elkaar gezochte onderdelen. Sommigen heb ik tweedehands gekocht en sommigen kwamen uit m'n oude werkstation.


Virtuele machines
NaamOSFunctie
rtr01CentOS 7Default Gateway voor 3 VLANs. Draait ook ZeroTier op voor wat externe machines. En een tunnel naar Hurricane Electric voor IPv6 verkeer.
fs01CentOS 7Fileserver. Met btsync draaiende om belangrijke data tussen 3 locaties te syncen.
cgs01Ubuntu 16.04 LTSCargoship VM. Draaien op dit moment 2 containers op dmv. LXC/LXD. Éen met Domoticz en één met unbound en named als fallback voor DNS als m'n router VM niet draait.
dckr01Ubuntu 16.04 LTSDocker VM. Hier staan de volgende images op: mailserver, confluence, NGINX proxy, rainloop en phpMyAdmin. Ook draait er een Letsencrypt image op om automatisch certs te genereren voor de web applicaties.



Foto's



Motivatie
Storage

In m'n hypervisor heb ik 2 disken van 3TB zitten en 2 SSD's van 120GB. Beiden setjes draaien in RAID 1. Een klein gedeelte van de SSD's gebruik ik voor het OS. De rest als cache device voor bcache. De disken gebruik ik als backing device voor bcache. Dit verbeterd de performance voor random IO aanzienlijk voor de VM's.

Externe toegang

Op m'n router VM draait ZeroTier met een gesloten netwerk. Deze is oa. gekoppeld aan een DigitalOcean VM, die ik gebruik als SSH jump host. Apparaten die in hetzelfde netwerk zitten (ook dmv ZeroTier) kunnen daarmee verbinden, om naar m'n netwerk thuis toe gaan.

Backups

Alle VM's hebben een cronjob staan met een script wat duplicity gebruikt om back-ups te maken naar een externe locatie. Op die externe host draait ook een duplicity script wat incrementeel back-ups maakt van de btsync directories (voor als er iemand een oepsje maakt in een map met foto's).

Stroom

De hypervisor is aangesloten op een kleine UPS (APC Back-UPS 950VA), evenals de switch en m'n modem. Als de stroom uitvalt neemt apcupsd dit waar en gaat er hopelijk iets in Nagios loeien :). Als de UPS bijna leeg is worden alle VM's afgesloten en gaat de hypervisor uit.

De machine schommelt qua gebruik ongeveer tussen 40 á 50 watt aan stroom.

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 19:45
Ja, dat kan.

Even niets...


  • unezra
  • Registratie: maart 2001
  • Laatst online: 16-11 21:19

unezra

Allround ICTer, OSS adept.

Ik heb thuis jarenlang gedraaid op Xen op basis van Debian. Werkt technisch prima en het installeren van een nieuwe vm is een eitje (xen-create-image), maar het begon me meer en meer tegen te staan dat er geen fijne grafische (web-based) beheerinterface omheen zat.

Draai nu pak 'm beet anderhalf jaar op Proxmox, in een 2-node cluster met een NAS op basis van FreeNAS er achter.

Hardware bestaat uit 3 HP Microservers, waarbij de Proxmox machines enkel een 128G SSD hebben voor LXC en Proxmox zelf en de FreeNAS machine 4x5T in een striped mirror (ZFS) draait met nog een 128G SSD voor het OS.

Ik lees in deze draad dat Proxmox wat onduidelijk in zijn features en vergeleken word met Hyper-V. Ik vind dat nogal meevallen. Als je niet bekend bent met Linux virtualisatie is het misschien minder duidelijk, maar Proxmox is een geavanceerde schil over KVM en LXC heen. Niet alleen een GUI, maar ook een eigen CLI waarmee heel veel zaken die met stock KVM en LXC vrij lastig zijn, makkelijk worden gemaakt.

Zie ook:
http://www.proxmox.com/en/proxmox-ve/features
http://www.proxmox.com/en/proxmox-ve/comparison

Proxmox bevalt inmiddels zo goed, dat ik het voor mijn stichting heb ingezet en volgend jaar op kantoor wil inzetten op een plek waar VMWare te duur en overkill is. (2-node cluster met GlusterFS, zonder centrale storage).

Grote pluspunten:
  • Schaalbaarheid
  • Het is licht, heeft zelf amper resources nodig
  • Zowel containervirtualisatie als paravirtualisatie als full virtualization
  • Support vanuit het bedrijf mogelijk (Proxmox Server Solutions GmbH is een volwaardig bedrijf)
  • ZFS
Ik kan nog -tig pluspunten bedenken, maar dan word dit een heel lang verhaal. :)

Schaalbaarheid maakt dat het zowel bruikbaar is in een kleine, 1-server thuisomgeving, als in een cluster van tientallen, mogelijk honderden machines. Er is ook niet 1 beheermachine zoals bij VMWare waar je van afhankelijk bent. Je kunt op iedere willekeurige node inloggen en het beheer van je hele cluster doen. Valt er een node uit, is er weinig aan de hand en kun je op een andere node verder beheren.

Alle functionaliteit zit ook in de gratis versie, er is functioneel geen enkel verschil tussen de gratis en betaalde versie. Hun businessmodel is gebaseerd op support, niet op licenties op de software as-such.

Ná Scaoll. - Don’t Panic.


  • duiveltje666
  • Registratie: mei 2005
  • Laatst online: 14-11 19:49
quote:
belrpr schreef op zaterdag 22 april 2017 @ 15:57:
Ik ben bezig met mijn thuis netwerk te gaan upgraden:
  • Welke "raid" kaart of kaarten kan ik nu het best gebruiken?
  • Installeer ik proxmox of een RAIDZ volume van 2 raid kaarten. Hoeveel GB voorzie ik. Kan ik de andere ruimte nog gebruiken voor de zil & arc?
  • Limiteer ik het geheugen van zfs of proxmox dat ze elkaar niet ambeteren.
[/list]
Sowieso : Je kunt Proxmox rechtstreeks op een Raidz pool installen (root-on-zfs) vanuit de installer zelf .
Je kaarten moet je iig in een IT-mode zetten ( ZFS wil namelijk de volledige controle over je schijven , dus zonder dat de Raid-controller van je kaarten ook involved gaan worden) .

Limiteren is een kwestie van /etc/modprobe.d/zfs.conf aanmaken met daarin bijv de directive :
options zfs zfs_arc_max=4299967296 (4 GB RAM in mijn geval), saven en daarna rebooten..

  • Compizfox
  • Registratie: januari 2009
  • Nu online

Compizfox

I use Arch, btw

quote:
belrpr schreef op zaterdag 22 april 2017 @ 15:57:
Vragen waar ik tegen aanloop:
  • Welke "raid" kaart of kaarten kan ik nu het best gebruiken?
  • Installeer ik proxmox of een RAIDZ volume van 2 raid kaarten. Hoeveel GB voorzie ik. Kan ik de andere ruimte nog gebruiken voor de zil & arc?
  • Limiteer ik het geheugen van zfs of proxmox dat ze elkaar niet ambeteren.
Je hebt voor ZFS geen RAID-controller nodig. Je onboard HBA voldoet. Sterker nog, je wil absoluut geen hardware-RAID want ZFS doet dat in software. Als je toch een RAID-controller neemt (omdat je bv. niet genoeg SATA-poorten onboard hebt) dan moet je zorgen dat je die controller in IT-mode zet zodat hij als 'domme' HBA fungeert.

ZIL/ARC doe je op een SSD. Als je ZFS-pool al op een SSD staat, heeft het geen zin om nog ZIL/ARC te gebruiken: de cache is dan net zo snel als de storage zelf, en daar heb je dus niks aan.

There is no system but GNU and Linux is one of its kernels


Acties:
  • +2Henk 'm!

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 19:45
Proxmox met Ceph. oVirt is erg groot en log, proxmox is veel kleiner, en Ceph is sneller ;)

Even niets...


Acties:
  • +1Henk 'm!

  • CAPSLOCK2000
  • Registratie: februari 2003
  • Laatst online: 15-11 15:16

CAPSLOCK2000

zie teletekst pagina 888

Kijk eens naar Ganeti, dat is low-tech clustersoftware die weinig zelf doet en vooral vertrouwt op de bestaande Linux-kernel en tools. Het configureert (bijvoorbeeld) KVM en DRBD en zorgt voor hot-migration enzo.

In vergelijking met een tool als VMware is het maar een dwerg, maar wel heel makkelijk, toegankelijk en overzichtelijk.

This post is warranted for the full amount you paid me for it.


Acties:
  • +1Henk 'm!

  • 26779
  • Registratie: november 2019
  • Niet online
@tim427 Ik zou, zoals Firedrunk ook al aangeeft zeker voor ProxMox + Ceph gaan.... Daar ga je gewoon erg blij van worden.. :)

Acties:
  • +1Henk 'm!

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 19:45
Dit is dus best gevaarlijk op bijvoorbeeld een ZFS installatie, en kan sneller als je een andere blocksize gebruikt.
code:
1
dd if=/dev/zero of=/zero.fill bs=16M; sync; sleep 1; sync; rm -f /zero.fill

Verder goede tip ;)

Even niets...


Acties:
  • +1Henk 'm!

  • Barryke
  • Registratie: augustus 2003
  • Laatst online: 25-10 14:11

Barryke

blauw

Ik gebruikte thuis voorheen VMs en nu vooral Docker.
Het leek mij wel leuk om deze invalshoek aan deze lijst toe te voegen. O-)


Wat gebruik ik thuis
Een server.. voor uitzoek-projectjes, storage, en de magie die in de achtergrond Plex laat werken als een vol-automatische prive Netflix. Ik had vroeger NASjes, maar storage+compute in 1 bak bevalt mij stukken beter (sneller en goedkoper).

Op welke hardware draai ik het
  • Shuttle sx58h7 + Intel i7 920 cpu + 6GB ram
  • 3x HDD 6TB (storage)
  • SSD 512GB (storage cache)
  • Unraid draait in RAM en boot van USB stick
Een kleine, stille, en energiezuinige ex-PC dus. ..maar doet alles met 2 vingers in neus. Zeker nu ik dockers gebruik.

Wat virtualiseer je eigenlijk
Ik heb dockers voor Plex, Sonarr, Radarr, Jackett, Deluge, Cardigann, Plexpy, Domoticz, Headphones, Musicbrainz, oscam, netwerk en device monitoring, en meer dockers van linuxserver.io. Ik draai ook dockers voor backup en file management, transcode en crunchjobs, voip en gameservers, maar die dockers staan niet standaard aan.

Waarom heb ik gekozen voor dit platform?
Ik heb mijn Windows server ooit vervangen door een Linux server met VM waarin Windows draaide, als overgang. Op die server draait Unraid als OS. Ook experimenteerde ik daarop met andere software in VMs.

Inmiddels heb ik alle VMs vervangen door dockers. Die zijn ook te starten/stoppen (commandline of webinterface) en ben er zeer tevreden over. Nog heb ik VMs klaarstaan om aan te zwengelen op die server maar hiervoor heb ik eigenlijk geen noodzaak meer voor.

De hardware blijkt ruim afdoende. Dat had ik niet verwacht, en de setup blijft mij verbazen. Of een proces iets in 0.010 ms of een halve seconde kan regelen maakt mij niet uit, als ik er toch pas 3 minuten of dagen later naar kijk.
Ik moet hard mijn best doen om deze setup over de zeik te krijgen, dat lukt me alleen met een onrealistische IO piek, en zelfs dat herstelt zichzelf weer in 10 seconden. De cache SSD van Unraid is hierin een grote factor. Daarnaast blijkt deze CPU nog steeds erg goed in transcoden, ook vergeleken met hedendaagse cpu modellen.

Error 304: Please hit any user to continue.


Acties:
  • +1Henk 'm!

  • wopie
  • Registratie: maart 2006
  • Laatst online: 16:38
quote:
Tombastic schreef op zondag 6 mei 2018 @ 21:02:
[...]


Het is wel veel interessanter dan Proxmox, juist omdat zij gebruik maken van LXC en niet meer van OpenVZ. Daarom gebruik ik Proxmox zelf niet meer. Virtuozzo als organisatie is geen kleine jongen en hebben natuurlijk veel meer ervaring met isolatie en ontwikkelingen van Containers. Als je volledig gebruik wilt maken van alle Proxmox updates etc. moet je een abonnement aanschaffen en dat is bij OpenVZ niet het geval.

SmartOS ziet er ook leuk uit. Enig idee hoelang dit (supported) open-source blijft? Ik weet niet in hoeverre het echt vergelijkbaar is met LXC en OVZ qua OS-container isolatie etc.. Zal dit later eens bekijken. Als mensen overweg kunnen met LXC via de terminal, dan is OVZ helemaal makkelijk met de guide erbij.
Ik weet niet hoe lang het supported/open source blijft. Wat ik wel weet is dat het bedrijf dat erachter zit (Joyent) het zelf gebruikt voor hun cloud-platform en dat het open-sourcen van Solaris naar Illumos destijds hun dit alles heeft gebracht (de license van de code is op dit moment CDDL).
Pagina: 1


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Auto

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True