Acties:
  • +7 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 10-06 13:13
Proxmox VE is de afgelopen periode dusdanig populair geworden dat het naar mijn mening toe is aan een eigen topic op GoT. Het wordt nu al met regelmaat besproken in zowel het Zuinige ESXi Server als Het grote ZFS topic
"Proxmox VE is a complete open-source platform for all-inclusive enterprise virtualization that tightly integrates KVM hypervisor and LXC containers, software-defined storage and networking functionality on a single platform, and easily manages high availability clusters and disaster recovery tools with the built-in web management interface."
Afbeeldingslocatie: https://www.proxmox.com/images/proxmox/screenshots/Proxmox-VE-8-1-VMware-ESXi-Guestimport-add-storage.png

KVM, Containers & HA
By combining two virtualization technologies under one platform, Proxmox VE is giving maximum flexibility to your professional virtual environment. Use KVM full virtualization for Windows and Linux images, and lightweight containers to run conflict-free Linux applications.
Proxmox Wiki
Proxmox Howto
Proxmox Troubleshooting
Proxmox Downloads
Proxmox Support Forum

[ Voor 29% gewijzigd door FREAKJAM op 22-08-2024 13:48 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 10-06 13:13
Reserved.

is everything cool?


Acties:
  • 0 Henk 'm!

  • krijn1985
  • Registratie: Januari 2006
  • Laatst online: 22:55
Mooi dat hier een eigen topic over is. Mijn planning is om dit binnenkort toch een keer een VM server aan te schaffen en te gaan proberen. Zit nog een beetje te twijfelen of ik mijn ZFS NAS dan nog steeds apart ga houden of dat ik deze schijven in Proxmox ga toevoegen.

Zover ik het begrijp/zie zou eigenlijk alle hardware die prima door linux ondersteund wordt (lettende op de Kernel die gebruikt word) dus moeten werken?

Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 10-06 13:13
krijn1985 schreef op donderdag 13 oktober 2016 @ 13:07:
Mooi dat hier een eigen topic over is. Mijn planning is om dit binnenkort toch een keer een VM server aan te schaffen en te gaan proberen. Zit nog een beetje te twijfelen of ik mijn ZFS NAS dan nog steeds apart ga houden of dat ik deze schijven in Proxmox ga toevoegen.

Zover ik het begrijp/zie zou eigenlijk alle hardware die prima door linux ondersteund wordt (lettende op de Kernel die gebruikt word) dus moeten werken?
In principe wel. Je zou de hardware requirements voor de zekerheid kunnen doornemen. Proxmox is verder Debian based en maakt gebruikt van een vrij recente kernel. Je kunt ook Debian kaal installeren en Proxmox daar bovenop installeren, maar dan kun je in ieder geval in Debian al controleren of je hardware correct werkt. Ik ben zelf ook van plan te migreren naar Proxmox, maar dat zal wel een heel project gaan worden. Ik draai nu VMWare met een single SSD voor mijn VM's (datastore) en een 6x3TB RAIDZ2 setup. (zonder extra SSD's voor SLOG/L2ARC etc).

Ik wil overstappen naar een nieuwe setup voor mijn lxc containers (zfs mirror) en misschien ook wel idem dito voor het OS zelf. Toevoegen van SLOG/L2ARC's SSD's is bij deze setup is volgens mij dan wel weer raadzaam, maar wat dat betreft ben ik zelf ook nog heel erg zoekende. (en ontbreekt een beetje kennis).

Hopelijk zijn er al wat tweakers hier die Proxmox gebruiken en hun setup kunnen delen!

is everything cool?


Acties:
  • +1 Henk 'm!

  • DrFlash
  • Registratie: Juli 2009
  • Laatst online: 05-03 12:59
Ik draai al enkele jaren proxmox, en hoewel ik ook kijk naar andere oplossingen (oVirt, xen, vmware) kan ik er toch eigenlijk niet omheen hoe makkelijk proxmox is. Over de jaren heen is proxmox nog veel beter geworden als toen ik begon. Het grote nadeel voor veel mensen zal zijn dat je een hardware raid controller nodig hebt om je van raid te voorzien, of een 'geavanceerde' installatie moeten doen om linux mdraid op te zetten.

Heb er van de week over gedacht om een video serie te maken voor de installatie/configuratie van proxmox, voor zowel een single server installatie of een multiserver.

Overigens m'n huidige setup:

Xeon E3-1220 V2 op een Asus serverboard, hierdoor heeft de server 4 netwerkpoorten. 16 GB Ram.
Opslag wordt gedaan op een 300gb disk voor startup, een 80gb SSD en 2x2TB WD Red, die laatste zijn aangesloten op een 3ware 9650 in raid 1.

De storage staat geconfigureerd als lokaal (LVM) dus elke vm krijgt z'n eigen logical volume als disk.

[ Voor 23% gewijzigd door DrFlash op 16-10-2016 00:14 ]

Wowhead profiel


Acties:
  • 0 Henk 'm!

  • wilmardo
  • Registratie: Februari 2011
  • Laatst online: 23:17
Kijk val ik eens met mijn neus in de boter, een heus Proxmox VE topic :D

Ik ben mij aan het oriënteren om mijn huidige Centos 6 server met KVM en virt-manager te gaan overzetten naar Proxmox. Het is beide KVM dus de images zouden direct moeten booten met de juiste instellingen. Alleen volg ik niet helemaal hoe ik mijn huidige images in Proxmox krijg.

Ik heb even een testserver opgezet met gewoon een standaard Proxmox installatie daar heb ik nu twee storages, een local (pve) en een local-lvm(pve). Wat ik tot nu toe heb uitgevonden is dat de opstartmedia in local en de harddisks van de VM's in de local-lvm thin pool terecht komen.
Nu heb ik huidige qcow2/raw images die ik naar de thin pool wil hebben. Hoe pak ik dat aan?
Ik heb al een hoop gelezen maar het wordt niet heel veel duidelijker (even makkelijk FTP'en zit er geloof ik niet in). Heeft een van jullie een goed idee?

Acties:
  • 0 Henk 'm!

  • DrFlash
  • Registratie: Juli 2009
  • Laatst online: 05-03 12:59
Het is mogelijk de virtuele machines met de zelfde settings aan te maken op proxmox, en dan vervolgens met dd if=/ergens/disk.qcow of=/dev/mapper/hoejediskookmagheten. blabla veel (en lastig) werk.

echter veel handiger is om buiten de local-lvm, gewoon een "dir" type bestandssysteem aan te maken met voldoende ruimte om je harddisk files (tijdelijk) op te slaan. Vervolgens kan je vanuit proxmox de disk verhuizen naar je lvm opslag.

Nog een andere optie is om je huidige opslag met NFS te exporteren, deze kan je vervolgens aan proxmox als opslag toevoegen, vanuit daar importeren en de 'move' uitvoeren. dat scheelt het maken van een 'dir' bestandssysteem en het overkopieren van de images.

de screenshot hieronder is van de oude 3.x versie, maar dit werkt ook nog in 4.3 (laatste)

Afbeeldingslocatie: https://pve.proxmox.com/mediawiki/images/9/93/Screen-move-disk.png

[ Voor 28% gewijzigd door DrFlash op 18-10-2016 23:56 ]

Wowhead profiel


Acties:
  • 0 Henk 'm!

  • wilmardo
  • Registratie: Februari 2011
  • Laatst online: 23:17
DrFlash schreef op dinsdag 18 oktober 2016 @ 23:53:
Het is mogelijk de virtuele machines met de zelfde settings aan te maken op proxmox, en dan vervolgens met dd if=/ergens/disk.qcow of=/dev/mapper/hoejediskookmagheten. blabla veel (en lastig) werk.

echter veel handiger is om buiten de local-lvm, gewoon een "dir" type bestandssysteem aan te maken met voldoende ruimte om je harddisk files (tijdelijk) op te slaan. Vervolgens kan je vanuit proxmox de disk verhuizen naar je lvm opslag.

Nog een andere optie is om je huidige opslag met NFS te exporteren, deze kan je vervolgens aan proxmox als opslag toevoegen, vanuit daar importeren en de 'move' uitvoeren. dat scheelt het maken van een 'dir' bestandssysteem en het overkopieren van de images.

de screenshot hieronder is van de oude 3.x versie, maar dit werkt ook nog in 4.3 (laatste)

[afbeelding]
Thanks! Dit is exact de info die ik op internet nergens kon vinden, super bedankt _/-\o_
Ben al even aan het testen geweest en ik denk dat ik voor de NFS share ga.
Ik zet mijn Windows PC dan op als NFS share met de images van de huidige VM's.
Dan laat ik op de tijdelijke Proxmox server de VM's runnen vanaf de NFS share. Dat geeft me rustig de tijd om mijn huidige server opnieuw te installeren en Proxmox in te richten qua storage. Als de nieuwe server er klaar voor is maak ik daar weer VM's aan met de images vanaf de share, move de disks naar een van interne volumes en klaar is Kees :D

Hoe zijn de ervaringen qua performance met compressed qcow2 images?

Acties:
  • 0 Henk 'm!

  • DrFlash
  • Registratie: Juli 2009
  • Laatst online: 05-03 12:59
Als je nu al qcow2 images gebruikt zal je geen verschil merken in de snelheid. ik zelf werk op het moment met LVM storage (lokaal) en heb een test setup met (via NFS) gedeelde opslag, waar het netwerk de vertragende factor is. Kan je dus niet heel veel info geven over het letterlijke verschil, even testen dus als je het wilt weten.

Wowhead profiel


Acties:
  • 0 Henk 'm!

  • vanputten80
  • Registratie: September 2008
  • Laatst online: 09-06 10:40
Mooi topic. Ga ik volgen.

Heb Proxmox bijna 1 jaar draaien en gaat goed. Stabiel en voor mij snel. Ik heb het draaien op oude DELL computer met I5 en 12GB Ram.
Main disk voor alle OS is een SSD 128GB en een losse disk van 3TB voor data. Op het system heb ik 4VMs draaien:

Ubuntu - Domoticz
Server 2012 - File server - Daarop geinstalleerd een aantal services zoals BTSync (tel backup) en Cobian voor backup naar ander system in network. Stack backup.
OpenMediaVault - Download services
W10 - Om mee te spelen

Ik heb bestand containters aangemaakt op de disk en deze gekoppeld aan de server 2012. Vind dit wel een beetje eng, kan maar zo gebeuren dat het bestand corrupt raakt. Per week een backup van de belangrijke bestanden. Eens in 2 maanden doe ik een backup van alle draaiende systemen.

Support op proxmox is goed zoeken. Je kunt met Linux kennis een end komen. Tevens zijn er best practice documenten beschikbaar op hun site.
Heb al een paar keer gehad dat ik geen verbinding meer kon maken naar de VM`s. Met SSH en verschillende codes gelukt om het (vrij eenvoudig) op te lossen.

Acties:
  • 0 Henk 'm!

  • ikke26
  • Registratie: Juli 2009
  • Laatst online: 22:48
Aah mooi dat hier nu een zelfstandig topic voor is.

Eerst heb ik een tijdje Proxmox gebruikt op een dedicated server met daarop VM's met LUKS encryptie op het bestandssysteem. Het idee dat een willekeurige beheerder een schijf uit de server kan pakken en die zonder moeilijkheden uit zou kunnen lezen zat me namelijk niet lekker. Nu kon men alleen in het Proxmox systeem, maar niet in de data die op de VM's stond. Nadeel was ook dat LXC containers niet (eenvoudig) van encryptie konden worden voorzien.

Onlangs heb ik zelf een custom Proxmox VE systeem handmatig geïnstalleerd op een Kimsufi / Soyoustart / OVH dedicated server via het rescue systeem. Bij deze servers zit geen KVM over IP, tenzij tegen hoge kosten, maar ik vond een workaround voor dat eerste euvel.

Daarbij heb ik:
- soft RAID1 opgezet,
- het geheel van encryptie voorzien,
- naast publieke bridges een intern netwerk met port forwarding via de GUI opgezet
- en het mogelijk gemaakt om het root bestandssysteem (LUKS) vanaf afstand via SSH te unlocken bij boot.

Indien daar interesse in is zou ik binnenkort even een geanonimiseerde tutorial kunnen schrijven. Immers, ik moest voor mezelf toch al documenteren wat ik gedaan heb.

De afwijkende netwerk configuratie van OVH is namelijk ontzettend slecht gedocumenteerd en het opzetten leverde een behoorlijk aantal grijze haren op, totdat ik uiteindelijk uitvond hoe het wel werkt. Laat maar weten indien daar interesse voor is.

Het geheel draait nu al een paar maanden als een zonnetje, grootste bottleneck zijn toch de harddisks, aangezien ik daarvoor een paar jaar werkte met SSD's en wel verwend ben geraakt wat dat betreft. Het enige wat ik nog niet heb aangedurfd is het bestandssysteem overzetten naar thin-LVM op de productieserver maar op een testserver is dat al wel gelukt. Binnenkort moet ik maar eens tijd vinden om dat te regelen. Op dit moment kan ik namelijk geen snapshots maken van LXC containers, en moet ik KVM VM's in .qcow2 formaat opslaan in plaats van .raw om te kunnen snapshotten. In het LXC geval is dat hinderlijk omdat ik geen snapshots kan maken, in het KVM .qcow2 geval zorgt het bestandsformaat voor een performance impact van volgens Proxmox zo'n 10%.

Het geautomatiseerd backups en snapshots maken met e-mail notificatie via de GUI is ook echt een uitkomst. Wat ik nog mis is de mogelijkheid om backups met encryptie te maken, ik ben benieuwd of anderen er wel al in geslaagd zijn dat op te zetten. Het zou de mogelijkheid vrijmaken om ook op minder vertrouwde cloudopslag backups te plaatsen.

[ Voor 6% gewijzigd door ikke26 op 20-10-2016 14:21 ]


Acties:
  • 0 Henk 'm!

  • vanputten80
  • Registratie: September 2008
  • Laatst online: 09-06 10:40
Ik gebruik op dit moment 4.1 en wil upgraden naar versie 4.3. Kan ik dit zomaar doen of moet ik met zaken rekening houden (snap van backup etc..)

Acties:
  • 0 Henk 'm!

  • DrFlash
  • Registratie: Juli 2009
  • Laatst online: 05-03 12:59
vanputten80 schreef op dinsdag 25 oktober 2016 @ 21:10:
Ik gebruik op dit moment 4.1 en wil upgraden naar versie 4.3. Kan ik dit zomaar doen of moet ik met zaken rekening houden (snap van backup etc..)
bij mij ging de update van 4.0 naar 4.3 helemaal zonder problemen, inderdaad uiteraard even een kopietje maken van de config etc. maar het zou zonder problemen moeten gaan.

Wowhead profiel


Acties:
  • +2 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
A1AD meldt zich!

Al een hele poos enthousiaste Proxmox gebruiker als AIO server!
Ik vind het heerlijk om LXC containers te gebruiken samen met ZFS en bindmounts naar de storagepool, lekker efficient en geen VT-d meer nodig.
ZFS wordt bij mij altijd beheerd door de Proxmox host zelf, dus zeker geen Freenas/OMV vm.

Mijn (main) setup bestaat uit:
  • i3-3de gen met 32GB ram
  • 2*100GB SSD in RAIDZ1 voor de rpool (OS DISK)
  • 1*256GB SSD LUKS encrypted in RAIDZ0 voor de evopool (ssd datastore, zfs datasets lxc containers os disken)
  • 1*512GB HDD LUKS encrypted in RAIDZ0 voor de wdpool (HDD datastore, test vm's)
  • 5*4TB HDD LUKS encrypted in RAIDZ6 voor de storagepool (bulk data, verschillende datasets om de LXC's te voorzien van (shared) storage, Incl. een NAS dataset voor de Samba service
  • 1*DVB-S2 tv card
LXC containers (debian based):
  • Downloadserver (bindmounts naar storagepool zijn download + media dataset)
  • commserver (irc, stunnel)
  • backupserver (crashplan vooral voor de foto's en personal dataset remote te backuppen, config file backup scripts)
  • domoticaserver (domoticz, node-red)
  • cloudserver (owncloud, wordt nextcloud met bindmount naar de storagepool zijn owncloud dataset)
  • monitorserver (centreon enterprise server)
  • mgmnserver (kan keybased ssh'en naar al men servers)
  • fileserver (samba services, bindmount naar de storagepool zijn "NAS" dataset)
  • zoneminderserver (bindmount naar de storagepool zijn zoneminder dataset dataset)
  • plexserver (bindmount naar storagepool zijn media dataset)
  • tvhserver (tvheadend, bindmount naar storagepool zijn media/recordings dataset + toegang tot de DVB-S2 kaart)
  • revtunserver (remote support reverse ssh tunnels)
  • minecraftserver
  • ftpserver (heeft ook een aparte dataset op de storagepool)
KVM's
  • Cold standby Pfsense (elke uur wordt er een snapshot gestuurd naar deze host van de backup host)
  • OSX (test)
  • Windows10 (test)
  • Server2012r2 (test)
De "Backup" setup bestaat uit:
  • i3-1ste gen met 16GB ram
  • 2*100GB SSD in RAIDZ1 voor de rpool (OS DISK)
  • 6*1TB HDD LUKS encrypted in RAIDZ6 voor de backuppool (bulk data, backups)
Draaiende LXC containers:
  • SMS gateway (usb 3g dongle)
Draaiende KVM's:
  • Pfsense firewall (hier wordt een snapshot van gestuurd elk uur naar de cold standby pfsense op de main proxmox)
Op de hosts draaien verschillende onderhoud scrips in cron:
  • Een /etc/pve/ backup script, handig om je config file te restoren (want deze directory wordt enkel aangemaakt at boot time, ik denk niet dat je die bestanden kan terug halen uit een ZFS snapshot)
  • SCRUBS voor de verschillende ZFS pools elke 1ste en 15de van de maand om 1uur snachts
  • SMART short tests elke 5de, 12de, 19de en 26ste van de maand om 3uur snachts
  • SMART long tests elke 8ste en 22ste van de maand om 4uur snachts
Ik gebruik Nagios om alles na te kijken (backups/hdspace/pools/SMART/cpu/services/tunnels/..)

Momenteel wordt er nog elke nacht een via Proxmox GUI backup van de VM's op mijn storagepool maar ik ben aan het overschakelen naar het fantastische znapzend.
znapzend doet voor mij alle ZFS send/receive gerelateerde functies, zo heb ik een "plan" ingesteld voor beide rpools (main en backup):

Main rpool plan:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
*** backup plan: rpool ***
dst_a           = bds/zBackups/pve/rpool
dst_a_plan      = 1week=>1day,2months=>1week,6months=>1month
dst_b           = pve-backup:backup/zBackup/pve-main/rpool
dst_b_plan      = 2months=>1week
enabled         = on
mbuffer         = /usr/bin/mbuffer
mbuffer_size    = 1G
post_znap_cmd   = off
pre_znap_cmd    = off
recursive       = on
src             = rpool
src_plan        = 2days=>1hour
tsformat        = %d-%m-%Y-%H%M%S
zend_delay      = 0


Hier zie je dat er elke uur een lokale (op rpool zelf) snapshot gemaakt wordt van de volledige rpool (recursive) en deze wordt 2dagen bijgehouden (src_plan = 2days=>1hour)
Bijkomend wordt er een snapshot verstuurd naar de lokale storagepool (bds/zBackups/pve/rpool) waarvan de dagelijkse snapshots een week worden bijgehouden, de weekelijkse 2 maand en de maandelijkse worden 6 maand bijgehouden.
Als laatste wordt er elke week nog een snapshot gestuurd naar de backup Proxmox zijn backuppool (pve-backup:backup/zBackup/pve-main/rpool) deze wordt 2 maand bijgehouden.

Soortgelijk doe ik dus ook voor de Backup Proxmox zijn rpool met enige verschil dat op de backup host zijn vm disks mee op de rpool staan (rpool/data) en dus op deze manier ook geback-upt worden.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
*** backup plan: rpool ***
dst_a           = pve:bds/zBackups/pve-backup/rpool
dst_a_plan      = 1week=>1day,1month=>1week
enabled         = on
mbuffer         = /usr/bin/mbuffer
mbuffer_size    = 1G
post_znap_cmd   = off
pre_znap_cmd    = off
recursive       = on
src             = rpool
src_plan        = 2days=>1hour
tsformat        = %d-%m-%Y-%H%M%S
zend_delay      = 0


Op deze manier is het een kwestie van minuten om mijn volledige host (=rpool) te restoren (ook al heb ik een RAIDZ1 voor de OS disks)
Znapzend wordt nog uitgebreid naar de storagepool en de datastorepools.

Wat stoort mij momenteel nog:tl;dr: Proxmox, LXC en ZFS is geweldig :+

Op Freenode heb je trouwens ook een ##proxmox channel
ikke26 schreef op donderdag 20 oktober 2016 @ 14:18:
- het geheel van encryptie voorzien,
- en het mogelijk gemaakt om het root bestandssysteem (LUKS) vanaf afstand via SSH te unlocken bij boot.
Kan je mij even uitleggen hoe je de OS disks voorzien hebt van encryptie incl. de (ik neem aan dropbear) ssh unlock config?

Thx!

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 10-06 13:13
Erg toffe setup A1AD!

Ik zit zelf te twijfelen om mijn ESXi setup te wijzigen naar een Proxmox of RancherOS setup.

Dingen die me nu nog tegenhouden:
  • Ik heb 6x3TB RAIDZ2 en mijn pool zit voor 82% vol. Geen idee hoe dit voor nu aan te pakken. Een nieuwe VDEV erbij is prijzig (nieuwe hdd's en M1015 kaart of iets dergelijks erbij proppen aangezien ik nog maar 2 poorten vrij heb). Ik kan ook elke schijf één voor één resilveren en vervangen met een grotere disk maar dat kost ook heel veel tijd. Ik zou ervoor kunnen kiezen om een 2de (backup) server erbij te plaatsen. Dan splits ik mijn media data over 2 verschillende servers (series (5tb) op server a en films (3.8tb) op server b bijvoorbeeld) en dan kan ik kritieke data gelijk backuppen/syncen via znapzend)
  • pfSense schijnt best lastig te zijn om te draaien in een KVM, maar ik zie dat het bij jou prima werkt. Gebruikt je twee of drie nics? (Ik lees hier verschillende dingen over). Ik ben bereid om pfSense eventueel te ditchen en mijn fw/routing te regelen met een Ubiquiti UniFi USG + Edgerouter.
  • Is het raadzaam om bij Proxmox iets te doen qua SLOG/L2ARC? Ik gebruik dit nu niet omdat ik voornamelijk media host op mijn zfs pool, maar wanneer je dockers/containers gaat hosten op je ZFS pool, is het wellicht raadzaam om deze in te zetten).
#ProductPrijsSubtotaal
1Ubiquiti UniFi AP-AC LITE (1-Pack)€ 86,85€ 86,85
1Ubiquiti EdgeRouter X€ 52,99€ 52,99
1Ubiquiti UniFi USG Enterprise Gateway Router€ 127,-€ 127,-
Bekijk collectie
Importeer producten
Totaal€ 266,84

RancherOS ziet er ook erg tof uit en werkt met ZFS + Kernel + LXC (Docker) en is bovendien ernstig in ontwikkeling.

[ Voor 12% gewijzigd door FREAKJAM op 16-11-2016 13:12 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
FREAKJAM schreef op woensdag 16 november 2016 @ 12:43:
Erg toffe setup A1AD!

Ik zit zelf te twijfelen om mijn ESXi setup te wijzigen naar een Proxmox of RancherOS setup.

Dingen die me nu nog tegenhouden:
  • mijn pool zit vol.
  • pfSense schijnt best lastig te zijn om te draaien in een KVM
  • Is het raadzaam om bij Proxmox iets te doen qua SLOG/L2ARC? Ik gebruik dit nu niet omdat ik voornamelijk media host op mijn zfs pool, maar wanneer je dockers/containers gaat hosten op je ZFS pool, is het wellicht raadzaam om deze in te zetten).
Thanks FJ.

Dat je pool vol zit is inderdaad een probleem maar dat heeft toch niets te maken met welke hypervisior je werkt? Gebruik deze gewoon zoals ik mijn storage pool gebruik? Enkel voor media (NAS functie). Je kan deze toch gewoon weer importeren eens Proxmox geïnstalleerd is op een aparte OS disk?

Er zijn geen probleem met Pfsense, ja je moet misschien een bridge of 2 aanmaken, maar dat zijn toch basis linux dingen. Ik heb momenteel 1 NIC verbonden met een managed switch en werk met vlans :), werkt tegen mijn verwachtingen in PERFECT. Mijn pfsense firewall is toch redelijk zwaar voor thuis gebruik: 3 ipsec tunnels, 2 site 2 site openvpn connecties, een constante openvpn connectie met PIA en 3 remote openvpn users. 6 tal vlan gescheiden netwerken en 3 WAN connecties (allemaal over dat 1 kabeltje ja). Dat is ook de reden dat de pfsense op mijn backup machine draait, die backup machine is eigenlijk voor 100% in functie voor pfsense. (ik zou niet meer zonder pfsense kunnen/willen)

Ik heb geen enkele VM op magnetische opslag, mijn datastore pools zijn (buiten men 500GB test schijf) enkel SSD dus SLOG/L2ARC is dan niet van toepassing. LXC's zijn trouwens zeer zuinig, mijn bovenstaande LXC containers op de main pool nemen samen 16,5GB in :+

Als je wil overgaan doe je:
  • huidige RZ6 pool > export
  • aankoop SSD (of 2 in RaidZ1)
  • install proxmox op nieuwe SSD
  • import RZ6 in proxmox
Datastore en OS samen op die 1ne SSD, znapzend backup strategie voor OS en datastore te sturen naar je RZ6 pool.

Of mis ik nog iets :+

ps: een leuke tip is x2goserver installeren in een LXC container dat samen met mate desktop en je hebt een zuinige LXC based mate desktop omgeving 8)
DrFlash schreef op zondag 16 oktober 2016 @ 00:08:
Ik draai al enkele jaren proxmox, en hoewel ik ook kijk naar andere oplossingen (oVirt, xen, vmware) kan ik er toch eigenlijk niet omheen hoe makkelijk proxmox is. Over de jaren heen is proxmox nog veel beter geworden als toen ik begon. Het grote nadeel voor veel mensen zal zijn dat je een hardware raid controller nodig hebt om je van raid te voorzien, of een 'geavanceerde' installatie moeten doen om linux mdraid op te zetten.
Euuuu ZFS??

[ Voor 13% gewijzigd door A1AD op 16-11-2016 14:17 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 10-06 13:13
Klinkt allemaal vrij logisch. Als je je containers op een SSD en niet op je zpool gaat hosten heb je in principe geen SLOG etc nodig. Puntje 1 wat ik aanhaal is geen probleem voor de migratie, maar ik ben wel meer het type persoon van als ik dan toch ga migreren, dan maar meteen futureproof en gelijk alles goed.

Aardige complexe setup heb je inderdaad in pfSense. In de toekomst als ik ooit ga verhuizen naar een woonhuis moet ik ook aan de slag met vlans etc want dan wil ik ook glasvezel, maar dat is voor latere zorg. (heb nu nog Ziggo).

is everything cool?


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
FREAKJAM schreef op woensdag 16 november 2016 @ 14:28:
[...]
Als je je containers op een SSD en niet op je zpool gaat hosten heb je in principe geen SLOG etc nodig.
Correctie: Mijn containers staan ook op een zpool, maar een SSD based zpool.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • WeaZuL
  • Registratie: Oktober 2001
  • Laatst online: 18:46

WeaZuL

Try embedded, choose ARM!

Ik wil starten met Proxmox, ik ben volledig nieuw mbt het product echter niet met linux en virtualisatie. Ik heb nog geen hardware. Kan ik voor hardware gewoon naar het zuinige ESXi server topic kijken en dat vervolgens vergelijken met de hardware requirements in de Proxmox wiki? Ik heb moeite om als beginner mijn eerste systeem samen te stellen.

NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
WeaZuL schreef op woensdag 16 november 2016 @ 15:01:
Ik wil starten met Proxmox, ik ben volledig nieuw mbt het product echter niet met linux en virtualisatie. Ik heb nog geen hardware. Kan ik voor hardware gewoon naar het zuinige ESXi server topic kijken en dat vervolgens vergelijken met de hardware requirements in de Proxmox wiki? Ik heb moeite om als beginner mijn eerste systeem samen te stellen.
Ga je met ZFS werken? Welke VM's ga je allemaal draaien, welke technologie (KVM/LXC of beide) wil je ECC geheugen, moet hij voornamelijk zuinig zijn, welke from factor ... beetje meer uitleg is altijd handig.

Hardware is voornamelijk afhankelijk van wat je er allemaal mee wil doen en welke technologieën je zal gebruiken en ja in de topics zoals DIY NAS en ESXi vind je pagina's aan hardware setups terug.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • WeaZuL
  • Registratie: Oktober 2001
  • Laatst online: 18:46

WeaZuL

Try embedded, choose ARM!

A1AD schreef op woensdag 16 november 2016 @ 15:11:
[...]


Ga je met ZFS werken? Welke VM's ga je allemaal draaien, welke technologie (KVM/LXC of beide) wil je ECC geheugen, moet hij voornamelijk zuinig zijn, welke from factor ... beetje meer uitleg is altijd handig.

Hardware is voornamelijk afhankelijk van wat je er allemaal mee wil doen en welke technologieën je zal gebruiken en ja in de topics zoals DIY NAS en ESXi vind je pagina's aan hardware setups terug.
Terechte vragen, ik zou een Plex VM willen draaien en een Nextcloud vm. Of ik ZFS wil moet ik mij in verdiepen wat de voordelen zijn tov linuxraid. Momenteel heb ik de volgende bare metal (Debian) setup draaien welke geen ECC ondersteunt:

#Product
1Intel Pentium i5-4450 Boxed
1ASRock B85M Pro4
2Crucial CT51264BA160BJ
3Seagate Spinpoint M8 ST1000LM024, 1TB
1Chineesche picoPSU 160
1Kingston SSDNow V300 120GB

[ Voor 9% gewijzigd door WeaZuL op 16-11-2016 15:31 ]

NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
WeaZuL schreef op woensdag 16 november 2016 @ 15:24:
[...]


Terechte vragen, ik zou een Plex VM willen draaien en een Nextcloud vm. Of ik ZFS wil moet ik mij in verdiepen wat de voordelen zijn tov linuxraid. Momenteel heb ik de volgende bare metal (Debian) setup draaien welke geen ECC ondersteunt:

#Product
1Intel Pentium i5-4450 Boxed
1ASRock B85M Pro4
2Crucial CT51264BA160BJ
1Chineesche picoPSU 160
1Kingston SSDNow V300 120GB
Hier zijn mensen dat veel meer weten over hardware als mij, maar koop 3*4TB schijven bij voor een RaidZ1 zpool voor je data *je hebt al schijven voor je data zie ik net*,je geheugen uitbreiden tot 32GB en misschien een zwaardere voeding.

Je huidige hardware is snel zat, misschien wat meer geheugen als je voor ZFS kiest (wat ik wel aanraad)

Om je een idee te geven betreffende je SSD. Mijn rpool (OS disk) is momenteel 14GB (incl. 8.5 aan swap :+ ) en mijn LXC containers samen: 16.5GB

[ Voor 5% gewijzigd door A1AD op 16-11-2016 15:45 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • WeaZuL
  • Registratie: Oktober 2001
  • Laatst online: 18:46

WeaZuL

Try embedded, choose ARM!

A1AD schreef op woensdag 16 november 2016 @ 15:32:
[...]


Hier zijn mensen dat veel meer weten over hardware als mij, maar koop 3*4TB schijven bij voor een RaidZ1 zpool voor je data *je hebt al schijven voor je data zie ik net*,je geheugen uitbreiden tot 32GB en misschien een zwaardere voeding.

Je huidige hardware is snel zat, misschien wat meer geheugen als je voor ZFS kiest (wat ik wel aanraad)

Om je een idee te geven betreffende je SSD. Mijn rpool (OS disk) is momenteel 14GB (incl. 8.5 aan swap :+ ) en mijn LXC containers samen: 16.5GB
Snel zat, ok, maar niet geschikt voor ecc geheugen. ZFS icm ECC wordt toch wel sterk aangeraden?

NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict


Acties:
  • 0 Henk 'm!

  • ikke26
  • Registratie: Juli 2009
  • Laatst online: 22:48
A1AD schreef op woensdag 16 november 2016 @ 11:33:

[...]


Kan je mij even uitleggen hoe je de OS disks voorzien hebt van encryptie incl. de (ik neem aan dropbear) ssh unlock config?

Thx!
Het werkt idd met dropbear SSH. Ik heb in principe alles voor mijzelf opgeslagen in een txt zonder comments en met persoonlijke info.
Zodra ik tijd heb zal ik die even whitelabelen en passwords verwijderen en zo commenten dat een ander het ook begrijpt. Wat ik in die setup nog niet heb is LVM-thin, maar dat moet met een kleine aanpassing tijdens het partitioneren wel te regelen zijn. ZFS gebruik ik niet omdat het in dit geval niet praktisch was en nog wat extra complexiteit zou toevoegen.
Daarnaast is mn notitie specifiek voor OVH servers met alle afwijkende netwerk settings en installeren met virtual KVM, dus dat moet ik dan even splitsen.

[ Voor 12% gewijzigd door ikke26 op 16-11-2016 16:31 ]


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
WeaZuL schreef op woensdag 16 november 2016 @ 16:10:
[...]
Snel zat, ok, maar niet geschikt voor ecc geheugen. ZFS icm ECC wordt toch wel sterk aangeraden?
Sja, dat risico moet je voor jezelf uitmaken. Er zijn hier op GoT al legio topics over geschreven. Ik ga die discussie hier zeker ook niet weer opnieuw starten.
ikke26 schreef op woensdag 16 november 2016 @ 16:21:
[...]


Het werkt idd met dropbear SSH. Ik heb in principe alles voor mijzelf opgeslagen in een txt zonder comments en met persoonlijke info.
Zodra ik tijd heb zal ik die even whitelabelen en passwords verwijderen en zo commenten dat een ander het ook begrijpt. Wat ik in die setup nog niet heb is LVM-thin, maar dat moet met een kleine aanpassing tijdens het partitioneren wel te regelen zijn. ZFS gebruik ik niet omdat het in dit geval niet praktisch was en nog wat extra complexiteit zou toevoegen.
Daarnaast is mn notitie specifiek voor OVH servers met alle afwijkende netwerk settings en installeren met virtual KVM, dus dat moet ik dan even splitsen.
Heb je het OS achteraf naar luks encryptie gebracht of eerst encryptie dan Debian geïnstalleerd en achteraf proxmox?

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • ikke26
  • Registratie: Juli 2009
  • Laatst online: 22:48
Ik heb eerst Debian geïnstalleerd met een VNC console via KVM op het rescue systeem van OVH en daarna Proxmox. Ik heb het ook op talloze andere manieren geprobeerd, maar deze manier bleek toch het succesvolst. Ik ben even een filmpje aan het maken van hoe ik het gedaan heb, die zal ik zodra die af is posten.

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
OK ik had hoop dat je eerst Proxmox had geïnstalleerd en pas later er LUKS had overgegooid.

- Deze advertentie is geblokkeerd door Pi-Hole -


  • MvL
  • Registratie: Juni 2012
  • Laatst online: 03-05 19:42

MvL

Hey leuk een Proxmox topic!

Ik twijfel nog een beetje of Proxmox of VMware te gaan gebruiken...

De LXC containers zijn echt super...

edit: waar kunnen we praten over installatie problemen van software in LXC containers?

[ Voor 24% gewijzigd door MvL op 17-11-2016 20:54 ]


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
MvL schreef op donderdag 17 november 2016 @ 20:53:
edit: waar kunnen we praten over installatie problemen van software in LXC containers?
Goei vraag

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • svenvv2
  • Registratie: April 2010
  • Laatst online: 09-06 20:53
MvL schreef op donderdag 17 november 2016 @ 20:53:
edit: waar kunnen we praten over installatie problemen van software in LXC containers?
Het enige dat ik niet in een container heb kunnen krijgen was docker (containers in containers :+ ) en FuseFS mounts, welke ik tenslotte maar op de host heb aangemaakt.

Heeft trouwens iemand pfSense ooit lekker werkend gekregen op een netwerkaansluiting die ook door proxmox zelf in gebruik is? Heb er twee in m'n mobo zitten (proxmox LAN + ongebruikt wannabe WAN) en dan een PCI-e kaart voor pfSense, maar het zou ideaal zijn als ik die er tussenuit kan slopen. (iets met mITX en ruimtegebrek.)

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
svenvv2 schreef op vrijdag 18 november 2016 @ 10:28:
[...]
Heeft trouwens iemand pfSense ooit lekker werkend gekregen op een netwerkaansluiting die ook door proxmox zelf in gebruik is?
Ja met een vlan aware switch, zie wat posts terug.

[ Voor 38% gewijzigd door A1AD op 18-11-2016 10:36 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 03-05 19:42

MvL

Iemand een oplossing voor het benaderen van remote nfs shares binnen een LXC container? Ik lees dat apparmor een boosdoener is om dit op een gewone manier werkend te krijgen....

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
MvL schreef op vrijdag 18 november 2016 @ 20:25:
Iemand een oplossing voor het benaderen van remote nfs shares binnen een LXC container? Ik lees dat apparmor een boosdoener is om dit op een gewone manier werkend te krijgen....
NFS mounten op de host en doorgeven aan de LXC met een bind mount? > Onder de titel "Bind Mount Points"

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 03-05 19:42

MvL

Bedankt voor de link, maar ik bedoelde remote NFS shares. Ik begrijp dat dit is voor storage op dezelfde server. Ik heb dus een aparte storage server/nas en die NFS shares wil ik benaderen in een LXC container.

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
MvL schreef op zaterdag 19 november 2016 @ 10:37:
Bedankt voor de link, maar ik bedoelde remote NFS shares. Ik begrijp dat dit is voor storage op dezelfde server. Ik heb dus een aparte storage server/nas en die NFS shares wil ik benaderen in een LXC container.
Ja i know. EERST je remote NFS share mounten op de host en vervolgens bind mount naar je LXC

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 03-05 19:42

MvL

Ha, ja inderdaad. Bedankt!

Acties:
  • +1 Henk 'm!

  • Pa-Lu
  • Registratie: Februari 2016
  • Laatst online: 22:13
Na een periode van testen ben ik afgelopen weekend aan de slag geweest om mijn homelab van VMware vSphere naar Proxmox te migreren. Als hardware gebruik ik een Intel NUC D54250WYK2, 16 GB ram en een ingebouwde mSATA ssd van 250 GB. De ISO van Proxmox kon gemakkelijk op een bootable USB gezet worden en de installatie was dan ook klaar binnen 5 minuten.

In eerste instantie nog een poging gewaagd om de VM’s van vSphere om te zetten naar Proxmox, dit al snel opgegeven aangezien opnieuw installeren van de virtuele machines sneller zou gaan.

Wat mij (positief) opvalt van Proxmox tegenover vSphere:
• Proxmox zelf neemt minder geheugen in gebruik dan vSphere.
• De web interface werkt vele malen prettiger en hierdoor is geen vSphere client meer nodig. Aangezien voor mijn Mac geen vSphere client beschikbaar is, scheelt dit weer knoeien in een Windows VM. De nieuwe HTML5 web host client interface van vSphere kan qua snelheid en functionaliteit niet tippen aan die van Proxmox.
• Ingebouwde backup functionaliteit, geen 3rd party tools of scripts nodig.
• Koppelen van NFS mounts aan Proxmox, welke ik nu dus gebruik voor backup.
• LXC containers! Voor iedere applicatie heb ik een container aangemaakt, in vergelijking met een VM scheelt dit bakken aan geheugen en de applicaties kunnen elkaar niet in de weg zitten.

Op dit moment heb ik 3 KVM en 9 containers draaien, allemaal op Ubuntu 16.04 of Ubuntu 14.04.

LXC containers:
• management : key based login op alle machines
• webproxy : nginx reverse proxy met letsencrypt
• backup : backups van remote locaties via ssh
• mysql : database server
• bookstack : python based wiki voor documentatie (www.bookstackapp.com)
• unifi : ubiquiti unifi server voor beheer wifi access points
• observium : monitoring op basis van observium.
• splunk: gratis editie van splunk als syslog server
• pydio: web based file manager

KVM servers:
• plex : plex server, inclusief plexpy voor de statistieken
• leech : download server - transmission, sickrage en autosub – kan alleen naar buiten via een openvpn connectie.
• nvr : ubiquiti unifi video server, 5 ip camera’s, recording en automatische mail bij beweging op bepaalde tijden.

Het geheel gebruikt op dit moment een kleine 7 GB aan ram. De komende tijd wil ik nog verder gaan testen met een Windows based VM.

De eerste paar dagen ben ik tot nu toe erg tevreden, ik ben benieuwd of de omgeving net zo stabiel blijft als vSphere de afgelopen jaren is geweest.

Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 03-05 19:42

MvL

Wat mij opvalt LXC containers kan je een static ip adres geven maar KVM VM's niet of mis ik iets...

  • Pa-Lu
  • Registratie: Februari 2016
  • Laatst online: 22:13
KVM VM's kan je in de machine zelf een static IP adres geven.

Bij LXC containers is dit dus al mogelijk tijdens het aanmaken van de container.

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
Pa-Lu schreef op maandag 21 november 2016 @ 12:35:

KVM servers:
• plex : plex server, inclusief plexpy voor de statistieken
• leech : download server - transmission, sickrage en autosub – kan alleen naar buiten via een openvpn connectie.
• nvr : ubiquiti unifi video server, 5 ip camera’s, recording en automatische mail bij beweging op bepaalde tijden.
Mooie omgeving, waarom heb je voor KVM gekozen voor plex en leech?

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 03-05 19:42

MvL

Ik heb zelf als ik Plex in LXC container installeer dat de search functie niet werkt. In een VM werk alles goed.

Acties:
  • 0 Henk 'm!

  • nielsn
  • Registratie: November 2010
  • Laatst online: 19:56
Pa-Lu schreef op maandag 21 november 2016 @ 12:35:
Na een periode van testen ben ik afgelopen weekend aan de slag geweest om mijn homelab van VMware vSphere naar Proxmox te migreren. Als hardware gebruik ik een Intel NUC D54250WYK2, 16 GB ram en een ingebouwde mSATA ssd van 250 GB. De ISO van Proxmox kon gemakkelijk op een bootable USB gezet worden en de installatie was dan ook klaar binnen 5 minuten.

In eerste instantie nog een poging gewaagd om de VM’s van vSphere om te zetten naar Proxmox, dit al snel opgegeven aangezien opnieuw installeren van de virtuele machines sneller zou gaan.

Wat mij (positief) opvalt van Proxmox tegenover vSphere:
• Proxmox zelf neemt minder geheugen in gebruik dan vSphere.
• De web interface werkt vele malen prettiger en hierdoor is geen vSphere client meer nodig. Aangezien voor mijn Mac geen vSphere client beschikbaar is, scheelt dit weer knoeien in een Windows VM. De nieuwe HTML5 web host client interface van vSphere kan qua snelheid en functionaliteit niet tippen aan die van Proxmox.
• Ingebouwde backup functionaliteit, geen 3rd party tools of scripts nodig.
• Koppelen van NFS mounts aan Proxmox, welke ik nu dus gebruik voor backup.
• LXC containers! Voor iedere applicatie heb ik een container aangemaakt, in vergelijking met een VM scheelt dit bakken aan geheugen en de applicaties kunnen elkaar niet in de weg zitten.

Op dit moment heb ik 3 KVM en 9 containers draaien, allemaal op Ubuntu 16.04 of Ubuntu 14.04.

LXC containers:
• management : key based login op alle machines
• webproxy : nginx reverse proxy met letsencrypt
• backup : backups van remote locaties via ssh
• mysql : database server
• bookstack : python based wiki voor documentatie (www.bookstackapp.com)
• unifi : ubiquiti unifi server voor beheer wifi access points
• observium : monitoring op basis van observium.
• splunk: gratis editie van splunk als syslog server
• pydio: web based file manager

KVM servers:
• plex : plex server, inclusief plexpy voor de statistieken
• leech : download server - transmission, sickrage en autosub – kan alleen naar buiten via een openvpn connectie.
• nvr : ubiquiti unifi video server, 5 ip camera’s, recording en automatische mail bij beweging op bepaalde tijden.

Het geheel gebruikt op dit moment een kleine 7 GB aan ram. De komende tijd wil ik nog verder gaan testen met een Windows based VM.

De eerste paar dagen ben ik tot nu toe erg tevreden, ik ben benieuwd of de omgeving net zo stabiel blijft als vSphere de afgelopen jaren is geweest.
toon volledige bericht
Waarom laat je eigenlijk Autosub alleen via een VPN naar buiten gaan?

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
MvL schreef op zaterdag 26 november 2016 @ 20:16:
Ik heb zelf als ik Plex in LXC container installeer dat de search functie niet werkt. In een VM werk alles goed.
Hier werkt alles top in een Debian LXC met:
apt-get update && apt-get upgrade && apt-get dist-upgrade && apt-get install systemd-sysv.
Plex "bare metal" draaien heeft toch echt wel zijn voordelen.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 03-05 19:42

MvL

Ik gebruikte Ubuntu 16.04 LTS in LXC container maar om één of andere werkte de search functie niet.

Waarom installeer jij systemd-sysv? Voor de compatibiliteit? Is dat het probleem?

Wat bedoel je met "bare metal"? Je draait Plex toch in container? :)

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
MvL schreef op zaterdag 26 november 2016 @ 21:38:
Ik gebruikte Ubuntu 16.04 LTS in LXC container maar om één of andere werkte de search functie niet.

Waarom installeer jij systemd-sysv? Voor de compatibiliteit? Is dat het probleem?

Wat bedoel je met "bare metal"? Je draait Plex toch in container? :)
Plex heeft graag systemd :+
LXC is inderdaad een container en een container is zo goed als bare metal.

[ Voor 9% gewijzigd door A1AD op 26-11-2016 22:13 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 03-05 19:42

MvL

A1AD schreef op zaterdag 26 november 2016 @ 22:10:
[...]


Plex heeft graag systemd :+
LXC is inderdaad een container en een container is zo goed als bare metal.
Ubuntu server 16.04 gebruiktt standaard systemd dus het moet toch ergens anders aan liggen dat search niet werkt.

Wat betreft container is zo goed als bare metal == True ;)

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
MvL schreef op zondag 27 november 2016 @ 14:53:
[...]


Ubuntu server 16.04 gebruiktt standaard systemd dus het moet toch ergens anders aan liggen dat search niet werkt.

Wat betreft container is zo goed als bare metal == True ;)
Ja klopt, ik zou het gewoon nog eens proberen of Debian gebruiken.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • Pa-Lu
  • Registratie: Februari 2016
  • Laatst online: 22:13
A1AD schreef op donderdag 24 november 2016 @ 15:43:
[...]


Mooie omgeving, waarom heb je voor KVM gekozen voor plex en leech?
Voor leech vanwege de connectie naar buiten VPN-only, leek mij gemakkelijker om dit in een KVM te doen.
Plex eigenlijk meer omdat ik dit ook zo had in de VMware omgeving, niet bij stil gestaan dat dit gemakkelijk in een LXC kan. Zit hier voor plex verder nog een nadeel aan?
nielsn schreef op zaterdag 26 november 2016 @ 20:56:
[...]

Waarom laat je eigenlijk Autosub alleen via een VPN naar buiten gaan?
Het stond misschien niet helemaal duidelijk, maar alle connecties van deze VM kunnen alleen via een VPN naar buiten toe.

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
Pa-Lu schreef op maandag 28 november 2016 @ 10:33:
[...]
Zit hier voor plex verder nog een nadeel aan?
Performantie

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 03-05 19:42

MvL

A1AD schreef op zondag 27 november 2016 @ 17:49:
[...]


Ja klopt, ik zou het gewoon nog eens proberen of Debian gebruiken.
Ik heb het nog een keer geprobeerd en nu werkt het wel allemaal goed!

Hoe gebruiken jullie NZBGet in een LXC container en dan bedoel ik hebben jullie netwerk shares gemaakt in de container om bij de bestanden te komen of downloaden jullie naar remote NFS shares?

Acties:
  • +1 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
MvL schreef op maandag 28 november 2016 @ 20:51:
[...]


Ik heb het nog een keer geprobeerd en nu werkt het wel allemaal goed!

Hoe gebruiken jullie NZBGet in een LXC container en dan bedoel ik hebben jullie netwerk shares gemaakt in de container om bij de bestanden te komen of downloaden jullie naar remote NFS shares?
Bij mij staat al men storage op de pve host zelf, dus bind mount ik de host storage naar de lxc's

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 03-05 19:42

MvL

A1AD schreef op maandag 28 november 2016 @ 21:01:
[...]

Bij mij staat al men storage op de pve host zelf, dus bind mount ik de host storage naar de lxc's
Dit werk inderdaad prima! Ik heb het even geprobeerd. Alleen hoe kom jij bij de data? Het zijn natuurlijk geen netwerk shares...

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
MvL schreef op dinsdag 29 november 2016 @ 21:12:
[...]


Dit werk inderdaad prima! Ik heb het even geprobeerd. Alleen hoe kom jij bij de data? Het zijn natuurlijk geen netwerk shares...
Ik begrijp je vraag niet goed.

Mijn pool staat op de pve host en wordt beheerd door zfsonlinux op de host zelf (proxmox dus)
voorbeeld:
proxmox host bds pool:
/bds/NAS/Media/Fotos

En ik heb dan een bindmount in mijn vmid.conf van plex:
mp0: /bds/NAS/Media/Fotos,mp=/mnt/NAS/Media/Fotos

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 03-05 19:42

MvL

A1AD schreef op woensdag 30 november 2016 @ 09:24:
[...]


Ik begrijp je vraag niet goed.

Mijn pool staat op de pve host en wordt beheerd door zfsonlinux op de host zelf (proxmox dus)
voorbeeld:
proxmox host bds pool:
/bds/NAS/Media/Fotos

En ik heb dan een bindmount in mijn vmid.conf van plex:
mp0: /bds/NAS/Media/Fotos,mp=/mnt/NAS/Media/Fotos
Ik heb een LVM group toegevoegd en een bindmount naar een LXC container gemaakt. De data die dan op LVM partitie staat wil ik graag ook benaderen via clients in het netwerk. Hoe doe ik dit? Kan dit überhaupt wel...

[ Voor 49% gewijzigd door MvL op 30-11-2016 09:43 ]


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Wat je (denk ik) kan doen is dan nog een bind mount aanmaken naar een andere container, en in die container dan Samba (of andere file sharing) instellen.

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
MvL schreef op woensdag 30 november 2016 @ 09:42:
[...]


Ik heb een LVM group toegevoegd en een bindmount naar een LXC container gemaakt. De data die dan op LVM partitie staat wil ik graag ook benaderen via clients in het netwerk. Hoe doe ik dit? Kan dit überhaupt wel...
Ja natuurlijk!
Mijn /bds/NAS/Media/Fotos heb ik ook gebind mount naar een LXC container met een samba role :)

LVM is een partitie... dan gaat dat niet op deze manier nee. Waarom gebruik je geen ZFS??
Om bovenstaande te doen moet je de LVM partitie op de host mounten en het mount point (de directory zelf) bind mounten naar de containers

[ Voor 65% gewijzigd door A1AD op 30-11-2016 09:50 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 03-05 19:42

MvL

A1AD schreef op woensdag 30 november 2016 @ 09:45:
[...]


Ja natuurlijk!
Mijn /bds/NAS/Media/Fotos heb ik ook gebind mount naar een LXC container met een samba role :)

LVM is een partitie... dan gaat dat niet op deze manier nee. Waarom gebruik je geen ZFS??
Om bovenstaande te doen moet je de LVM partitie op de host mounten en het mount point (de directory zelf) bind mounten naar de containers
Maar ik weet niet of ik je hellemaal volg. LVM kan ook gewoon via de Proxmox gu (toevoegen, partitioneren moets via de cli)i en dan via je LXC container --> resources kan je een bindmount toevoegen dus LVM storage op de Proxmox host alleen dan niet redundant. Naar ZFS moet ik nog even kijken. Geen flauw idee nog hoe dit moet...

...maar ik begrijp dat jij via de LXC container netwerk shares maakt dus dan zou ik samba moeten installeren (wat dcm360 eigenlijk zegt) in mijn LXC container. In mijn LXC container draait geen nas software maar NZBGet.

[ Voor 32% gewijzigd door MvL op 30-11-2016 10:13 ]


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
MvL schreef op woensdag 30 november 2016 @ 10:12:
[...]


Maar ik weet niet of ik je hellemaal volg. LVM kan ook gewoon via de Proxmox gu (toevoegen, partitioneren moets via de cli)i en dan via je LXC container --> resources kan je een bindmount toevoegen dus LVM storage op de Proxmox host alleen dan niet redundant. Naar ZFS moet ik nog even kijken. Geen flauw idee nog hoe dit moet...

...maar ik begrijp dat jij via de LXC container netwerk shares maakt dus dan zou ik samba moeten installeren (wat dcm360 eigenlijk zegt) in mijn LXC container. In mijn LXC container draait geen nas software maar NZBGet.
Nee inderdaad, ik doe het net iets anders en zoals ik de bind mount maak kan momenteel enkel via de CLI. Ik vind mijn manier wel de beste voor een AIO systeem.

Beknopt voorbeeld:

Op host:
5 disken van 4TB in RAIDZ2
> zpool create -o ashift=12 bds raidz2 /dev/disk-by/id/disk1 /dev/disk-by/id/disk2 ...

Aanmaken dataset:
> zfs create bds/NAS/Media/Pictures

Plex LXC
--------------
nano /etc/pve/lxc/vmid.conf (vmid = ID van je lxc container)
en toevoegen:
mp0: /bds/NAS/Media/Fotos,mp=/mnt/NAS/Media/Fotos

SAMBA LXC
-------------------
nano /etc/pve/lxc/vmid.conf (vmid = ID van je lxc container)
en toevoegen:
mp0: /bds/NAS/Media/Fotos,mp=/mnt/NAS/Media/Fotos

Download LXC
---------------------
....

Nu hebben de LXC's toegang tot de foto folder op /mnt/NAS/Media/Fotos

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 03-05 19:42

MvL

Afbeeldingslocatie: https://tweakers.net/ext/f/K9ZxNO2oXNyBZvEoz6dOwARt/thumb.png

Hier doe je het in de LXC container zelf. Wat jij handmatig in <container>.conf plaatst als ik je goed begrijp.

Acties:
  • +1 Henk 'm!

  • Edd
  • Registratie: Januari 2001
  • Laatst online: 20:15

Edd

MvL schreef op woensdag 30 november 2016 @ 11:54:
[afbeelding]

Hier doe je het in de LXC container zelf. Wat jij handmatig in <container>.conf plaatst als ik je goed begrijp.
Nee, er is een verschil. Via de Gui maak je een disk aan in de folder die je opgeeft.
Als je het via de conf doet, zoals A1AD aangeeft, wordt de folder gemapped naar de LXC container. Je kunt dan bij de data die in de folder staat in de share.
Ik ben hier afgelopen week zelf mee bezig geweest, om mijn NAS in te richten met Proxmox en op deze manier de services te ontsluiten als containers.

-


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 10-06 10:50

unezra

Ceci n'est pas un sous-titre.

Nice! Een Proxmox topic. Meteen gebookmarked. :)

Ik draai nu volgens mij iets meer dan een jaar thuis Proxmox, inmiddels op een 2-node HA cluster op basis van 2 Microserver Gen8's met een FreeNAS machine er achter. (Ook een Microserver Gen8, die dingen zijn dusdanig goedkoop dat "eentje extra" prima te doen is.) Voordat ik met Proxmox begon heb ik lang op Xen gedraait (zowel privé als met mijn vereniging), daarvoor had ik een gedeelde server met wat vrienden.

Buiten thuis heb ik ook nog samen met een vriend een stichting opgericht en vanwege de goede ervaringen met Proxmox en de nogal fijne featurelist, hebben we ook daar gekozen voor Proxmox. Machine is een "tikje" zwaarder dan wat ik thuis draai, het is een omgebouwde HP LeftHand P4500G2 storage server, met nu 2 CPU's en 96G geheugen in plaats van 1 CPU en 4G geheugen. Storage is lokaal (ZFS), maar wel met qcow2 images zodat we later eenvoudig kunnen migreren naar centrale storage.

Wellicht dat hier mensen zitten die recentelijk ook bij een bijeenkomst van de Nederlandse Linux Gebruikers Groep (NLLGG) of T-DOSE zijn geweest: Daar heb ik een presentatie gegeven over virtualisatie, waarbij ik onder andere ben ingegaan op de voor- en nadelen van Proxmox in combinatie met ZFS. (Slides staan online, maar ik weet of het gewenst is dat ik daar links heen plaats. Iemand die mij dat kan vertellen?)

Op kantoor draaien we volledig op VMWare, bevalt goed, daar zeker de juiste oplossing. Toch zijn we ook daar aan het kijken of we binnenkort (begin volgend jaar), niet een Proxmox cluster neer kunnen zetten. Plan is dan te experimenteren met GlusterFS, zodat we geen centrale storage nodig hebben en toch met 2 machines goede redundancy hebben. (Hoewel onze "standaard server" op kantoor een DL360Gen8 is, wil ik voor die specifieke taak ook weer Microservers in zetten. Puur vanwege de kosten en het feit dat een Microserver ruim zwaar genoeg is voor hetgeen we er mee willen doen.)

Kortom, ik ga dit topic zeker goed in de gaten houden en hoop dat ik ook inhoudelijk wat dingen bij kan dragen vanuit mijn eigen ervaring met Proxmox. :)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 03-05 19:42

MvL

Edd schreef op woensdag 30 november 2016 @ 12:32:
[...]


Nee, er is een verschil. Via de Gui maak je een disk aan in de folder die je opgeeft.
Als je het via de conf doet, zoals A1AD aangeeft, wordt de folder gemapped naar de LXC container. Je kunt dan bij de data die in de folder staat in de share.
Ik ben hier afgelopen week zelf mee bezig geweest, om mijn NAS in te richten met Proxmox en op deze manier de services te ontsluiten als containers.
Ja, inderdaad waar!

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
unezra schreef op woensdag 30 november 2016 @ 12:37:
Daar heb ik een presentatie gegeven over virtualisatie, waarbij ik onder andere ben ingegaan op de voor- en nadelen van Proxmox in combinatie met ZFS. (Slides staan online, maar ik weet of het gewenst is dat ik daar links heen plaats. Iemand die mij dat kan vertellen?)
Het is OT, waarom niet?

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • +4 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 10-06 10:50

unezra

Ceci n'est pas un sous-titre.

True. :)

Goed, hierbij dan de slides:
- Engelse versie, zoals gegeven op T-DOSE 2016: https://anmd.org/files/ta...-2016-choices-choices.pdf
- Nederlandse versie, zoals gegeven bij de NLLGG: https://anmd.org/files/20...-2016-choices-choices.pdf

Er zitten wat verschillen tussen die 2, bij T-DOSE heb ik net even wat andere aspecten belicht, vandaar dat ik ze allebei noem. Ze zijn, zoals te zien is aan de slides, gegeven vanuit de stichting die ik samen met een vriend dit jaar heb opgericht. Gedachte achter deze talks was vooral om mensen te inspireren Proxmox in combinatie met ZFS te gaan gebruiken.

Ik hoop dat jullie er iets aan hebben.
(Spreekt voor zich dat vragen over de slides van harte welkom zijn. Ik zal dit topic in de gaten houden.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • vanputten80
  • Registratie: September 2008
  • Laatst online: 09-06 10:40
Een tijd niet gekeken hier en veel nieuwe berichten. Leuk om te lezen en zo leer ik weer veel nieuwe dingen, zoals LXC containers .

Ik heb zelf alles in een VMs zitten, lekker gemakkelijk. Maar gebruikt veel resources. Ik ben me aan het verdiepen in LXC containers en wat ik me afvroeg is of het mogelijk om bv op een Unbuntu container een Gui te krijgen (zoals Unity). Ik ben redelijk nieuw in de wereld van Linux en beheers nog lang niet alles betreft command line.
Ik zou dan Domoticz en download VM in een container willen plaatsen zodat ik meer resources overhoud voor mijn Windows systemen die er ook op draaien.

Acties:
  • +1 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 03-05 19:42

MvL

unezra schreef op woensdag 30 november 2016 @ 16:29:
[...]


True. :)

Goed, hierbij dan de slides:
- Engelse versie, zoals gegeven op T-DOSE 2016: https://anmd.org/files/ta...-2016-choices-choices.pdf
- Nederlandse versie, zoals gegeven bij de NLLGG: https://anmd.org/files/20...-2016-choices-choices.pdf

Er zitten wat verschillen tussen die 2, bij T-DOSE heb ik net even wat andere aspecten belicht, vandaar dat ik ze allebei noem. Ze zijn, zoals te zien is aan de slides, gegeven vanuit de stichting die ik samen met een vriend dit jaar heb opgericht. Gedachte achter deze talks was vooral om mensen te inspireren Proxmox in combinatie met ZFS te gaan gebruiken.

Ik hoop dat jullie er iets aan hebben.
(Spreekt voor zich dat vragen over de slides van harte welkom zijn. Ik zal dit topic in de gaten houden.)
toon volledige bericht
Bedankt voor de info! Erg interessant.

Als ik 2 LXC containers van dezelfde LVM disk (dus local storage) gebruik wil laten maken hoe doe ik dan? Ik heb iets gelezen dat je directories moet gebruiken. Hoe is dit met ZFS?

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
vanputten80 schreef op donderdag 1 december 2016 @ 17:51:
Een tijd niet gekeken hier en veel nieuwe berichten. Leuk om te lezen en zo leer ik weer veel nieuwe dingen, zoals LXC containers .

Ik heb zelf alles in een VMs zitten, lekker gemakkelijk. Maar gebruikt veel resources. Ik ben me aan het verdiepen in LXC containers en wat ik me afvroeg is of het mogelijk om bv op een Unbuntu container een Gui te krijgen (zoals Unity). Ik ben redelijk nieuw in de wereld van Linux en beheers nog lang niet alles betreft command line.
Ik zou dan Domoticz en download VM in een container willen plaatsen zodat ik meer resources overhoud voor mijn Windows systemen die er ook op draaien.
Kijk eens naar x2go

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 10-06 10:50

unezra

Ceci n'est pas un sous-titre.

vanputten80 schreef op donderdag 1 december 2016 @ 17:51:
Ik heb zelf alles in een VMs zitten, lekker gemakkelijk. Maar gebruikt veel resources. Ik ben me aan het verdiepen in LXC containers en wat ik me afvroeg is of het mogelijk om bv op een Unbuntu container een Gui te krijgen (zoals Unity). Ik ben redelijk nieuw in de wereld van Linux en beheers nog lang niet alles betreft command line.
Ik zou dan Domoticz en download VM in een container willen plaatsen zodat ik meer resources overhoud voor mijn Windows systemen die er ook op draaien.
Als je een beetje grafische performance wilt, zou ik eerder kijken naar SPICE op een vm. Ik heb daar zelf nog niet mee geexperimenteerd, maar in theorie zou dat snelheids-technisch vrij zinvol moeten zijn.

LXC zie ik zelf nog redelijk beperkt nut voor, juist ook omdat je ze niet HA kunt maken. In fact, je kunt ze niet eens offline moven van de ene machine naar de andere.

Ik heb hier wel een LXC container draaien bij wijze van experiment, om er wat ervaring mee op te doen en omdat het voor die toepassing handig was (DNS + DHCP server, die ook draait als de NAS nog niet online is en mijn vm's er dus nog niet zijn, de container draait op lokale storage onafhankelijk van de NAS).

Verder heb ik er nog niet veel ervaring mee.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
unezra schreef op donderdag 1 december 2016 @ 21:47:
[...]


Als je een beetje grafische performance wilt, zou ik eerder kijken naar SPICE op een vm. Ik heb daar zelf nog niet mee geexperimenteerd, maar in theorie zou dat snelheids-technisch vrij zinvol moeten zijn.

LXC zie ik zelf nog redelijk beperkt nut voor, juist ook omdat je ze niet HA kunt maken. In fact, je kunt ze niet eens offline moven van de ene machine naar de andere.

Ik heb hier wel een LXC container draaien bij wijze van experiment, om er wat ervaring mee op te doen en omdat het voor die toepassing handig was (DNS + DHCP server, die ook draait als de NAS nog niet online is en mijn vm's er dus nog niet zijn, de container draait op lokale storage onafhankelijk van de NAS).

Verder heb ik er nog niet veel ervaring mee.
Met ZFS send and receive kan je ze wel moven.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 10-06 10:50

unezra

Ceci n'est pas un sous-titre.

A1AD schreef op vrijdag 2 december 2016 @ 06:48:
Met ZFS send and receive kan je ze wel moven.
Ja, maar daar heb je met Proxmox as-such niet zo heel erg veel aan. :)

Het maakt het niet tot een HA setup waar je via de GUI of de Proxmox CLI een online of offline vm binnen redelijke periode naar andere storage kunt verplaatsen.

(Los van ZFS send & recieve zijn er wel meer manieren waarop je dit kunt doen, maar dat zijn allemaal manieren buiten Proxmox om.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
unezra schreef op vrijdag 2 december 2016 @ 07:59:
[...]


Ja, maar daar heb je met Proxmox as-such niet zo heel erg veel aan. :)

Het maakt het niet tot een HA setup waar je via de GUI of de Proxmox CLI een online of offline vm binnen redelijke periode naar andere storage kunt verplaatsen.

(Los van ZFS send & recieve zijn er wel meer manieren waarop je dit kunt doen, maar dat zijn allemaal manieren buiten Proxmox om.)
Klopt, maar voor thuis gebruik kan je eenvoudig je LXC dataset elke x minuten send and receiven naar een backup proxmox. Als je dan ook nog de vmid.conf mee kopieert dan moet je maar enkel op play klikken wanneer de main machine down gaat. (of scripten > pct start vmid). Zo heb je toch nog iets van HA.

Het zou uiteraard veel netter zijn wanneer dit mogelijk wordt gemaakt via de GUI (met alle toeters en bellen) maar voorlopig goed genoeg voor mijn thuis server.

Wanneer je bovenstaande zou willen doen, vergeet dan niet:
https://forum.proxmox.com...rage-disk-size-0-b.30028/

[ Voor 6% gewijzigd door A1AD op 02-12-2016 09:29 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • vanputten80
  • Registratie: September 2008
  • Laatst online: 09-06 10:40
Ik heb op dit moment een SSD met alle VM`s een 3TB schijf met data. Ik wil dit in een andere PC doen met meer geheugen en een betere processor.
Weet iemand of ik dit zomaar kan doen of gaat dit niet werken?

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

De kans is best groot dat het gaat werken. Twee van mijn Proxmox-installaties zijn begonnen in Virtualbox voordat ik ze op echte hardware heb gezet, en een andere draaide eerst bovenop ESXi voordat die verhuisd werd naar KVM. Het heeft bij mij geen problemen opgeleverd (behalve dat ik een falende SSD had dan).

Acties:
  • 0 Henk 'm!

  • vanputten80
  • Registratie: September 2008
  • Laatst online: 09-06 10:40
dcm360 schreef op maandag 5 december 2016 @ 17:25:
De kans is best groot dat het gaat werken. Twee van mijn Proxmox-installaties zijn begonnen in Virtualbox voordat ik ze op echte hardware heb gezet, en een andere draaide eerst bovenop ESXi voordat die verhuisd werd naar KVM. Het heeft bij mij geen problemen opgeleverd (behalve dat ik een falende SSD had dan).
Mijn situatie is niet helemaal duidelijk omschreven lees ik. Ik heb nu een proxmox PC draaien, versie 4.1-1. met daarin verschillende VM en een disk van 3TB met data. Ik wil deze schijven eruit halen en in andere PC doen. Is dan het antwoord nog steeds ja?

Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 03-05 19:42

MvL

Op zich heb ik ook wel eens een Linux distro verhuist naar een andere server. Daar heb ik nooit problemen mee gehad. Met Proxmox heb ik het nog nooit geprobeerd.., maar ik vermoed zolang de hardware maar ondersteund wordt...

[ Voor 15% gewijzigd door MvL op 05-12-2016 20:03 ]


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

vanputten80 schreef op maandag 5 december 2016 @ 19:26:
[...]


Mijn situatie is niet helemaal duidelijk omschreven lees ik. Ik heb nu een proxmox PC draaien, versie 4.1-1. met daarin verschillende VM en een disk van 3TB met data. Ik wil deze schijven eruit halen en in andere PC doen. Is dan het antwoord nog steeds ja?
Nog steeds ja inderdaad. Van virtuele naar echte hardware verhuizen is niet zo heel erg anders dan van echte naar andere echte hardware (gekeken vanuit de installatie dan).

Acties:
  • 0 Henk 'm!

  • Newjersey
  • Registratie: November 2000
  • Laatst online: 20:51
Leuk, een Proxmox topic!

Ik draai nu sinds 2 weken Proxmox. Uiteindelijk kwam ik vanaf ESXi naar Hyper-V om vervolgens op Proxmox te draaien. Bevalt me tot nu toe perfect.

Wat ik mij afvaag: hoe hebben jullie je netwerkkaarten geconfigureerd? Via Linux Bridges of via OVS bridges?

Acties:
  • 0 Henk 'm!

  • vanputten80
  • Registratie: September 2008
  • Laatst online: 09-06 10:40
Ik gebruik Proxmox al enige tijd, zonder problemen.
Ik zou graag wat feedback willen op mijn configuratie - vooral op het stuk schijven in VM`s:

Ik heb een SSD met daarop de KVM`s en een 3TB schijf voor data.

KVMs
>Linux Ubuntu - Domoticz
>W10 - Testing en voor gebruik applicaties welke niet onder Linux draaien
>Download machine
>Windows Server 2012
- Binnen deze server heb ik 5 virtuele schijven aangemaakt welke met de volgende settings:

Bus/Device:VIRTI0
Format: RAW en VMDK
No Cache
No Backup

(Backup heb ik ingesteld op een andere PC - Deze gaat 1x per week aan en download alle nieuwe bestanden van deze schijven)

Is dit een juiste manier van opzetten van schijven binnen een KVM? Wat mij bang maakt is wanneer Proxmox op wat voor reden het niet meer doet, dat ik dan geen toegang meer tot de RAW/VMDK bestanden heb.

Acties:
  • 0 Henk 'm!

  • vanputten80
  • Registratie: September 2008
  • Laatst online: 09-06 10:40
Ik heb een probleem nu waar ik wat hulp bij nodig heb. Ik wil een cluster aanmaken zodat ik VMs kan backuppen.
Ik heb deze documentatie gelezen en de stappen gevolgd.

Ik krijg nu op de hoofd Node de volgende melding wanneer ik pvecm status gebruik:

perl: warning: Setting locale failed.
perl: warning: Please check that your locale settings:
LANGUAGE = (unset),
LC_ALL = (unset),
LC_PAPER = "nl_NL.UTF-8",
LC_ADDRESS = "nl_NL.UTF-8",
LC_MONETARY = "nl_NL.UTF-8",
LC_NUMERIC = "nl_NL.UTF-8",
LC_TELEPHONE = "nl_NL.UTF-8",
LC_IDENTIFICATION = "nl_NL.UTF-8",
LC_MEASUREMENT = "nl_NL.UTF-8",
LC_TIME = "nl_NL.UTF-8",
LC_NAME = "nl_NL.UTF-8",
LANG = "en_US.UTF-8"
are supported and installed on your system.
perl: warning: Falling back to a fallback locale ("en_US.UTF-8").
Cannot initialize CMAP service


Wat ik ook zie is dat mijn VM niet meer starten. De volgende melding krijg ik "TASK ERROR: cluster not ready - no quorum?"

Ik heb gezocht op het internet maar kom er niet uit (toch te beperkte kennis).

Heeft iemand een tip wat ik kan doen? Ik wil eigenlijk de stappen ongedaan maken - ik ga dan testen op 2 andere pcs - geen productie dingen 8)7

----------------------
EDIT
Inmiddels kan ik de systemen weer starten - service pve-cluster stop
Nu verder uitzoeken wat er mis en herstellen.

Dit lijkt een oplossing te zijn maar kan dit nog niet testen.

EDIT2
Alles start weer automatisch er stond een fout IP adres in
/etc/corosync/corosync.conf
aangepast, reboot en alles start weer. Nu door met het cluster

[ Voor 15% gewijzigd door vanputten80 op 07-12-2016 18:45 ]


Acties:
  • 0 Henk 'm!

  • Tk55
  • Registratie: April 2009
  • Niet online
Ik test momenteel Proxmox op een oud systeem en heb de volgende vraag: Hoe richten jullie je schijven in?

Proxmox staat geïnstalleerd op een SSD. Er zit ook een 1TB HDD in het systeem. Deze is momenteel geformatteerd als ext4 en gemount in /mnt.

Ik wil deze schijf graag inrichten met de volgende doelen:
- Media
- Backups (VMs)
- Backups (Data andere devices)

Is dit de goede aanpak? Ik heb het idee dat het beter kan, bijvoorbeeld met LVM, maar kan niet echt vinden wat dan de beste manier is.

Acties:
  • +1 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 10-06 13:13
Proxmox 4.4 is gereleased!

Ceph dashboard
The new Ceph dashboard gives the administrator a comprehensive overview of the Ceph status, the Ceph monitors, the Ceph OSDs, and the current performance and utilization of the Ceph cluster. Together with the existing disk management the new dashboard simplifies the ease-of-use and administration of Ceph storage and paves the way to the complete software-defined data center.

Unprivileged Container
The creations of unprivileged containers moves from the command line to the GUI. Many LXC templates for various operating system have been updated. Another improvement of the new version Proxmox VE 4.4 is the CPU Core Limitation which helps distributing the performance between containers. The new function Container Restart Migration will help with server moves and maintenance work on the host.

High Availability Stack
The Proxmox VE HA Stack brings new functions, many of them have been implemented and improved in the HA Web Interface at the suggestion of the community: The two tabs "resource" and "HA status" have been merged. A consistent view for the current HA status with the ability to edit and add HA resources has been added, and a new HA group editor now allows users to set priorities directly from the GUI. All details of these changes and improvements in the HA stack are already accessible in the reference documentation directly via the web interface (via the help button).

Another new feature in Proxmox VE 4.4 is a dedicated live migration network (via command line).

Proxmox Server Solutions GmbH has also recently expanded its partner network and welcomes the German company Thomas Krenn AG as new technology partner. Thomas Krenn AG offers customers Proxmox VE Certified Hardware.

Download
Proxmox VE 4.4 is available now and ready for download.

is everything cool?


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 10-06 10:50

unezra

Ceci n'est pas un sous-titre.

Tk55 schreef op woensdag 7 december 2016 @ 10:15:
Ik test momenteel Proxmox op een oud systeem en heb de volgende vraag: Hoe richten jullie je schijven in?

Proxmox staat geïnstalleerd op een SSD. Er zit ook een 1TB HDD in het systeem. Deze is momenteel geformatteerd als ext4 en gemount in /mnt.

Ik wil deze schijf graag inrichten met de volgende doelen:
- Media
- Backups (VMs)
- Backups (Data andere devices)

Is dit de goede aanpak? Ik heb het idee dat het beter kan, bijvoorbeeld met LVM, maar kan niet echt vinden wat dan de beste manier is.
LVM zou ik sowieso doen, al was het alleen al omdat het in alle opzichten wat flexibeler is. Maar waarom ext4 en geen ZFS? Ook op een single disk heeft ZFS voordelen boven ext4. ECC geheugen in je machine is dan wel aan te raden.

Andere vraag: Waarom een single disk? Het gaat om een oud systeem, dus ik gok dat je het niet voor productie gebruikt maar puur om eens met Proxmox te spelen. Als dat zo is is dat prima natuurlijk maar du-moment dat je er serieuze data (ook je vakantiefoto's vallen daar onder) op gaat zetten: RAID. (En misschien beter nog, ZFS in mirroring of striped mirrors.)

Ná Scaoll. - Don’t Panic.


Acties:
  • +1 Henk 'm!

  • johann1982
  • Registratie: Maart 2009
  • Laatst online: 25-03 11:36
Hoi !

Weet iemand hoe ik in een LXC container aan mijn zfs snapshots kan ?
Heb de zfs mountpoint in de container gebind (via mp0 in conf file) en dat werkt prima, enkel kan de container niet aan de .zfs/snapshot files.

Kan trouwens wel aan de .zfs/snapshot files in de proxmox host.

Ik vermoed dat de snapshots niet gemount worden via de container....

Wie kan er helpen ?
Dank !!

Johan

EDIT: ondertussen opgelost: de bind op 2x dezelfde plaats houden (host en container) lost het probleem op. Snapshots zijn nu bereikbaar in container (en ook via samba shadow copy)

[ Voor 18% gewijzigd door johann1982 op 16-12-2016 23:39 ]


Acties:
  • 0 Henk 'm!

  • vanputten80
  • Registratie: September 2008
  • Laatst online: 09-06 10:40
Ik ben aan het experimenteren met Nas4Free. Is het volgende mogelijk om te doen. Ik kom er niet achter.

Proxmox draaien op de server op een eigen SSD - Daarop staan ook de VM`s. Als VM wil ik Nas4Free en Nas4Free wil ik twee 3TB schijven laten aansturen in mirror met ZFS,
Ik wil dat proxmox niets doet met die schijven maar het volledige beheer overlaten aan Nas4Free.

Waarom vraag ik dit. Ik wil mijn data beter kunnen beheren. Nas4Free heb ik nu een tijdje getest en bevalt goed. Ik wil dit thuis gaan inzetten.
Zoals nu bedacht komt er een tweede PC waar enkel Nas4Free op staat met de 2 schijven. De andere PC draait proxmox met daarin een aantal VMs (oa voor domoticz en Webserver).

Ik kan met Nas4Free ook Vms draaien in virtualbox alleen moet ik best wat tweaken om USB devices geconnect te krijgen. Ik wil het systeem zo min aanpassen tov zn standaard.

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 10-06 10:50

unezra

Ceci n'est pas un sous-titre.

vanputten80 schreef op zondag 18 december 2016 @ 11:26:
Proxmox draaien op de server op een eigen SSD - Daarop staan ook de VM`s. Als VM wil ik Nas4Free en Nas4Free wil ik twee 3TB schijven laten aansturen in mirror met ZFS,
Ik wil dat proxmox niets doet met die schijven maar het volledige beheer overlaten aan Nas4Free.
Even gegoogled, het kan:
https://pve.proxmox.com/wiki/Physical_disk_to_kvm
Waarom vraag ik dit. Ik wil mijn data beter kunnen beheren. Nas4Free heb ik nu een tijdje getest en bevalt goed. Ik wil dit thuis gaan inzetten.
Zoals nu bedacht komt er een tweede PC waar enkel Nas4Free op staat met de 2 schijven. De andere PC draait proxmox met daarin een aantal VMs (oa voor domoticz en Webserver).
De vraag die in mij op komt is waarom je niet een aparte NAS maakt met Nas4Free of FreeNAS en vervolgens juist je Proxmox vm's dmv NFS op die NAS zet. Dat is wat ik thuis doe. FreeNAS machine (HP Microserver Gen8) met daarop alle vm's, maar OOK mijn samba shares. NAS dient dus zowel mijn Proxmox cluster als mijn Windows machines in het netwerk.

Werkt als een speer en is veel flexibeler en toekomstbestendiger dan een NAS als vm op je Proxmox machine met hdd passthrough.
Ik kan met Nas4Free ook Vms draaien in virtualbox alleen moet ik best wat tweaken om USB devices geconnect te krijgen. Ik wil het systeem zo min aanpassen tov zn standaard.
Virtualbox vind ik persoonlijk niet echt leuk voor server virtualisatie. Daar is KVM veel beter geschikt voor. (KVM is wat Proxmox gebruikt als virtualisatielaag. Naast LXC, maar da's container virtualisatie en veel minder flexibel dan KVM.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Tomsworld
  • Registratie: Maart 2001
  • Niet online

Tomsworld

officieel ele fan :*

Iemand ervaring met proxmox en ceph op dezelfde hosts ?

"De kans dat een snee brood op een nieuw tapijt valt met de beboterde zijde onderaan, is recht evenredig met de prijs van het tapijt"


Acties:
  • 0 Henk 'm!

  • vanputten80
  • Registratie: September 2008
  • Laatst online: 09-06 10:40
unezra schreef op zondag 18 december 2016 @ 11:51:
[...]


De vraag die in mij op komt is waarom je niet een aparte NAS maakt met Nas4Free of FreeNAS en vervolgens juist je Proxmox vm's dmv NFS op die NAS zet. Dat is wat ik thuis doe. FreeNAS machine (HP Microserver Gen8) met daarop alle vm's, maar OOK mijn samba shares. NAS dient dus zowel mijn Proxmox cluster als mijn Windows machines in het netwerk.

Werkt als een speer en is veel flexibeler en toekomstbestendiger dan een NAS als vm op je Proxmox machine met hdd passthrough.
Als ik dit doe dan moet ik zeker 2 machines elke dag aan hebben staan. Dat probeer ik te omzeilen. Of lees ik het nu niet goed?
Het verbruik zal zoǹ 60 watt zijn voor beide machines in idle staat.
Wat ik nu ga doen is eerst mijn proxmox server bouwen naar wens en vervolgens de Nas. Als beide draaien kan ik andere dingen gaan proberen. Betekend dus, voorlopig, 2 machines altijd aan. Nas zal ik in de nacht gaan uitschakelen middels een script.

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 10-06 10:50

unezra

Ceci n'est pas un sous-titre.

vanputten80 schreef op zondag 18 december 2016 @ 21:48:
[...]
Als ik dit doe dan moet ik zeker 2 machines elke dag aan hebben staan. Dat probeer ik te omzeilen. Of lees ik het nu niet goed?
Klopt. Ze moeten inderdaad allebei permanent aan staan.
Het verbruik zal zoǹ 60 watt zijn voor beide machines in idle staat.
Ik heb het nog niet gemeten maar ik dacht dat ik voor 2 machines in totaal rond de 60W nodig heb, met de 3e machine er bij zit het iets hoger. Wil dat zeker nog eens nameten (helaas heeft ILO op die dingen geen vermogensmeter, da's iets voor de zwaardere modellen). Kennis van me heeft het wel gemeten en ik meen dus dat hij rond de 35W per machine uit kwam, afhankelijk van de exacte configuratie.

HP Microservers zijn vrij energiezuinig zeg maar. :) (Met de G910 CPU er in, niet de i3 of i5.)
Wat ik nu ga doen is eerst mijn proxmox server bouwen naar wens en vervolgens de Nas. Als beide draaien kan ik andere dingen gaan proberen. Betekend dus, voorlopig, 2 machines altijd aan. Nas zal ik in de nacht gaan uitschakelen middels een script.
*brrrr*
Da's niet goed voor je disks en waarom zou je? Om een paar EUR per jaar aan stroom te besparen?
Dan kun je ze net zo goed allebei 's nachts uit zetten en je benodigde scripts daarvoor op een RASPI draaien. (Evenals de scripts om ze 's ochtends als je wakker word weer aan te zetten dmv Wake-On-Lan.)

EDIT:
Note dat als je je vm's via NFS op je NAS gaat draaien (wat je met zo'n setup wel wil), je eerst die vm's moet shutten. Ze vinden het niet heel erg leuk als ze vol in bedrijf opeens hun virtuele disks kwijt zijn.

[ Voor 6% gewijzigd door unezra op 18-12-2016 22:31 ]

Ná Scaoll. - Don’t Panic.


Acties:
  • +1 Henk 'm!

  • vanputten80
  • Registratie: September 2008
  • Laatst online: 09-06 10:40
unezra schreef op zondag 18 december 2016 @ 22:30:
[...]


*brrrr*
Da's niet goed voor je disks en waarom zou je? Om een paar EUR per jaar aan stroom te besparen?
Dan kun je ze net zo goed allebei 's nachts uit zetten en je benodigde scripts daarvoor op een RASPI draaien. (Evenals de scripts om ze 's ochtends als je wakker word weer aan te zetten dmv Wake-On-Lan.)

EDIT:
Note dat als je je vm's via NFS op je NAS gaat draaien (wat je met zo'n setup wel wil), je eerst die vm's moet shutten. Ze vinden het niet heel erg leuk als ze vol in bedrijf opeens hun virtuele disks kwijt zijn.
Idee is om data en VMs apart te houden.
Op machine 1 staat proxmox (SSD disk) en z`n VMs.
Op machine 2 staat Nas4Free en beheert alleen maar data.

Ik benader, indien nodig, via het netwerk de NAS voor bestanden.

Maar jouw idee/voorstel is wel een stuk veiliger.

Thanks voor je advies

Acties:
  • 0 Henk 'm!

  • wilmardo
  • Registratie: Februari 2011
  • Laatst online: 23:17
Ik heb intussen ook alles over van Centos met virt-manager naar Proxmox en het beheren is een heel stuk makkelijker zo. Thanks @DrFLash, de migratie verliep soepeltjes met een NFS share ertussen!
Nu ben ik alles even opnieuw aan het kijken of dingen niet beter kunnen nu ik over ben naar Proxmox.

Het enige nadelige van de overstap naar Proxmox is dat mijn NIC (Realtek RTL8111GR) alleen 100Mb/s connectie maakt ;(
Gister de laatste driver van Realtek compiled en geinstalleerd maar geen verschil dus ik ga binnenkort mijn moederbord maar swappen naar iets met een Intel NIC denk ik zomaar.

Dit is mijn huidige setup:

VM's
NAS met Xpenelogy (NZBGet, Sonarr, Couchpotato)
Ubuntu 16.10 desktop met SPICE voor webdevelopment
Centos 7 Webserver (Nginx, MariaDB, PHP-FPM, Zarafa met Z Push)
Ubuntu 14.04 Domoticz server
Ubuntu 14.04 TvHeadend <- Down op dit moment, heeft nog wat aandacht nodig

LCX's
Centos 7 met Plex en plexpy
Centos 7 met InfluxDB en Grafana

Nu ben ik me aan het inlezen op LXC containers omdat ik in dit topic veel mensen zie die vrijwel alles daarop draaien. Net even een mijn Plex installatie overgezet naar een LXC en het bevalt me prima en ik merk geen nadelen.
Maar wat is nu het nadeel in vergelijking met KVM? De voordelen kan ik wel vinden; minder overhead, snellere startup, lagere latency maar de nadelenen komen niet echt naar voren.
Ik las in dit topic al iets over migreren dat niet werkte met LXC?

Verder ook even een LXC container opgezet met Grafana en Proxmox daarheen laten loggen (zie ook hier). Vet cool al die data alleen een fatsoenlijk dashboard maken zal wel even duren B)
Iemand anders ook al extern logging voor Proxmox?

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 10-06 10:50

unezra

Ceci n'est pas un sous-titre.

wilmardo schreef op vrijdag 30 december 2016 @ 14:28:
Het enige nadelige van de overstap naar Proxmox is dat mijn NIC (Realtek RTL8111GR) alleen 100Mb/s connectie maakt ;(
Gister de laatste driver van Realtek compiled en geinstalleerd maar geen verschil dus ik ga binnenkort mijn moederbord maar swappen naar iets met een Intel NIC denk ik zomaar.
Realtek zou gewoon moeten werken. Misschien net dat type niet, maar dan zou ik d'r eerder een RTL NIC in zetten op een PCI kaart dan je hele board swappen voor iets met Intel NIC's. Intel of HP is in de regel niet nodig.
Maar wat is nu het nadeel in vergelijking met KVM? De voordelen kan ik wel vinden; minder overhead, snellere startup, lagere latency maar de nadelenen komen niet echt naar voren.
Ik las in dit topic al iets over migreren dat niet werkte met LXC?
LXC heeft voor mij 3 nadelen:

- Je kunt niet eenvoudig een HA setup maken met die dingen of migreren naar een andere host
- Je kunt de container minder makkelijk "oppakken" (ik werk graag met images op NFS, die kan ik zo ergens anders heen slingeren)
- Je kunt geen gebruik maken van willekeurige guest OSses (dus Windows in LXC word een uitdaging)

Overigens vind ik LXC wel een heel leuk concept. Ik wil er thuis ook meer mee gaan doen en 1 van de eerste toepassingen is een 2e DNS/DHCP server. Die draait lokaal vanaf de SSD van mijn Proxmox machine, zodat als mijn NAS uit valt of nog niet in de lucht is, ik iig sowieso DNS/DHCP heb.

Ik maak via BackupPC backups van dat ding. Da's geen bare-metal, maar goed genoeg als 'ie helemaal kapot gaat. (Helaas draaien die backups nog wel op dezelfde NAS als de rest van mijn data. Puur vanwege de kosten. Idealiter wil ik een 2e NAS puur voor backups optuigen die ik ergens op een fysiek andere locatie neer zet. Misschien in de schuur, misschien bij een vriend, misschien in een DC.)
Verder ook even een LXC container opgezet met Grafana en Proxmox daarheen laten loggen (zie ook hier). Vet cool al die data alleen een fatsoenlijk dashboard maken zal wel even duren B)
Iemand anders ook al extern logging voor Proxmox?
Oh! Grafana hoorde ik deze week van. Staat al op mijn TODO van 2017, dit klinkt wel leuk. Thuis de URL eens goed gaan bekijken. (En dit topic sowieso in de gaten houden...)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • wilmardo
  • Registratie: Februari 2011
  • Laatst online: 23:17
unezra schreef op vrijdag 30 december 2016 @ 14:47:
Realtek zou gewoon moeten werken. Misschien net dat type niet, maar dan zou ik d'r eerder een RTL NIC in zetten op een PCI kaart dan je hele board swappen voor iets met Intel NIC's. Intel of HP is in de regel niet nodig.
Eens dat het gewoon zou moeten werken maar een upgradetje is nooit weg. Onder Centos werkte het allemaal prima na de gecompilde driver. Het vage is ook dat de Supported en Advertised link modes beide netjes Gigabit aangeven alleen de speed doodleuk op 100Mb/s staat :/


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
Supported ports: [ TP ]
        Supported link modes:   10baseT/Half 10baseT/Full
                                100baseT/Half 100baseT/Full
                                1000baseT/Full
        Supported pause frame use: No
        Supports auto-negotiation: Yes
        Advertised link modes:  10baseT/Half 10baseT/Full
                                100baseT/Half 100baseT/Full
                                1000baseT/Full
        Advertised pause frame use: Symmetric Receive-only
        Advertised auto-negotiation: Yes
        Speed: 100Mb/s
        Duplex: Full
        Port: Twisted Pair
        PHYAD: 0
        Transceiver: internal
        Auto-negotiation: on
        MDI-X: Unknown
        Supports Wake-on: pumbg
        Wake-on: d
        Current message level: 0x00000033 (51)
                               drv probe ifdown ifup
        Link detected: yes
unezra schreef op vrijdag 30 december 2016 @ 14:47:
LXC heeft voor mij 3 nadelen:

[...]
Thanks, goede informatie! Maar waarom de backups via BackupPC? Je kan ook via Proxmox snapshots maken, naar bijvoorbeeld je NAS.
unezra schreef op vrijdag 30 december 2016 @ 14:47:
Oh! Grafana hoorde ik deze week van. Staat al op mijn TODO van 2017, dit klinkt wel leuk. Thuis de URL eens goed gaan bekijken. (En dit topic sowieso in de gaten houden...)
Als je van statistieken houdt is het ook leuk, alleen is Grafana voor mij helemaal nieuw dus het instellen vergt wat studie. Maar overzichten zoals dit zijn in een paar tellen te maken (en nee geen idee wat die piek eens per 15 minuten is op mijn webserver :)):
Grafana

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
wilmardo schreef op vrijdag 30 december 2016 @ 19:28:
[...]
Thanks, goede informatie! Maar waarom de backups via BackupPC? Je kan ook via Proxmox snapshots maken, naar bijvoorbeeld je NAS.
Dat is inderdaad juist 1 van de voordelen dat het LXC os niet in 1 file (container) zit zodat dat je perfecte (file level) bescherming hebt dmv ZFS.

Qua backup (en migratie) gebruik je dan eenvoudig ZFS send and receive al dan niet met mijn inziens 2 TOP scripts: sanoid of znapzend.

Ik heb 1 KVM (osx) tussen 15tal LXC's en it hurts :+
unezra schreef op vrijdag 30 december 2016 @ 14:47:
[...]

LXC heeft voor mij 3 nadelen:

- Je kunt niet eenvoudig een HA setup maken met die dingen of migreren naar een andere host
- Je kunt de container minder makkelijk "oppakken" (ik werk graag met images op NFS, die kan ik zo ergens anders heen slingeren)
- Je kunt geen gebruik maken van willekeurige guest OSses (dus Windows in LXC word een uitdaging)
Wat de 1 een nadeel vindt is voor de andere een voordeel ;)
Maar eum windows in een LXC? LXC's gebruiken toch (oa.) de host kernel, good luck with that :D

[ Voor 40% gewijzigd door A1AD op 31-12-2016 10:48 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 10-06 10:50

unezra

Ceci n'est pas un sous-titre.

A1AD schreef op zaterdag 31 december 2016 @ 10:41:
[...]
Dat is inderdaad juist 1 van de voordelen dat het LXC os niet in 1 file (container) zit zodat dat je perfecte (file level) bescherming hebt dmv ZFS.
Heb je ook als je met images werkt. Da's geen specifiek voordeel van LXC.
ZFS vs een qcow2 (of vmdk of raw) image is daarin vergelijkbaar qua afscherming.
Qua backup (en migratie) gebruik je dan eenvoudig ZFS send and receive al dan niet met mijn inziens 2 TOP scripts: sanoid of znapzend.
ZFS send & recieve (icm sanoid) is idd geweldig, maar ook daar, of je nu met LXC of met disk images werkt, op dat gebied werkt het functioneel gelijk.

Punt van LXC vs kvm is dat ik met KVM heel eenvoudig via de GUI een live migratie van de ene host naar de andere kan doen. LXC niet. Mijn data kan ik wel op een andere plek neer zetten en met wat trukerij kan het allemaal, maar het is niet even simpel "migrate" en klaar.
Wat de 1 een nadeel vindt is voor de andere een voordeel ;)
Maar eum windows in een LXC? LXC's gebruiken toch (oa.) de host kernel, good luck with that :D
My point exactly. :)
Je kunt niet een willekeurig OS in een LXC duwen en dat vind ik persoonlijk een van de grote nadelen. Je bent minder vrij in je guest OS keuze.

Zolang je maar braaf Linux machientjes op tuigt is dat allemaal niet zo spannend maar wil je eens iets met een ander OS doen heb je een uitdaging.

Yet, LXC vs KVM, ik vind het enorm fijn dat Proxmox allebei aan bied en je kunt kiezen. Het kent allebei zijn eigen toepassingsgebied.

Mijn 2e DHCP/nameserver kon ik hier natuuurlijk ook gewoon als KVM machine op zijn eigen SSD zetten. Dat ik daar voor LXC heb gekozen is juist omdat ik met LXC wil experimenteren, het beter wil leren kennen en dan zet ik het het liefst meteen productie in. (Want dat leert altijd een stuk beter dan zuiver in een lab.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 07-05 11:37
unezra schreef op zaterdag 31 december 2016 @ 11:03:
[...]

ZFS send & recieve (icm sanoid) is idd geweldig, maar ook daar, of je nu met LXC of met disk images werkt, op dat gebied werkt het functioneel gelijk.
Toch niet helemaal, ZFS kan je duidelijk vertellen welke file er in je LXC container defect is, wanneer je een disk image gebruikt scherm je alles wat in die image zit af van ZFS.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 10-06 10:50

unezra

Ceci n'est pas un sous-titre.

A1AD schreef op zaterdag 31 december 2016 @ 11:30:
[...]
Toch niet helemaal, ZFS kan je duidelijk vertellen welke file er in je LXC container defect is, wanneer je een disk image gebruikt scherm je alles wat in die image zit af van ZFS.
Ah, op die manier. :)
Ik dacht dat je doelde op de afscherming ervan vanuit het er binnen draaiende OS, zodat de ene guest niet bij de data van de andere kan.

Maar idd, op deze manier heb je helemaal gelijk dat juist LXC voordelen heeft.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 03-05 19:42

MvL

Als jullie ZFS gebruiken hoe delen jullie dit via het netwerk? Gebruiken jullie hiervoor NAS software in een VM?

Dan kom ik op het volgende ik lees hier dat mensen XPenology gebruiken. Wat zijn de ervaringen hiermee? Heeft iemand eventueel een how-to. Ik denk dat ik ook eens hiermee ga spelen.

Edit: Ik lees ook dat iemand MacOS(Server)? gebruikt in een VM. Wat zijn hier de ervaringen mee? Is dit makkelijk te installeren?

[ Voor 18% gewijzigd door MvL op 31-12-2016 18:19 ]


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 10-06 10:50

unezra

Ceci n'est pas un sous-titre.

MvL schreef op zaterdag 31 december 2016 @ 17:47:
Als jullie ZFS gebruiken hoe delen jullie dit via het netwerk? Gebruiken jullie hiervoor NAS software in een VM?
NAS software in een vm vind ik persoonlijk *nogal* evil. Ik heb een oude SMB server nog als vm draaien, maar da's omdat ik nog niet klaar ben met overzetten.

Ik heb gewoon een losse NAS (FreeNAS) die zowel SMB doet voor mijn Windows filesharing, als NFS voor Proxmox. Aan die NAS hangen 2 Proxmox VE machines in cluster, waarbij alle vm's via NFS op mijn NAS draaien.

Op 1 van die 2 draait ook een LXC machine lokaal op de SSD van mijn Proxmox VE doos. Die machine is mijn 2e DHCP server en slave DNS, zodat als mijn NAS uit valt, ik in ieder geval nog het internet op kan.

(Ik ben nu aan het kijken naar een losse, single-board computer, zodat ik die taken helemaal van mijn Proxmox VE cluster af kan halen of iig kan verdelen over 1 of 2 losstaande machines, die ook werken mocht ik om wat voor reden dan ook mijn hele Proxmox VE cluster en/of NAS de soep in hebben.)
Dan kom ik op het volgende ik lees hier dat mensen XPenology gebruiken. Wat zijn de ervaringen hiermee? Heeft iemand eventueel een how-to. Ik denk dat ik ook eens hiermee ga spelen.
Volgens mij zijn er nogal wat twijfels over de legaliteit van XPenology. In mijn beleving is het een smerige vieze semi-legale hack en zijn er betere oplossingen die WEL volledig OSS zijn.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 03-05 19:42

MvL

unezra schreef op zaterdag 31 december 2016 @ 18:41:
[...]

NAS software in een vm vind ik persoonlijk *nogal* evil. Ik heb een oude SMB server nog als vm draaien, maar da's omdat ik nog niet klaar ben met overzetten.

Ik heb gewoon een losse NAS (FreeNAS) die zowel SMB doet voor mijn Windows filesharing, als NFS voor Proxmox. Aan die NAS hangen 2 Proxmox VE machines in cluster, waarbij alle vm's via NFS op mijn NAS draaien.
Ik lees dat veel mensen hun nas geritualiseerd hebben. Op het moment heb ik een aparte DIY nas (unRAID) draaien. Ook ik heb wel een beetje mijn twijfels of gevirtualiseerd nou zo fijn is. Jou uitspraak zegt mij genoeg. Niet doen!

Gebruik jij een 10Gbit netwerk naar je nas?

Misschien dat ik nog wel een tweede nas bouw met Freenas of OpenMediaVault en die uitsluitend voor Proxmox ga gebruiken. Op mijn bestaande nas staat mijn media collectie op een paar seagate smr schijven. Veel storage en lekker goedkoop. Helaas moet je deze schijven niet raid of zfs gebruiken dat is dan weer de andere kant van het verhaal. Misschien dat ik mijn bestaande nas dan ook overzet naar OpenMediaVault en SnapRAID ga gebruiken voor de redundantie.
Op 1 van die 2 draait ook een LXC machine lokaal op de SSD van mijn Proxmox VE doos. Die machine is mijn 2e DHCP server en slave DNS, zodat als mijn NAS uit valt, ik in ieder geval nog het internet op kan.

(Ik ben nu aan het kijken naar een losse, single-board computer, zodat ik die taken helemaal van mijn Proxmox VE cluster af kan halen of iig kan verdelen over 1 of 2 losstaande machines, die ook werken mocht ik om wat voor reden dan ook mijn hele Proxmox VE cluster en/of NAS de soep in hebben.)
Ik heb een Ubiquiti EdgeRouter Pro en dit bevalt er goed. Veel te overdreven voor thuis maar erg leuk spul voor de hobby. :)

[...]
Volgens mij zijn er nogal wat twijfels over de legaliteit van XPenology. In mijn beleving is het een smerige vieze semi-legale hack en zijn er betere oplossingen die WEL volledig OSS zijn.
Dit houd mij ook wel een beetje tegen eerlijk gezegd maar je leest er momenteel veel over. Eigenlijk moet je dit hellemaal niet willen en gewoon voor de officiële support gaan. Wat zijn volgen jou de betere oplossingen?

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 10-06 10:50

unezra

Ceci n'est pas un sous-titre.

MvL schreef op zaterdag 31 december 2016 @ 22:21:
[...]
Ik lees dat veel mensen hun nas geritualiseerd hebben. Op het moment heb ik een aparte DIY nas (unRAID) draaien. Ook ik heb wel een beetje mijn twijfels of gevirtualiseerd nou zo fijn is. Jou uitspraak zegt mij genoeg. Niet doen!
Nja, mijn mening is ook maar mijn mening. :)
Op kantoor hebben we bijvoorbeeld ook heel lang alle filesharing op een VM gedraait. Dat was niet mijn keuze, het draait nu op kantoor rechtstreeks op het SAN, maar da's meer omdat ons huidige SAN dat prima kan en het dan vrij debiel is het via een vm aan te bieden. (Op kantoor hebben we een paar instap NetApp's staan. Net even wat heftiger en duurder spul dan wat de gemiddelde thuisgebruiker heeft maar als je even alle extra features vergeet, ook gewoon een doos die NFS en SMB kletst aan de voorkant.)
Gebruik jij een 10Gbit netwerk naar je nas?
Nope. Voorlopig niet nodig. GBit kom je al een heel eind mee. Wel heb ik mijn NAS verbonden met 2 trunks van ieder 2x 1GBit met mijn switches. 1 trunk doet SMB, de andere NFS.

Nodig? Met wat ik doe zeker niet.
Leuk? Ja. :) Ik ben en blijf ook hobbyist en dan zijn dit soort dingen gewoon leuk om mee te spelen.

Note dat op kantoor we met 50 - 100 FTE en rond de 60/70 vm's (die ook allemaal vanaf die NetApps draaien), het doen met 2x4x1GBit. (2 controllers, ieder met 4x 1GBit verbonden aan onze SAN switches. Wat vooral een functionele naam is. Die switches zijn stock L2 managed HP switches maar fysiek gescheiden van de rest van het netwerk. Dedicated voor het SAN gebeuren. Dus noemen we ze SAN switches.)

Dat volstaat. Alleen als ik tijdens kantoortijden een backup ga zitten trekken word het vervelend. Die 400MBit/s sustained trekt net even wat te hard aan de NetApps om nog comfortabel te zijn.

Yet, als dat voor kantoor volstaat, zijn 2 strunks van ieder 2x 1GBit voor thuis echt al flink overkill.

Dat ik toch naar 10Ge wil, is ook daar: Omdat het kan en leuk is. Maar ik heb nog niet goed onderzocht of 10Ge spul een beetje betaalbaar is, zowel qua switches als qua NIC's. Is het te duur, dan hou ik het voorlopig lekker op deze setup. (Die juist ook wel leuk is. Veel knipperende LED's op mijn switches, meerdere trunks. Eigenlijk een heel stuk minder saai dan 1 10Ge poort per server die het ook trekt.)
Misschien dat ik nog wel een tweede nas bouw met Freenas of OpenMediaVault en die uitsluitend voor Proxmox ga gebruiken. Op mijn bestaande nas staat mijn media collectie op een paar seagate smr schijven. Veel storage en lekker goedkoop. Helaas moet je deze schijven niet raid of zfs gebruiken dat is dan weer de andere kant van het verhaal. Misschien dat ik mijn bestaande nas dan ook overzet naar OpenMediaVault en SnapRAID ga gebruiken voor de redundantie.
Mwah, ik heb vrij simpele consumenten schijven in mijn NAS hangen. Werkt prima. Ook gevalletje "veel voor weinig", wel 7200RPM en geen "Green" schijven. 4x5T in een striped mirror (ZFS, dus RAID-10 equivalent).
[...]
Ik heb een Ubiquiti EdgeRouter Pro en dit bevalt er goed. Veel te overdreven voor thuis maar erg leuk spul voor de hobby. :)
Zoiets zit ook aan te denken. :)
TP-Link of Huawei L3 spul als coreswitch thuis en dan een pfSense firewall er voor in plaats van mijn huidige Asus router / AP.
Dit houd mij ook wel een beetje tegen eerlijk gezegd maar je leest er momenteel veel over. Eigenlijk moet je dit hellemaal niet willen en gewoon voor de officiële support gaan. Wat zijn volgen jou de betere oplossingen?
Ik ben tot nu toe erg tevreden over FreeNAS. Werkt uitstekend op een HP Microserver. Dat is dus ook mijn NAS. :) (Dedicated, ik heb er 3, 2 daarvan zijn Proxmox VE hypervisors in cluster.)

Ik had de mazzel dat ik op kantoor wat quad kaartjes over had, dus iedere machine heeft nu 6x GBit aan boord. (2x on-board, 4x op de NIC) Dat gebruik ik ook allemaal. Ook daar, niet per-se nodig, wel verdomd leuk om mee te spelen. Leerzaam ook. Kost wel wat switchpoorten, dus ik heb meteen een extra Zyxel GS1900 kunnen aanschaffen om het allemaal aan te sluiten.

Ach, we kregen geld terug dit jaar, energierekening valt dus mee. (Die Microservers vreten niet zo heel erg veel, die Zyxels zijn passief gekoelde L2 switches. Ook die zijn relatief zuinig.)

Ná Scaoll. - Don’t Panic.

Pagina: 1 2 ... 57 Laatste