Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

Mars Warrior schreef op dinsdag 12 december 2017 @ 16:03:
[...]
Aha. Dat is helemaal mooi dat het Ubuntu is onderhuids. Ubuntu draait ook vlekkeloos op de goedkoopste NUC en verbruikt nog geen 6W. Leuk om daarop eerst eens uit te proberen.
Ho ho!
De kernel is *gebaseerd* op Ubuntu en er zijn grote overeenkomsten, maar het is niet Ubuntu onderhuids. :) Ze maken gebruik van een flink gemodificeerde kernel waar onder andere ZFS support in zit.

Kortom, veel dingen zullen werken zoals op Ubuntu, maar hou er dus rekening mee dat er ook verschillen zijn.

Zie:
https://pve.proxmox.com/wiki/Proxmox_VE_Kernel

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 14:07

Mars Warrior

Earth, the final frontier

unezra schreef op dinsdag 12 december 2017 @ 16:13:
[...]
Ho ho!
De kernel is *gebaseerd* op Ubuntu en er zijn grote overeenkomsten, maar het is niet Ubuntu onderhuids. :) Ze maken gebruik van een flink gemodificeerde kernel waar onder andere ZFS support in zit.

Kortom, veel dingen zullen werken zoals op Ubuntu, maar hou er dus rekening mee dat er ook verschillen zijn.

Zie:
https://pve.proxmox.com/wiki/Proxmox_VE_Kernel
Hmmm. Beetje verwarrend. Daar staat inderdaad Ubuntu 16.04 LTS als basis.
Maar hier staat dat vanaf V5 Debian Stretch 9.0 als basis dient.
En in de aankondiging van PVE 5.1 Debian 9.2.

Ik zie wel dat v5 nu ook imports van Hyper-V ondersteund of in ieder geval eenvoudiger heeft gemaakt. Dat is dan weer fijn. Kan ik mijn VM's die nu onder Win10 draaien zo naar Proxmox overzetten, althans als de praktijk overeenkomt met de theorie 8)

[ Voor 8% gewijzigd door Mars Warrior op 12-12-2017 16:48 ]

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Het is in de basis Debian, maar dan met een kernel die gebaseerd is op die van Ubuntu. En uiteraard met allerlei extra software om het virtualiseren leuk te maken.

Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 14:07

Mars Warrior

Earth, the final frontier

dcm360 schreef op dinsdag 12 december 2017 @ 22:04:
Het is in de basis Debian, maar dan met een kernel die gebaseerd is op die van Ubuntu. En uiteraard met allerlei extra software om het virtualiseren leuk te maken.
Blijf het een beetje verwarrend vinden, maar goed. Zie ook bij de installatie van Proxmox op Debian dat je uiteindelijk de Debian kernel kunt verwijderen.

Het is in ieder geval een moderne kernel (4.13), dus ik moet een eind kunnen komen met de hardware die hier nog rondslingert.
Een NUC met J3455 quad-core, 8GB RAM en 256GB SSD wordt het 1ste slachtoffer. Heb ook nog wat oude 2.5" HDD's liggen die ik in Orico USB 3.0/UASP behuizingen kan proppen om ook te testen hoe eea draait met externe USB HDD's erbij voor de opslag van data en Docker volumes.

Nu nog tijd vinden 8)

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 13:16

Mattie112

3780wP (18x 210wP EC Solar)

Goed, ik ga dit weekend eens kijken of ik mijn huidige FreeNAS systeempje kan over zetten. FreeNAS staat te lang stil imo (naja ze hadden wel een release gedaan maar die hebben ze weer ingetrokken) en dat VirtualBox begint me een beetje de keel uit te hangen.

En omdat ik geen zin heb met VM's te experimenteren dan maar op de hardware zelf haha (2 'belangrijke' VM's laat ik wel ff door mn pc draaien). Ga eerst met alle disks los eea installeren (op 2 nieuwe SSD's) om in elk geval even wat gevoel te krijgen. Als dat goed gaat sluit ik alles weer aan en importeer ik mijn FreeNAS pools.

Bevalt het niet? Ach dan boot ik weer van mijn usb stick en heb ik FreeNAS weer.

Wish me luck!

Deze ruimte is te huur!


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 08-04 00:21
Mattie112 schreef op woensdag 13 december 2017 @ 16:41:
Goed, ik ga dit weekend eens kijken of ik mijn huidige FreeNAS systeempje kan over zetten. FreeNAS staat te lang stil imo (naja ze hadden wel een release gedaan maar die hebben ze weer ingetrokken) en dat VirtualBox begint me een beetje de keel uit te hangen.

En omdat ik geen zin heb met VM's te experimenteren dan maar op de hardware zelf haha (2 'belangrijke' VM's laat ik wel ff door mn pc draaien). Ga eerst met alle disks los eea installeren (op 2 nieuwe SSD's) om in elk geval even wat gevoel te krijgen. Als dat goed gaat sluit ik alles weer aan en importeer ik mijn FreeNAS pools.

Bevalt het niet? Ach dan boot ik weer van mijn usb stick en heb ik FreeNAS weer.

Wish me luck!
Welkom ;)

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 13:16

Mattie112

3780wP (18x 210wP EC Solar)

Goed, ik heb het nou even geinstalleerd in ik ben er mee aan het testen. Het eerste wat ik altijd doe is een disk los trekken en kijken of het systeem nog door blijft draaien. Nou dat is in elk geval goed!

Maar:
Ik had toch wel verwacht in de UI eea te kunnen zien dát er een disk stuk is. Maar ik zie niets! Naja ik zie wel wat een mooi groen vinkje van alles is OK :)

Ja via de cli kan ik natuurlijk wel `zpool status` opvragen maarja dat schiet niet op.

Ligt dit aan mij? Heb ik iets fout gedaan? Of is het zo basis dat ik een VM/container op moet zetten om de disks te 'beheren' en mij een alert te sturen?

Geïnstalleerd via de standaard installatie, bij disks gekozen voor "zfs (RAID 1)".

edit:
Miss was dit iets te snel, lees net dat je de "zfs-zed" kan installeren. Wel vreemd dat er in de UI niks zichtbaar is.

[ Voor 8% gewijzigd door Mattie112 op 16-12-2017 15:01 ]

Deze ruimte is te huur!


Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 13:16

Mattie112

3780wP (18x 210wP EC Solar)

Kan iemand me dit uitleggen:

2 Uploaded iso's ~5GB
1 Container met een 1GB file
1 VM met 7GB aan files

Filesystem van de proxmox host:
Afbeeldingslocatie: https://upload.mattie-systems.nl/uploads/51320-capture.png

Storage config (default via de installer zfs RAID1)
Afbeeldingslocatie: https://upload.mattie-systems.nl/uploads/97941-capture.png

Nou ben ik toch wel benieuwd waar mijn 7GB+ grote VM is gebleven?

Afbeeldingslocatie: https://upload.mattie-systems.nl/uploads/34111-capture.png

Voordat ik over ga stappen wil ik toch wel voor een groot gedeelte weten hoe eea in elkaar zit :)

(note bij het creëren van de VM/container alles op default laten staan)

edit:
whoops was de bedoeling mijn vorige post te editten

[ Voor 4% gewijzigd door Mattie112 op 16-12-2017 16:06 ]

Deze ruimte is te huur!


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 08-04 00:21
@Anoniem: 300817 zfs list rpool -r

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 13:16

Mattie112

3780wP (18x 210wP EC Solar)

Hm klopt dan zie ik ze wel

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
root@proxmox:~# zfs list rpool -r
NAME                           USED  AVAIL  REFER  MOUNTPOINT
rpool                         54.9G  52.6G   104K  /rpool
rpool/ROOT                    6.74G  52.6G    96K  /rpool/ROOT
rpool/ROOT/pve-1              6.74G  52.6G  6.74G  /
rpool/data                    39.7G  52.6G    96K  /rpool/data
rpool/data/subvol-100-disk-1  1.36G  6.64G  1.36G  /rpool/data/subvol-100-disk-1
rpool/data/subvol-103-disk-1   368M  7.64G   368M  /rpool/data/subvol-103-disk-1
rpool/data/vm-101-disk-1      25.6G  52.6G  25.6G  -
rpool/data/vm-102-disk-1      12.3G  52.6G  12.3G  -
rpool/swap                    8.50G  61.1G    56K  -
root@proxmox:~# cd /rpool/data/
root@proxmox:/rpool/data# ls -al
total 18
drwxr-xr-x  4 root root  4 Dec 17 12:00 .
drwxr-xr-x  4 root root  4 Dec 16 14:30 ..
drwxr-xr-x 21 root root 21 Dec 16 20:05 subvol-100-disk-1
drwxr-xr-x 21 root root 22 Dec 17 12:06 subvol-103-disk-1


Dus hij is dan als block device gemount ofzo?

Maar daar zie ik dat /rpool 54.9GB gebruikt heeft. Maar in de UI zie ik:
Afbeeldingslocatie: https://upload.mattie-systems.nl/uploads/36080-capture.png

Sorry als ik wat 'zeur' hoor maar ik snap graag precies wáár mn data staat zodat ik als het nodig is het ook via een ander systeem out zou kunnen lezen.

Kwam net ook tegen dat je ook voor een disk image kon gaan (als je een bepaald storage type had) dus dat kan ik vanavond ook wel even proberen.

Deze ruimte is te huur!


Acties:
  • 0 Henk 'm!

  • HomeServ
  • Registratie: Mei 2005
  • Laatst online: 11:37

HomeServ

Linux only?

Even een vraagje aan de community;

Ik heb regelmatig dat als ik een container afsluit dan een kworker kernel process 100% cpu gebruikt.
Enige mogelijkheid om dit te stoppen lijkt op dit moment het herstarten van de server te zijn wat een hoop tijd in gebruik neemt.

Relevante informatie;
Intel NUC 5I5MYHE (laatste bios versie) met 16GB geheugen en 500GB Samsung 850 Evo M.2 SSD

Containers draaien op een LVM-Thin pool waarbij nog ruimte vrij is binnen de VG (volumegroup).

Herkent iemand het probleem met het kworker process?

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

Vanavond *weer* 2 machines die me terug smeten richting Grub Rescue.
"Unknown Filesystem"

Beiden tegelijkertijd ook.

Geen flauw idee of dit nu een onverwacht ZFS issue is, de hardware rot is, niet lekker samen werkt met PVE (DL20's met de controller in AHCI mode) of iets anders.

Wel irritant is dat er geen goede fix voor is (niet een die ik kon vinden) en dat het nu in productie was. :(

Na de vakantie maar eens naar kijken.

Ná Scaoll. - Don’t Panic.


  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 08-04 00:21
@Mattie112 heb je snapshots op je rpool? Ik weet niet zeker of die worden meegeteld (zfs list rpool -r -t snapshot)

@HomeServ nope

@unezra Wauw dat zuigt, is dit bij restart op zomaar opeens?

- Deze advertentie is geblokkeerd door Pi-Hole -


  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

A1AD schreef op donderdag 21 december 2017 @ 08:55:
@unezra Wauw dat zuigt, is dit bij restart op zomaar opeens?
Yep en tot nu toe dus 2x gehad.
1x op beide nodes in test / preproductie. Gisterenavond op productie. 2 nodes tegelijkertijd.

Vooralsnog geen info over te vinden op het internet, dus ook nog geen fix kunnen vinden. :(
(De machines zijn dan ook nu offline. We draaien met een workaround.)

EDIT:
Ik vermoed trouwens vaag dat het de combinatie ZFS in mirror op root is. Alsof dat niet helemaal lekker werkt en GRUB weet te slopen maar da's niet meer dan een heel vaag gevoel.

Dus dan moet ik either ZFS laten gaan en voor mdadm in mirror gaan, of ZFS op een enkele disk gaan draaien. Ik denk dat ik dan ZFS laat voor wat het is...

[ Voor 27% gewijzigd door unezra op 21-12-2017 09:54 ]

Ná Scaoll. - Don’t Panic.


  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 08-04 00:21
unezra schreef op donderdag 21 december 2017 @ 08:59:
[...]


Yep en tot nu toe dus 2x gehad.
1x op beide nodes in test / preproductie. Gisterenavond op productie. 2 nodes tegelijkertijd.

Vooralsnog geen info over te vinden op het internet, dus ook nog geen fix kunnen vinden. :(
(De machines zijn dan ook nu offline. We draaien met een workaround.)
Als je er niets van vind op het internet is de kans wel groot op 1 of ander obscure hardware probleem...

- Deze advertentie is geblokkeerd door Pi-Hole -


  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

A1AD schreef op donderdag 21 december 2017 @ 09:54:
[...]
Als je er niets van vind op het internet is de kans wel groot op 1 of ander obscure hardware probleem...
Kan, maar dan zou het op 2 identieke nodes tegelijkertijd moeten zijn, zonder dat er wijzigingen aan vooraf zijn gegaan. Dat is het meest idiote. 2 machines, zelfde moment, zonder *enige* change.

Zie mijn edit, ik neig naar ZFS mirror op root, mogelijk ook een setup die niet veel mensen draaien.

Ná Scaoll. - Don’t Panic.


  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 08-04 00:21
unezra schreef op donderdag 21 december 2017 @ 09:56:
[...]


Kan, maar dan zou het op 2 identieke nodes tegelijkertijd moeten zijn, zonder dat er wijzigingen aan vooraf zijn gegaan. Dat is het meest idiote. 2 machines, zelfde moment, zonder *enige* change.

Zie mijn edit, ik neig naar ZFS mirror op root, mogelijk ook een setup die niet veel mensen draaien.
Ik op 2 machines (kan ik iets testen?)

- Deze advertentie is geblokkeerd door Pi-Hole -


  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 13:16

Mattie112

3780wP (18x 210wP EC Solar)

A1AD schreef op donderdag 21 december 2017 @ 08:55:
@Mattie112 heb je snapshots op je rpool? Ik weet niet zeker of die worden meegeteld (zfs list rpool -r -t snapshot)

@HomeServ nope

@unezra Wauw dat zuigt, is dit bij restart op zomaar opeens?
Nope:

code:
1
2
root@proxmox:~# zfs list rpool -r -t snapshot
no datasets available

Deze ruimte is te huur!


Acties:
  • +1 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

A1AD schreef op donderdag 21 december 2017 @ 12:15:
[...]


Ik op 2 machines (kan ik iets testen?)
Vooralsnog niet. Het is gisteren ook niet gelukt uit de PVE installer te komen zonder 'm volledig af te breken.

Helaas.

Nu heb ik vanaf morgen een ruime week vakantie, dus moet ik het noodgedwongen even laten rusten. 2 of 3 januari ga ik er weer mee verder.

Wel meteen een stuk hardware besteld om in ieder geval de DHCP / DNS functionaliteit buiten mijn PVE cluster te brengen. Zolang ik de oorzaak niet te pakken heb durf ik het even niet aan met mijn PVE cluster.

Het is dit doosje geworden:
https://www.applianceshop...dual-a10-dc-ssd-rack.html

Ná Scaoll. - Don’t Panic.


  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 08-04 00:21
Mattie112 schreef op donderdag 21 december 2017 @ 13:09:
[...]


Nope:

code:
1
2
root@proxmox:~# zfs list rpool -r -t snapshot
no datasets available
Dat ga je eens aan de mannen in het grote zfs topic moeten vragen, die gaan je ongetwijfeld een antwoord kunnen geven :)

- Deze advertentie is geblokkeerd door Pi-Hole -


  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 13:16

Mattie112

3780wP (18x 210wP EC Solar)

A1AD schreef op donderdag 21 december 2017 @ 14:32:
[...]


Dat ga je eens aan de mannen in het grote zfs topic moeten vragen, die gaan je ongetwijfeld een antwoord kunnen geven :)
Haha, ja is goed zal ff kijken of ik het weekend weer tijd heb :)

Deze ruimte is te huur!


  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

unezra schreef op donderdag 21 december 2017 @ 09:56:
[...]


Kan, maar dan zou het op 2 identieke nodes tegelijkertijd moeten zijn, zonder dat er wijzigingen aan vooraf zijn gegaan. Dat is het meest idiote. 2 machines, zelfde moment, zonder *enige* change.

Zie mijn edit, ik neig naar ZFS mirror op root, mogelijk ook een setup die niet veel mensen draaien.
Ik denk eigenlijk dat een ZFS mirror op root wel een veel gemaakte keuze is. Het biedt voordelen tegen klassiek raid, tegen lagere of dezelfde kosten. Daarbij lijkt voor het booten vaak gekozen te worden voor 2 (relatief) goedkope schijven, aangezien betrouwbaarheid het belangrijkste is en massaopslag anders geregeld wordt.

Het zou kunnen dat er ergens iets mis zit in een nieuwere versie, maar bij mij draait een dergelijke boot mirror met ZFS al ruim 3 jaar probleemloos (welja, probleemloos. Stop geen consumenten-ssd's in de mirror. Die dingen hebben trim/discard iets te hard nodig)

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 08-04 00:21
dcm360 schreef op donderdag 21 december 2017 @ 17:48:
[...]
Stop geen consumenten-ssd's in de mirror. Die dingen hebben trim/discard iets te hard nodig)
Dat advies zou ik zelf ook geven, maar verder dan dat heb ik wel vrolijke consumenten SSDs in ZFS draaien :+

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 13:16

Mattie112

3780wP (18x 210wP EC Solar)

Goed, ik heb even genoeg gespeeld met Proxmox, het "waar zijn mijn vm's" kan ik in elk geval "oplossen" door een directory als storage toe te voegen en ze dan daar als image op te zetten. Zal qua performance miss niet optimaal zijn maar wel perfect om in het begin even eea te kunnen testen.

Dus: ik ga strakjes mijn FreeNAS uit zetten. Proxmox even clean install doen (op 2 nieuwe SSD's die ik heb liggen) en hopen dat als ik alle disks weer aan sluit ik bij mn stuff kan haha.

Moet alleen even opschrijven welke samba shares ik nu heb en ff kijken of ik mijn Windows VM (virtualbox disk) ff kan converten somehow maar in het ergste geval boot ik die op mijn PC en dan doe ik een clean install.

Of vergeet ik ergens iets belangrijks nu?

edit:
Of moet ik op de FreeNAS host eerst nog een bepaald command uitvoeren om de pools 'beschikbaar' te maken?

[ Voor 7% gewijzigd door Mattie112 op 23-12-2017 12:30 ]

Deze ruimte is te huur!


Acties:
  • 0 Henk 'm!

26779

Vraagje: Ik heb een server waarop Ubuntu Server 14.04 + KVM-Qemu draait. Daarop heb ik 2 VM's: 1 maal Karoshi Server (Ubuntu server) en 1 maal pfSense.
Nu wil ik vanwege mijn positieve ervaring met proxmox5 deze server overzetten naar Proxmox.
Is het nu zo eenvoudig als een kopie maken van de vdisks, proxmox installeren en daarop de VM's exact aanmaken zoals ze in KVM zijn aangemaakt (processor, geheugen en disk), de Vdisks terugkopieren en de boel opstarten? Of zijn er nog andere zaken waar ik rekening mee moet houden?

Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 13:16

Mattie112

3780wP (18x 210wP EC Solar)

Goed, ik heb een VM opgezet voor samba en deze als volgt gemount:

/etc/pve/lxc/100.conf
code:
1
mp0: /bigpool_6tb,mp=/mnt/bigpool_6tb


Wanneer ik vanaf de host in die directory kijk zie ik netjes al mijn content.

Maar: kijk ik in de container zie ik wel de directories maar die zijn leeg!

HOST:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
root@proxmox:/bigpool_6tb# ls -al
total 2857
drwxr-xr-x     8 root root     8 Mar 18  2017 .
drwxr-xr-x    25 root root    25 Dec 23 14:58 ..
drwxrwxr-x     8 1001 1009     9 Oct  6 19:08 backup
drwxrwxr-x    15 root 1002    18 Mar 18  2017 downloads
[....]
root@proxmox:/bigpool_6tb# cd downloads/
root@proxmox:/bigpool_6tb/downloads# ls -alh
total 483K
drwxrwxr-x  15 root 1002   18 Mar 18  2017 .
drwxr-xr-x   8 root root    8 Mar 18  2017 ..
drwxrwxr-x 117 root 1002  118 Nov 30 19:52 Books
drwxrwxr-x   2 root 1002    2 Nov 13 16:49 Completed
drwxrwxr-x  23 root 1002   27 Mar  1  2016 OS
drwxrwxr-x  19 root 1002   20 Oct 13 18:40 Other
[....]


Vanaf container:

code:
1
2
3
4
5
6
7
root@samba /mnt/bigpool_6tb# ls -al
total 15
drwxr-xr-x 8 root root 8 Mar 18  2017 .
drwxr-xr-x 3 root root 3 Dec 23 18:02 ..
drwxr-xr-x 2 root root 2 Mar 18  2017 backup
drwxr-xr-x 2 root root 2 Mar 18  2017 downloads
[....]


code:
1
2
3
4
5
root@samba bigpool_6tb/downloads# ls -al
total 12
drwxr-xr-x 2 root root 2 Mar 18  2017 .
drwxr-xr-x 8 root root 8 Mar 18  2017 ..
root@samba bigpool_6tb/downloads#


@A1AD jij had dat helemaal opgezet toch? Wat mis ik hier?

Deze ruimte is te huur!


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 08-04 00:21
@Mattie112 je moet elke dataset apart mounten.
mp0: /bds/NAS/Media/Pictures,mp=/mnt/pictures
mp1: /bds/NAS/Media/Ebooks,mp=/mnt/ebooks
mp2: /bds/NAS/Media/Music,mp=/mnt/muziek
mp3: /bds/NAS/Personal,mp=/mnt/personal
mp4: /bds/NAS/Backups/proxmox/pve-backups,mp=/mnt/NAS/Backups/proxmox/pve-backups
mp5: /bds/NAS/Backups/ConfigFiles,mp=/mnt/NAS/Backups/ConfigFiles
mp6: /bds/NAS/Software,mp=/mnt/software

[ Voor 79% gewijzigd door A1AD op 23-12-2017 19:50 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 13:16

Mattie112

3780wP (18x 210wP EC Solar)

@A1AD hm ok, hoop dat ik dan aan 9 mountpoints genoeg heb dacht van hup ik mount alles aan die container en dan beslis ik in de samba config wel wie er waar bij mag. Allicht was dit onder FreeNAS handig maar moet ik het een keer anders in regelen nu met Proxmox.

O en trouwens wel leuk voor iedereen:
Bij container images kan je "turnkeylinux" images downloaden, zijn kant-en-klare containers met bijv samba,webdav,webmin(web ui) etc. 1 druk op de knop en je bent eigenlijk klaar :) Toch wel mooi als je gewoon een beetje wil experimenteren.

Deze ruimte is te huur!


Acties:
  • 0 Henk 'm!

Anoniem: 272158

[b]O en trouwens wel leuk voor iedereen:
Bij container images kan je "turnkeylinux" images downloaden, zijn kant-en-klare containers met bijv samba,webdav,webmin(web ui) etc. 1 druk op de knop en je bent eigenlijk klaar :) Toch wel mooi als je gewoon een beetje wil experimenteren.
En Docker kan je ook nog installeren om mee te experimenteren.
https://forums.servetheho...ll-in-one-with-docker.29/

Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 13:16

Mattie112

3780wP (18x 210wP EC Solar)

@A1AD En weer een vraag (sorry) allicht niet persee Proxmox specifiek maargoed:

Heb nu daadwerkelijk de juiste dir gemount en het lijkt er op dat alle files als owner 'root' hebben. Naja weet je voor nu even prima dus ik heb een nieuwe user aangemaakt en die in de group root gestopt. Maar helaas ik mag via samba niks veranderen. In de webmin config kon je ook nog "Read/write" users toevoegen maar dat heeft ook geen effect. Wat mis ik hier?

edit:
heb wel lees-rechten

[ Voor 3% gewijzigd door Mattie112 op 24-12-2017 12:06 ]

Deze ruimte is te huur!


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 08-04 00:21
Mattie112 schreef op zondag 24 december 2017 @ 12:05:
@A1AD En weer een vraag (sorry) allicht niet persee Proxmox specifiek maargoed:

Heb nu daadwerkelijk de juiste dir gemount en het lijkt er op dat alle files als owner 'root' hebben. Naja weet je voor nu even prima dus ik heb een nieuwe user aangemaakt en die in de group root gestopt. Maar helaas ik mag via samba niks veranderen. In de webmin config kon je ook nog "Read/write" users toevoegen maar dat heeft ook geen effect. Wat mis ik hier?

edit:
heb wel lees-rechten
Dat zijn basis Linux dingen. Chown/chmod.

Ik werk graag met groepen. Vb: een groep "media" heeft dan rw rechten op mijn media folder (chown -R root:media /pool/media en chmod 770 -R /pool/media)

En de gebruikers dat toegang moeten hebben tot media doe ik dan: usermod -a -G media username

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 13:16

Mattie112

3780wP (18x 210wP EC Solar)

Ja ik ben er inmiddels achter hoor, de data komt natuurlijk van mijn FreeNAS systeem (pft kan beter alles wipen en opnieuw inregelen geloof ik) maar de group (van de 'root' dir) stond op "1003" en tja laat die nou net niet bestaan op mijn systeem. Naja goed dat stukje lijkt nu beter te gaan in elk geval.

Vind het nog wel lastig om de status van het systeem te bekijken als het ware. Geen disk-failure info in de webUI (wel email alerts aan gezet), geen duidelijk storage info overzicht (hoe vol is elke array). Maar allicht krijg ik dat nog werkend als ik ze ook aan Proxmox toevoeg als storage. Ben nu mijn Virtualbox VM aan het converteren en pas dan kan ik wat zeggen over de performance daar van maar ik moet zeggen als "NAS" was FreeNAS toch wel wat duidelijker.

Deze ruimte is te huur!


Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 13:16

Mattie112

3780wP (18x 210wP EC Solar)

Ik zit toch wel te twijfelen nu of ik hier mee door moet gaan. Ik krijg toch het gevoel dat Proxmox gewoon "minder" geschikt is als NAS. Of naja dat mijn kennis niet voldoende is dat kan ook :) Ik loop gewoon tegen te veel dingen aan eigenlijk.

- Geen duidelijk overzicht van systeem status
- Geen duidelijk overzicht hoe 'vol' een array is (ja via `zfs list` kan ik wel eea zien ja)
- Onduidelijkheid wat je nou als storage toe moet voegen aan Proxmox? ZFS? En dan de 'root' dataset? Alle sub-datasets?
- Waar blijven de VM's wanneer je voor 'ZFS' kiest? Ik zie niks op het filesystem dus hoe kan je dat dan managen?
- Bij een 'directory' (en dat kan blijkbaar ook een ZFS dataset zijn) kan je een image aanmaken maarja ik heb al een bestaande image dus die wil ik graag toevoegen aan de VM. Maar dat kan niet vanaf elke willekeurige dir? Ik moet die image dan in een dir stoppen met "image" aangevinkt, dan moet ik een nieuwe image toevoegen en dan kan ik mijn image renamen naar dat?

Even een kleine greep, en wat ik nu weer heb gedaan geen idee maar de webUI kan ik niet meer benaderen (wel SSD) en dat terwijl ik toch niks bijzonders aan het doen was (beetje kloten met VirtualMachines)

edit:
Het zal wel maar de hele webserver lijkt niet meer te bestaan? Reboots geen effect.
code:
1
2
3
4
5
root@proxmox:/usr/bin# netstat -l | grep 8006
root@proxmox:/usr/bin# wget --no-check-certificate https://localhost:8006
--2017-12-24 14:52:23--  https://localhost:8006/
Resolving localhost (localhost)... 127.0.0.1
Connecting to localhost (localhost)|127.0.0.1|:8006... failed: Connection refused.


edit:
webui doet het weer

[ Voor 14% gewijzigd door Mattie112 op 24-12-2017 15:14 ]

Deze ruimte is te huur!


Acties:
  • 0 Henk 'm!

  • MewBie
  • Registratie: April 2002
  • Laatst online: 11:58
Proxmox is uit zichzelf een hypervisor en dus niet geschikt als nas. Als je Proxmox wilt gebruiken als nas moet je er een VM op draaien voor het nas gedeelte. Opslag voor de nas kan dan op verschillende manieren.

Please leave a message after the beep.
*beeeeep*


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 08-04 00:21
En wat meer Linux kennis is noodzakelijk

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

MewBie schreef op zondag 24 december 2017 @ 15:45:
Proxmox is uit zichzelf een hypervisor en dus niet geschikt als nas. Als je Proxmox wilt gebruiken als nas moet je er een VM op draaien voor het nas gedeelte. Opslag voor de nas kan dan op verschillende manieren.
Hoeft niet.
Proxmox is onder water gewoon Debian/Ubuntu.

Je kunt daar prima Samba op gooien.

Alleen, het is gruwelijk lelijk en niet zo bedoeld. Een hypervisor moet je om diverse redenen niet willen combineren met iets anders. Het kàn wel.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • MewBie
  • Registratie: April 2002
  • Laatst online: 11:58
unezra schreef op zondag 24 december 2017 @ 19:19:
[...]


Hoeft niet.
Proxmox is onder water gewoon Debian/Ubuntu.

Je kunt daar prima Samba op gooien.

Alleen, het is gruwelijk lelijk en niet zo bedoeld. Een hypervisor moet je om diverse redenen niet willen combineren met iets anders. Het kàn wel.
Wat ik bij Proxmox gemerkt heb is dat je je zoveel mogelijk moet beperken tot wat mogelijk is in de GUI tenzij je echt weet waar je mee bezig bent.
Als je het moet vragen/opzoeken kun je het waarschijnlijk beter niet doen.

Please leave a message after the beep.
*beeeeep*


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

MewBie schreef op zondag 24 december 2017 @ 20:13:
[...]

Wat ik bij Proxmox gemerkt heb is dat je je zoveel mogelijk moet beperken tot wat mogelijk is in de GUI tenzij je echt weet waar je mee bezig bent.
Als je het moet vragen/opzoeken kun je het waarschijnlijk beter niet doen.
Da's zonder meer waar maar da's ook als je Samba op Linux installeert. :)

Punt is, technisch gezien is het geen enkel probleem en zal het prima werken. Het is alleen absoluut een slecht idee je hypervisor met je NAS te combineren.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 08-04 00:21
unezra schreef op zondag 24 december 2017 @ 20:14:
[...]


Da's zonder meer waar maar da's ook als je Samba op Linux installeert. :)

Punt is, technisch gezien is het geen enkel probleem en zal het prima werken. Het is alleen absoluut een slecht idee je hypervisor met je NAS te combineren.
Ik vind proxmox voor een thuis AIO server een elegante oplossing. Je moet echter wel wat Linux kennis hebben wil je het goed doen. Uiteraard niets op je host zelf installeren maar scheiden in LXCs.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

A1AD schreef op zondag 24 december 2017 @ 20:24:
[...]
Ik vind proxmox voor een thuis AIO server een elegante oplossing. Je moet echter wel wat Linux kennis hebben wil je het goed doen. Uiteraard niets op je host zelf installeren maar scheiden in LXCs.
Ja, dat snap ik nog. Als je alles op 1 machine wilt doen is een vm of een LXC ongeveer de enige mogelijkheid. Al ga ik zelf liever voor een aparte NAS. (Met daarop dan weer mijn vm's.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 13:16

Mattie112

3780wP (18x 210wP EC Solar)

Hey guys bedankt voor de replies hoor!
MewBie schreef op zondag 24 december 2017 @ 15:45:
Proxmox is uit zichzelf een hypervisor en dus niet geschikt als nas. Als je Proxmox wilt gebruiken als nas moet je er een VM op draaien voor het nas gedeelte. Opslag voor de nas kan dan op verschillende manieren.
Daar ben ik me van bewust, ik vergelijk het met VMware ESXi bijvoorbeeld. En een VM/Container met samba daar heb ik helemaal geen problemen mee, alleen ik mis vooral een 'centraal' server info punt. Aan de ene kant is het out-of-the box compatible met ZFS maar aan de andere kant kan je het in de UI niet eens zien als er een disk dood is. Tja heb die email notificaties wel aan de gang maar het klinkt gewoon wat vreemd.

Maar het vervelende is dat ik echt wel de lol van Proxmox inzie, het VM stukje van FreeNAS (ik heb atm nog de VirtualBox manier) is gewoon echt drama.

Maar allicht is een oplossing voor mij om gewoon mijn compete 6TB 'array' aan een samba container te assignen en het dan vanuit daar te beheren. (maar pfoe waar laat ik die data tijdelijk terwijl ik dat inregel haha)
A1AD schreef op zondag 24 december 2017 @ 17:37:
En wat meer Linux kennis is noodzakelijk
Linux kennis is zeker aanwezig, ZFS (nog) niet veel maar daarom wil ik er ook wel voor gaan he (en stel ik hier al die vervelende vragen)
unezra schreef op zondag 24 december 2017 @ 19:19:
[...]


Hoeft niet.
Proxmox is onder water gewoon Debian/Ubuntu.

Je kunt daar prima Samba op gooien.

Alleen, het is gruwelijk lelijk en niet zo bedoeld. Een hypervisor moet je om diverse redenen niet willen combineren met iets anders. Het kàn wel.
Nee dat was ik niet van plan, had de container samba ook al werkend, ging alleen net ff anders dan ik dacht.
MewBie schreef op zondag 24 december 2017 @ 20:13:
[...]

Wat ik bij Proxmox gemerkt heb is dat je je zoveel mogelijk moet beperken tot wat mogelijk is in de GUI tenzij je echt weet waar je mee bezig bent.
Als je het moet vragen/opzoeken kun je het waarschijnlijk beter niet doen.
Zelfde geld natuurlijk voor VMware ESXi daar kan je eigenlijk ook "niks" anders mee doen dan VM's beheren.
unezra schreef op zondag 24 december 2017 @ 20:14:
[...]


Da's zonder meer waar maar da's ook als je Samba op Linux installeert. :)

Punt is, technisch gezien is het geen enkel probleem en zal het prima werken. Het is alleen absoluut een slecht idee je hypervisor met je NAS te combineren.
Voor professionele doelen ja maar voor thuisgebruik zou het niet eens boeien. Maar dat natuurlijk alleen mits je 'hypervisor' dat support (like FreeNAS). Als je zelf 100 packages moet installeren dan is dat alweer minder imo.
A1AD schreef op zondag 24 december 2017 @ 20:24:
[...]


Ik vind proxmox voor een thuis AIO server een elegante oplossing. Je moet echter wel wat Linux kennis hebben wil je het goed doen. Uiteraard niets op je host zelf installeren maar scheiden in LXCs.
En daar ben ik hard mee aan het werk! Allicht blijf ik te veel hangen in de FreeNAS mentaliteit. Maar voor ik ergens voor ga wil ik echt wel grotendeels weten wáár mijn files nou staan dat mocht er iets stuk zijn (he het huis kan wel afbranden en alleen de disks zijn nog intact) dan wil ik op ieder "willekeurig" systeem er toch nog graag bij kunnen. Dus daarom prefereer ik een disk image voor een VM bijvoorbeeld, als het nodig is kan ik díe image pakken en elders even booten. Maar dat stukje heb in inmiddels ook gevonden hoe het gaat.
unezra schreef op zondag 24 december 2017 @ 20:52:
[...]


Ja, dat snap ik nog. Als je alles op 1 machine wilt doen is een vm of een LXC ongeveer de enige mogelijkheid. Al ga ik zelf liever voor een aparte NAS. (Met daarop dan weer mijn vm's.)
Ik wil het inderdaad graag op 1 machine houden, een losse NAS kan ook maarja die zijn niet goedkoop als je er een disk of 8 in wil stoppen :)

------------------------------

Conclusie:
Ik ga kijken of ik een pooltje even helemaal kan wipen en opnieuw op kan zetten. Ik zal deze pool dan NIET toevoegen aan de Proxmox storage maar puur beheren vanuit een container (of VM) en die dan als (puur storage) NAS zien.

Deze ruimte is te huur!


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Mattie112 schreef op dinsdag 26 december 2017 @ 11:21:
Daar ben ik me van bewust, ik vergelijk het met VMware ESXi bijvoorbeeld. En een VM/Container met samba daar heb ik helemaal geen problemen mee, alleen ik mis vooral een 'centraal' server info punt. Aan de ene kant is het out-of-the box compatible met ZFS maar aan de andere kant kan je het in de UI niet eens zien als er een disk dood is. Tja heb die email notificaties wel aan de gang maar het klinkt gewoon wat vreemd.
Bij Disks kan je zien hoe de schijven er aan toe zijn. Al weet ik dan weer niet hoe dat er uit ziet als er echt een schijf dood is, slechtste geval wat ik tot zover had was een smart failure op een ssd die door zijn writes heen was.

Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 13:16

Mattie112

3780wP (18x 210wP EC Solar)

Goed ik ben inmiddels ook weer een paar stappen verder, heb mijn FreeNAS virtualbox VM's die ik had naar 'qcow2' geconvert en zowaar booten die zonder al te grote problemen :) Nu zorgen dat al mijn samba shares er weer zijn en dan kan ik in elk geval de rest 'remote' doen wanneer ik wat meer tijd heb haha. Kerst is tenslotte alweer bijna om!

Deze ruimte is te huur!


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 08-04 00:21
Ik gebruik een nagios lxc dat oa. mijn disks uitleest (smartctl) en zpool status.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 05-05 23:36

Compizfox

Bait for wenchmarks

unezra schreef op zondag 24 december 2017 @ 19:19:
[...]


Hoeft niet.
Proxmox is onder water gewoon Debian/Ubuntu.

Je kunt daar prima Samba op gooien.

Alleen, het is gruwelijk lelijk en niet zo bedoeld. Een hypervisor moet je om diverse redenen niet willen combineren met iets anders. Het kàn wel.
Het voordeel van Proxmox is natuurlijk wel dat het ZFS op de host doet.

Voor toepassing als een NAS is het denk ik het mooiste om je data-schijven op de host in ZFS te zetten, en dan een LXC-container met een Linux-based NAS-appliance te gebruiken die je dan directe file-level toegang geeft tot die data-pool. (ik ben even kwijt hoe het precies heet, maar dat zou mogelijk moeten zijn, i.t.t. tot bij een VM waar je voor de storage van die VM per se een block-level 'Virtual HD' met daarbinnen een eigen FS voor de VM moet gebruiken)

EDIT:
Thx, dat was inderdaad de term die ik zocht ;)

Op die manier heb je het voordeel van ZFS op de host (onder Proxmox), maar wel een NAS-appliance (iets als OpenMediaVault; het moet wel Linux-based zijn dus FreeNAS valt af).

[ Voor 32% gewijzigd door Compizfox op 26-12-2017 18:46 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 08-04 00:21
@Compizfox Bind mount

Edit: @Compizfox last time i checked kon OMV niet om met directory based storage. Enkel block devices.

[ Voor 70% gewijzigd door A1AD op 26-12-2017 19:30 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

26779

Mattie112 schreef op dinsdag 26 december 2017 @ 11:21:
Hey guys bedankt voor de replies hoor!


[...]


Daar ben ik me van bewust, ik vergelijk het met VMware ESXi bijvoorbeeld. En een VM/Container met samba daar heb ik helemaal geen problemen mee, alleen ik mis vooral een 'centraal' server info punt. Aan de ene kant is het out-of-the box compatible met ZFS maar aan de andere kant kan je het in de UI niet eens zien als er een disk dood is. Tja heb die email notificaties wel aan de gang maar het klinkt gewoon wat vreemd.
Er zijn toch zat tooltjes die je appart kan installeren die dat voor je doen? Bijv een container er bij zetten die speciaal is voor monitoring van je samba shares?
Of je gebruikt gewoon NethServer. Daar zit Samba filesharing bij en voor de monitoring kan je installeer je bijvoorbeeld Samba Audit. In het Dashboard van NethServer is er een widget die weergeeft hoeveel ruimte je nog hebt op je disk:
Afbeeldingslocatie: https://tweakers.net/ext/f/F5vrHy6Wge3FLhi5mtCpu5T0/thumb.png?nohitcount=1

Acties:
  • 0 Henk 'm!

  • duiveltje666
  • Registratie: Mei 2005
  • Laatst online: 13-06-2022
Mattie112 schreef op zondag 24 december 2017 @ 14:47:
Ik zit toch wel te twijfelen nu of ik hier mee door moet gaan. Ik krijg toch het gevoel dat Proxmox gewoon "minder" geschikt is als NAS. Of naja dat mijn kennis niet voldoende is dat kan ook :) Ik loop gewoon tegen te veel dingen aan eigenlijk.
- Waar blijven de VM's wanneer je voor 'ZFS' kiest? Ik zie niks op het filesystem dus hoe kan je dat dan managen?
Deze komen raw op je filesystem , dus je ziet ze inderdaad "niet" als een .qcow bestand .
Je kunt ze wel vinden onder /dev/zvol/poolnaam/vm-disk-nummer

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 13:16

Mattie112

3780wP (18x 210wP EC Solar)

@duiveltje666 thx dat ga ik even controleren met een nieuwe VM!

Deze ruimte is te huur!


  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 14:07

Mars Warrior

Earth, the final frontier

Compizfox schreef op dinsdag 26 december 2017 @ 17:33:
[...]
Voor toepassing als een NAS is het denk ik het mooiste om je data-schijven op de host in ZFS te zetten, en dan een LXC-container met een Linux-based NAS-appliance te gebruiken die je dan directe file-level toegang geeft tot die data-pool. (ik ben even kwijt hoe het precies heet, maar dat zou mogelijk moeten zijn, i.t.t. tot bij een VM waar je voor de storage van die VM per se een block-level 'Virtual HD' met daarbinnen een eigen FS voor de VM moet gebruiken)
Waarom LXC als je ook Docker hebt? Het kan meer, is eenvoudiger te beheren en barst van de pre-made containers op dockerhub die je zo binnentrekt.

Leuke video van STH: YouTube: Ultimate Virtualization and Container Dev Setup Proxmox VE w/ Docker...

Ben zelf nog aan het puzzelen om PVE in te zetten. Denk nu aan een enkele SSD met PVE. Verder een W10 VM als fileserver met direct doorgezette HDD's die dus door W10 gemanaged worden.

Mogelijk nog een aantal Linux VM's met daarop Docker (Swarm), of direct Docker op PVE. Scheelt weer een tussenlaag natuurlijk, maar sommige mensen adviseren om PVE zo schoon mogelijk te houden, aan de andere kant staat LXC ook op PVE, dus waarom geen Docker 8) .

Zo knutsel je lekker verder als newbie op PVE gebied _/-\o_

[ Voor 10% gewijzigd door Mars Warrior op 28-12-2017 21:08 ]

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Waarom PVE als je Docker gaat gebruiken voor containers en Windows voor storage? Ik ben oprecht benieuwd, want je bent op die manier bezig met zo hard mogelijk de features van PVE te omzeilen.

Acties:
  • +1 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 05-05 23:36

Compizfox

Bait for wenchmarks

dcm360 schreef op donderdag 28 december 2017 @ 21:18:
Waarom PVE als je Docker gaat gebruiken voor containers en Windows voor storage? Ik ben oprecht benieuwd, want je bent op die manier bezig met zo hard mogelijk de features van PVE te omzeilen.
De vreemdste keuze hier vind ik nog wel Windows 10 als fileserver... :?

Gewoon een heel grote verzameling snoertjes


  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 08-04 00:21
Compizfox schreef op donderdag 28 december 2017 @ 22:03:
[...]

De vreemdste keuze hier vind ik nog wel Windows 10 als fileserver... :?
Software raid 5 on NTFS :+

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 14:07

Mars Warrior

Earth, the final frontier

Compizfox schreef op donderdag 28 december 2017 @ 22:03:
De vreemdste keuze hier vind ik nog wel Windows 10 als fileserver... :?
Ik wist dat als ik in dit topic van ZFS aanhangers W10 Pro als fileserver ga inzetten dat er commentaar van komt 8) Denk dat jullie de mogelijkheden van W7, W10 Pro niet kennen, dus ik zal even wat toelichten :D

Ik denk dat mijn huidige opzet het dichts bij een MergerFS / SnapRAID achtige oplossing komt, maar dan één die nog iets meer kan dan deze Linux combi:
  • JBOD: Ik heb een aantal schijven van verschillende grootte en wil ook simpel schijven kunnen toevoegen als dat nodig is. Lekker flexibel.
  • Van een x-aantal schijven kan ik een pool maken. Binnen die pool kan ik configureren over hoeveel schijven een bestand wordt gerepliceerd (soort RAID1 of meer op map niveau dus). Bij lezen van een gerepliceerd bestand heb je natuurlijk het voordeel dat de data sneller binnenkomt omdat deze van meerdere schijven wordt gelezen.
  • De schijven mogen al data bevatten als ik ze aan een pool toewijs. Bestanden worden gewoon als NTFS weggeschreven, en zijn dus in een andere PC gewoon uit te lezen mocht dat nodig zijn.
  • Ik kan meerdere pools weer in een pool opnemen.
  • Ik kan ook configureren via regels waar een bestand komt te staan: zo kan ik sommige bestanden dus 'forceren' op een SSD ipv een trage HDD of op zowel een cloud drive als een lokale fysieke drive.
  • Ik kan cloud storage (OneDrive, GoogleDrive, Amazon S3, Google, Azure, FTP) als encrypted disk (FIPS 14-2 compliant) toevoegen aan mijn pool. Zier er gewoon uit als een normale schijf binnen Windows. Vanzelfsprekend zit hier caching en prefetching op zodat je ook een film uit de cloud probleemloos kunt streamen.
    Ik heb daarmee van mijn kritieke data dus sowieso een off-site encrypted versie mocht mijn server volledig crashen of door brand of diefstal verloren gaan. Natuurlijk heb ik ook nog een cloud backup!
dcm360 schreef op donderdag 28 december 2017 @ 21:18:
Waarom PVE als je Docker gaat gebruiken voor containers en Windows voor storage? Ik ben oprecht benieuwd, want je bent op die manier bezig met zo hard mogelijk de features van PVE te omzeilen.
Op dit ogenblik draait W10 Pro op de hardware, en gebruik ik Hyper-V voor virtualisatie van een aantal Ubuntu Servers (16.04 LTS) en Docker containers (MobyLinux VM's).
Ik wil eigenlijk mijn fileserver enkel fileserver en in beperkte mate applicatieserver laten zijn, en wil de VM's dus ergens anders draaien.

Volgens mij is PVE een goede kandidaat om dit te kunnen, en is nog energiezuinig ook volgens sommigen, en tegelijkertijd de VM's voor Docker onnodig te maken omdat Docker direct op PVE kan draaien als ik de vele tutorials en video's van STH bekijk.

Dus dan zou ik uitkomen op
  • PVE op de hardware met SSD. Met een Fujitsu D3417-B mobo zou ik dan richting de 3W idle kunnen uitkomen (nog even zonder schijven), afhankelijk of PVE net zo zuinig is als W10 op deze hardware.
  • Eventueel extra opslag op PVE niveau voor Docker volumes en containers (enkele schijf? RAID1?)
  • Backup vanuit PVE naar de W10 fileserver (Samba share)
  • VM met Windows, waarbij de schijven fysiek worden doorgezet. Op zich is er nog een hybride oplossing denkbaar waarbij PVE basis storage met ZFS voorziet die als Samba share (kan dat??) te benaderen is vanuit W10 (die kan ik nl. probleemloos in mijn pool hangen als enkele schijf), en indien ik extra storage nodig heb dit binnen W10 met extra schijven op te lossen. Zo kan ik een ZFS storage pool combineren met Cloud storage :9~
  • Hyper-V VM's voor Ubuntu overzetten naar PVE KVM.
  • Docker van de MobyLinux VM af, en direct op PVE draaien.
Zo maak ik volgens mij toch wel goed gebruik van PVE. Oké geen ZFS omdat ik dat niet nodig vind (mening...) en ik ZFS inflexibel vind als er schijfruimte bij moet. LXC is met het bestaan van Docker wat mij betreft compleet achterhaald, dus zal ik om die reden nooit gebruiken.

Commentaar is welkom. Ik heb namelijk geen enkele ervaring met PVE 8) .

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • Edd
  • Registratie: Januari 2001
  • Laatst online: 10:01

Edd

Mars Warrior schreef op vrijdag 29 december 2017 @ 12:44:
Commentaar is welkom. Ik heb namelijk geen enkele ervaring met PVE 8) .
Waarom zet je er dan gewoon geen kale Debian-installatie op en installeer je daar KVM en Docker op om dit te bewerkstelligen?
Want als ik het zo lees, ga je niet echt gebruikmaken van de features die Proxmox je bied.

-


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Mars Warrior schreef op vrijdag 29 december 2017 @ 12:44:
Zo maak ik volgens mij toch wel goed gebruik van PVE. Oké geen ZFS omdat ik dat niet nodig vind (mening...) en ik ZFS inflexibel vind als er schijfruimte bij moet. LXC is met het bestaan van Docker wat mij betreft compleet achterhaald, dus zal ik om die reden nooit gebruiken.

Commentaar is welkom. Ik heb namelijk geen enkele ervaring met PVE 8) .
Als LXC daadwerkelijk compleet achterhaald is, is het wel een beetje raar dat Docker bovenop de fundamenten van LXC gebouwd is...

Ook denk ik dat je vooral niet moet kijken naar het mogelijk te halen idle verbruik. Dat is misschien haalbaar met een kale PVE-installatie, maar met een Windows-VM erop kan je het wel vergeten (Windows op KVM is niet zuinig, vergeleken met Linux op KVM).

Het idee van backup via samba gaat helaas niet werken, want PVE ondersteund samba niet als storage type. Pin me er niet op vast, maar ik dacht dat Windows ook NFS kon, dat zou dan een mogelijke oplossing kunnen zijn.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 05-05 23:36

Compizfox

Bait for wenchmarks

Mars Warrior schreef op vrijdag 29 december 2017 @ 12:44:
[...]
  • JBOD: Ik heb een aantal schijven van verschillende grootte en wil ook simpel schijven kunnen toevoegen als dat nodig is. Lekker flexibel.
  • Van een x-aantal schijven kan ik een pool maken. Binnen die pool kan ik configureren over hoeveel schijven een bestand wordt gerepliceerd (soort RAID1 of meer op map niveau dus). Bij lezen van een gerepliceerd bestand heb je natuurlijk het voordeel dat de data sneller binnenkomt omdat deze van meerdere schijven wordt gelezen.
  • De schijven mogen al data bevatten als ik ze aan een pool toewijs. Bestanden worden gewoon als NTFS weggeschreven, en zijn dus in een andere PC gewoon uit te lezen mocht dat nodig zijn.
  • Ik kan meerdere pools weer in een pool opnemen.
  • Ik kan ook configureren via regels waar een bestand komt te staan: zo kan ik sommige bestanden dus 'forceren' op een SSD ipv een trage HDD of op zowel een cloud drive als een lokale fysieke drive.
  • Ik kan cloud storage (OneDrive, GoogleDrive, Amazon S3, Google, Azure, FTP) als encrypted disk (FIPS 14-2 compliant) toevoegen aan mijn pool. Zier er gewoon uit als een normale schijf binnen Windows. Vanzelfsprekend zit hier caching en prefetching op zodat je ook een film uit de cloud probleemloos kunt streamen.
    Ik heb daarmee van mijn kritieke data dus sowieso een off-site encrypted versie mocht mijn server volledig crashen of door brand of diefstal verloren gaan. Natuurlijk heb ik ook nog een cloud backup!
toon volledige bericht
Wat voor een tech is dat dan? Is dat ReFS of?
LXC is met het bestaan van Docker wat mij betreft compleet achterhaald, dus zal ik om die reden nooit gebruiken.
Zoals gezegd is Docker gebouwd op LXC. Daarnaast hebben ze ook verschillende doeleinden. Docker is geen vervanging voor LXC. Docker is voor het encapsuleren en deployen van self-contained applicaties in containers. LXC is veel algemener en is meer bedoeld voor het draaien van een compleet OS. Net als een VM dus, maar met minder overhead omdat je alleen de userspace virtualiseert en het de kernel van de host deelt.

Je moet Docker dus meer zien als een bepaalde, specifieke toepassing van LXC.

[ Voor 3% gewijzigd door Compizfox op 29-12-2017 14:13 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 14:07

Mars Warrior

Earth, the final frontier

Edd schreef op vrijdag 29 december 2017 @ 13:03:
[...]
Waarom zet je er dan gewoon geen kale Debian-installatie op en installeer je daar KVM en Docker op om dit te bewerkstelligen?
Want als ik het zo lees, ga je niet echt gebruikmaken van de features die Proxmox je bied.
Goeie en terechte vraag. Volgens mij krijg je met PVE ook een webinterface om eea te configureren. Geen idee of je dat met de losse onderdelen ook krijgt (met Docker neem ik altijd Portainer).

Ik heb nl. wel wat Linux kennis, maar niet echt uitgebreid, dus als PVE eea vereenvoudigd met een webbased interface dan is dat voor mij al voldoende reden om PVE boven een cli-based Debian/KVM combi te verkiezen.
dcm360 schreef op vrijdag 29 december 2017 @ 13:55:
[...]

Als LXC daadwerkelijk compleet achterhaald is, is het wel een beetje raar dat Docker bovenop de fundamenten van LXC gebouwd is...
Gebouwd op dezelfde fundamenten betekent niet dat het hetzelfde kan, of hetzelfde ecosysteem kent. Qua containers is Docker gewoon de wereldwijde standaard van de CNCF en wordt door alle cloud aanbieders en orchestration engines (Docker Swarm, Kubernetes) gebruikt.

En of ik nu een simpele container heb die één enkele applicatie draait (op basis van Alpine Linux van 5MB) of een volledig Ubuntu 16.04 OS (docker pull ubuntu), het maakt niet uit voor Docker.

Daarom is LXC wat mij betreft compleet achterhaald.
Ook denk ik dat je vooral niet moet kijken naar het mogelijk te halen idle verbruik. Dat is misschien haalbaar met een kale PVE-installatie, maar met een Windows-VM erop kan je het wel vergeten (Windows op KVM is niet zuinig, vergeleken met Linux op KVM).
Daar heb ik dus nog geen ervaring mee. Hoop dat het meevalt. Zuinigheid is geen must, maar wel erg fijn.
Zo wil ik mijn huidige 3.5" schijven uit 2012 ook langzaam gaan vervangen met 2.5" exemplaren. Die zijn inmiddels ook in grote varianten te krijgen en goed betaalbaar.
Het idee van backup via samba gaat helaas niet werken, want PVE ondersteund samba niet als storage type. Pin me er niet op vast, maar ik dacht dat Windows ook NFS kon, dat zou dan een mogelijke oplossing kunnen zijn.
Dat is jammer. Ik zie nu dat PVE enkel NFS en iSCSI als shared storage kent. Dacht dat Windows één van de twee wel aan zou moeten kunnen. Jammer dat er geen Amazon S3 compatible opslag ondersteund wordt, want dan had ik simpelweg gebruik kunnen maken van Minio op mijn W10 bak...
Compizfox schreef op vrijdag 29 december 2017 @ 14:03:
Wat voor een tech is dat dan? Is dat ReFS of?
Nope. Ik gebruik al jaren de producten uit de Stablebit stal: DrivePool, CloudDrive en Scanner. Voor wat het doet zijn de kosten erg laag, en je krijgt lifetime upgrades (althans ik krijg ze al 5 jaar). Ik heb meerdere licenties, en die kosten dan €15 extra. Gaat nergens over dus _/-\o_

[ Voor 12% gewijzigd door Mars Warrior op 29-12-2017 14:28 . Reden: Stablebit toegevoegd ]

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 05-05 23:36

Compizfox

Bait for wenchmarks

Mars Warrior schreef op vrijdag 29 december 2017 @ 14:17:
[...]
Gebouwd op dezelfde fundamenten betekent niet dat het hetzelfde kan, of hetzelfde ecosysteem kent.
Je begrijpt het verkeerd. Docker en LXC zijn niet gebouwd op dezelfde fundamenten. Docker is gebouwd op LXC, m.a.w., LXC is het fundament van Docker.
Qua containers is Docker gewoon de wereldwijde standaard van de CNCF en wordt door alle cloud aanbieders en orchestration engines (Docker Swarm, Kubernetes) gebruikt.

En of ik nu een simpele container heb die één enkele applicatie draait (op basis van Alpine Linux van 5MB) of een volledig Ubuntu 16.04 OS (docker pull ubuntu), het maakt niet uit voor Docker.

Daarom is LXC wat mij betreft compleet achterhaald.
Appels en peren. Zoals ik al zei in mijn vorige comment: Docker is geen direct alternatief voor LXC of andersom. Docker is een bepaalde toepassing van LXC.
Nope. Ik gebruik al jaren de producten uit de Stablebit stal: DrivePool, CloudDrive en Scanner. Voor wat het doet zijn de kosten erg laag, en je krijgt lifetime upgrades (althans ik krijg ze al 5 jaar). Ik heb meerdere licenties, en die kosten dan €15 extra. Gaat nergens over dus _/-\o_
Meh, third-party proprietaire software (en nog betaald ook). Geef mij maar ZFS :Y)

[ Voor 20% gewijzigd door Compizfox op 29-12-2017 14:34 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • +1 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 13:16

Mattie112

3780wP (18x 210wP EC Solar)

Iemand ervaring met een container voor CrashPlan? CrashPlan geeft de melding "backup disabled - backup location is not accessible".

Mountpoint:
code:
1
mp0: /bigpool_6tb/backup/CrashPlan,mp=/mnt/backup/CrashPlan

(ook / backup zelf geprobeerd)

Permissions (recursive) expres even naar 777 gezet
code:
1
2
3
4
5
root@proxmox:/bigpool_6tb/backup# ls -al
total 116
drwxrwxr-x  9 root root   10 Dec 29 15:45 .
drwxr-xr-x  7 root root    7 Dec 26 15:49 ..
drwxrwsrwx  5 root root    5 Dec 29 15:57 CrashPlan


Doe ik hier nou echt iets fout?

Edit:
CrashPlan draait als root en de user root kan toch echt in die dir schrijven/lezen

code:
1
root       155  0.0 35.0 4680600 367512 ?      SNl  14:55   0:12 /usr/local/crashplan/jre/bin/java -Dfile.encoding=UTF-8 -Dapp=CrashPlanService -DappBaseName=CrashPlan -Xms20m -Xmx1024m -Dsun.net.inetaddr.ttl=300 -Dnetworkaddress.cache.t

[ Voor 24% gewijzigd door Mattie112 op 29-12-2017 16:00 ]

Deze ruimte is te huur!


Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 14:07

Mars Warrior

Earth, the final frontier


Docker / LXC intermezzo
Compizfox schreef op vrijdag 29 december 2017 @ 14:27:
Je begrijpt het verkeerd. Docker en LXC zijn niet gebouwd op dezelfde fundamenten. Docker is gebouwd op LXC, m.a.w., LXC is het fundament van Docker.
Je hebt gelijk, en ook weer niet O-)
Beiden zijn gebaseerd op Linux kernel elementen. Verder was Docker tot aan v0.9 gebouwd op LXC, maar is inmiddels toch compleet anders dan LXC.

Afbeeldingslocatie: https://robinsystems.com/wp-content/uploads/2017/03/linux-vs-docker-comparison-architecture-docker-lxc.png

Je ziet hier de overstap naar libcontainer en later naar containerd:

Afbeeldingslocatie: https://robinsystems.com/wp-content/uploads/2017/01/linux-vs-docker-image-registry-aggregate-docker-pulls-6-billion.png

En hier nog een keer de grote verschillen tussen LXC en Docker. LXC lijkt meer op een VM, waar Docker echt weggooi spul is: container weg, opgeslagen data in de container ook weg :'(
Maar dat biedt juist prachtige mogelijkheden als het gaat om schaalbaarheid en redundantie icm shared storage: bij uitval van een server start je de container simpelweg op een andere server, die connect aan de shared storage en alles loopt lekker verder!

Afbeeldingslocatie: https://robinsystems.com/wp-content/uploads/2017/01/linux-vs-docker-comparison-application-support.png


Weer terug naar PVE :X
Meh, third-party proprietaire software (en nog betaald ook). Geef mij maar ZFS :Y)
Even los van het feit dat ZFS de flexibiliteit en functionaliteit die ik met Stablebit gebruik niet heeft, stap je ook over de (verborgen) kosten van ZFS heen. Paritydrives in een RAIDZx setup zijn toch ook niet gratis, laat staan als je alle schijven moet vervangen om je pool te vergroten. Er zijn manieren om dat 'live' te doen, maar je moet wel alle schijven vervangen.
5 jaar geleden ben ik gestart met 2 schijven van 1.5TB en 2TB. Inmiddels zijn er 2 van 2.5TB en 2 van 3TB bijgekomen. Geen idee hoe ik dat met ZFS had moeten doen. Dan had ik waarschijnlijk andere keuzes moeten maken.

Voor Stablebit DrivePool/CloudDrive kan ik tot nu toe ook GEEN vergelijkbare functionaliteit onder Linux vinden. En ik ben niet de enige als ik Reddit of andere fora lees.

Een alternatief voor CloudDrive zoals CryFS is nog steeds niet stabiel, heeft beperkte functionaliteit tov CloudDrive en de ontwikkeling gaat tergend traag.

Maar goed.
Ik zoek dus naar een pragmatische toepassing van PVE icm met de spullen die ik nu al heb, ken of gewend ben. Of dat nu het meest optimale is als je helemaal van scratch af aan zou starten weet ik niet, maar daar kijk ik zeker naar zolang ik dezelfde functionaliteit terug krijg.
Op dit moment betekent dat dus een combi van PVE, Windows VM en Docker Swarm zodat ik de Docker containers/applicaties draaiend op de PVE server, mijn domotica NUCje en mijn Raspberry Pi's vanuit één Portainer omgeving kan beheren.

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Mars Warrior schreef op vrijdag 29 december 2017 @ 16:02:

Docker / LXC intermezzo

[...]

En hier nog een keer de grote verschillen tussen LXC en Docker. LXC lijkt meer op een VM, waar Docker echt weggooi spul is: container weg, opgeslagen data in de container ook weg :'(
Maar dat biedt juist prachtige mogelijkheden als het gaat om schaalbaarheid en redundantie icm shared storage: bij uitval van een server start je de container simpelweg op een andere server, die connect aan de shared storage en alles loopt lekker verder!
En de onderlaag in de kernel bestaat juist vanwege LXC (en OpenVZ). Voor Docker was het best fijn dat dat al gebouwd was.
Overigens kan Proxmox precies wat je nu noemt met LXC-containers: Valt er een server uit, wordt de container weer gestart op een andere host, zolang die maar bij de shared storage kan.

Acties:
  • +1 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 05-05 23:36

Compizfox

Bait for wenchmarks

Mars Warrior schreef op vrijdag 29 december 2017 @ 16:02:

Docker / LXC intermezzo

[...]

Je hebt gelijk, en ook weer niet O-)
Beiden zijn gebaseerd op Linux kernel elementen. Verder was Docker tot aan v0.9 gebouwd op LXC, maar is inmiddels toch compleet anders dan LXC.

[afbeelding]

Je ziet hier de overstap naar libcontainer en later naar containerd:

[afbeelding]
toon volledige bericht
Ah, ok, dat wist ik niet.
Maar dat biedt juist prachtige mogelijkheden als het gaat om schaalbaarheid en redundantie icm shared storage: bij uitval van een server start je de container simpelweg op een andere server, die connect aan de shared storage en alles loopt lekker verder!
Kan ook met PVE (zowel met KVM VMs als LXC containers).

Weer terug naar PVE :X
[...]
Even los van het feit dat ZFS de flexibiliteit en functionaliteit die ik met Stablebit gebruik niet heeft, stap je ook over de (verborgen) kosten van ZFS heen. Paritydrives in een RAIDZx setup zijn toch ook niet gratis, laat staan als je alle schijven moet vervangen om je pool te vergroten.
Het gaat me niet zozeer om kosten, maar meer om het principe van vrije software. Ik heb gewoon meer vertrouwen in ZFS dan in een (relatief obscuur) propriëtair betaald pakket.
Er zijn manieren om dat 'live' te doen, maar je moet wel alle schijven vervangen.
5 jaar geleden ben ik gestart met 2 schijven van 1.5TB en 2TB. Inmiddels zijn er 2 van 2.5TB en 2 van 3TB bijgekomen. Geen idee hoe ik dat met ZFS had moeten doen. Dan had ik waarschijnlijk andere keuzes moeten maken.

Voor Stablebit DrivePool/CloudDrive kan ik tot nu toe ook GEEN vergelijkbare functionaliteit onder Linux vinden. En ik ben niet de enige als ik Reddit of andere fora lees.
Ik ben totaal niet bekend met Stablebit (dit is de eerste keer dan ik ervan hoor), dus ik kan er niet in detail op ingaan. Het enige wat ik wel weet is dat er goede technische redenen zijn voor de beperkingen die ZFS heeft qua flexibiliteit.

Wat ik bijvoorbeeld niet direct snap: hoe handelt Stablebit de situatie waarbij je schijven van verschillende grootte in een pool hebt qua redundantie? Is het een chunk-based idee, een beetje zoals btrfs?
Maar goed.
Ik zoek dus naar een pragmatische toepassing van PVE icm met de spullen die ik nu al heb, ken of gewend ben. Of dat nu het meest optimale is als je helemaal van scratch af aan zou starten weet ik niet, maar daar kijk ik zeker naar zolang ik dezelfde functionaliteit terug krijg.
Op dit moment betekent dat dus een combi van PVE, Windows VM en Docker Swarm zodat ik de Docker containers/applicaties draaiend op de PVE server, mijn domotica NUCje en mijn Raspberry Pi's vanuit één Portainer omgeving kan beheren.
Maar waarom dan PVE in jouw situatie? Als je storage graag op Windows met Stablebit wilt doen, is Windows als host met Hyper-V dan niet makkelijker?

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 14:07

Mars Warrior

Earth, the final frontier

Is werkgerelateerde kennis. Anders had ik het ook niet geweten. En leren is leuk 8)
Kan ook met PVE (zowel met KVM VMs als LXC containers).
Overigens kan Proxmox precies wat je nu noemt met LXC-containers: Valt er een server uit, wordt de container weer gestart op een andere host, zolang die maar bij de shared storage kan.
Zoiets had ik al gelezen ja. Maar dat vereist overal PVE servers. Met Docker Swarm voldoet elke OS dat Docker ondersteund (Linux x86/Arm, MacOS en Windows). Verder ondersteund Docker het pinnen van containers op bepaalde servers: fijn als een container afhankelijk is van aangesloten hardware.
Het gaat me niet zozeer om kosten, maar meer om het principe van vrije software. Ik heb gewoon meer vertrouwen in ZFS dan in een (relatief obscuur) propriëtair betaald pakket.
Ik heb ook een voorkeur voor open source hoor. Maar als die de functionaliteit niet biedt (het was 2012 hè toen ik daarmee begon) en het kost een paar tientjes, dan doe ik niet moeilijk.
En nu is het bijna 2018, 6 jr later, en ik zie nog steeds geen andere combi van open source software die dezelfde geïntegreerde functionaliteit biedt. En ZFS is nog steeds ZFS: inflexibel en betrouwbaar :+
Wat ik bijvoorbeeld niet direct snap: hoe handelt Stablebit de situatie waarbij je schijven van verschillende grootte in een pool hebt qua redundantie? Is het een chunk-based idee, een beetje zoals btrfs?
DrivePool werkt op file basis, niet op block basis. Schijven van verschillende grootte zijn dus geen enkel probleem. DrivePool zoekt gewoon ruimte op één van de schijven als er gerepliceerd moet worden. Door drive balancing zorgt DrivePool voor voldoende ruimte op alle schijven in de pool zodat replicatie ook altijd mogelijk is. Zo kan ik dus ook voor bepaalde mappen 3 of 4-voudige replicatie instellen. Enige eis is dat er zoveel schijven moeten zijn :D En ik kan het dus online aanpassen. Ook erg fijn. Het toevoegen en verwijderen van schijven is net zo makkelijk online te doen. Btrfs kan dat ook als ik het goed heb.

Ik heb geen idee of dat vergelijkbaar is met Btrfs. Btrfs is wel een aantrekkelijk alternatief voor ZFS vind ik en het schijnt ook goed te werken met PVE. Natuurlijk geen RAID5/6 gebruiken, dat werkt nog niet lekker.
Maar waarom dan PVE in jouw situatie? Als je storage graag op Windows met Stablebit wilt doen, is Windows als host met Hyper-V dan niet makkelijker?
Dat is het dilemma.
Hoewel mijn fileserver al jaren perfect werkt blijft het Windows, in de zin van maandelijkse fixes (en vaak een noodzakelijke reboot) en zorgt ook WAAS (Windows As A Service) voor soms een uur downtime als er een nieuwe versie van W10 uitkomt. En daarmee gaan ook al mijn VM's down.
Nu kan ik vaak zo'n upgrade lekker rond 3 uur 's nachts laten uitvoeren, maar het zou mooier zijn als enkel de fileserver even down gaat en de rest van mijn VM's rustig doordraaien. Ik heb nu bijv. een apart NUCje voor mijn domotica aangeschaft om die reden: die werkt nu onafhankelijk van mijn W10 fileserver, waar het voorheen een VM was.

Met PVE wil ik dus een stuk onafhankelijkheid tussen mijn servers/VM's bereiken: W10 als aparte VM, en verder Ubuntu LTS VM's en Docker containers die gewoon blijven werken als W10 even moet worden bijgewerkt :N En andersom natuurlijk _/-\o_
En als tweede een stuk shared storage die ik kan gebruiken voor bijv. Docker containers, ook dus onafhankelijk van de W10 fileserver.

Overigens kan Ubuntu LTS er ook wat van moet ik zeggen (soms elke week wel updates en staat er *** System Restart Required *** als ik inlog op de console), maar daar draaien dan geen VM's op en het rebooten / upgraden gaat redelijk vlot :Y

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Mars Warrior schreef op vrijdag 29 december 2017 @ 19:20:
Zoiets had ik al gelezen ja. Maar dat vereist overal PVE servers. Met Docker Swarm voldoet elke OS dat Docker ondersteund (Linux x86/Arm, MacOS en Windows). Verder ondersteund Docker het pinnen van containers op bepaalde servers: fijn als een container afhankelijk is van aangesloten hardware.
Tja, voor de één moet je PVE hebben, voor de ander Docker (welke nog wel redelijk kieskeurig lijkt te zijn in welke OS versie werkt en is niet altijd compatibel met al geïnstalleerde software). Pinnen van containers op een systeem kunnen ze blijkbaar beiden (en is dus geen voordeel voor Docker).

Je lijkt dus een beetje te onderschatten wat PVE kan en doet.

[ Voor 4% gewijzigd door dcm360 op 29-12-2017 20:01 ]


Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 14:07

Mars Warrior

Earth, the final frontier

dcm360 schreef op vrijdag 29 december 2017 @ 19:59:
Tja, voor de één moet je PVE hebben, voor de ander Docker (welke nog wel redelijk kieskeurig lijkt te zijn in welke OS versie werkt en is niet altijd compatibel met al geïnstalleerde software).
Er blijft dus niks anders over dan te proberen of eea werkt. Docker kan altijd nog in een VM draaien. In de Wiki van PVE lees ik ook dat men Docker liever in een VM zet, en niet direct op PVE. Maar PVE heeft een sterke voorkeur voor het 'eigen' LXC merk ik ook in de documentatie.

Docker zou direct in LXC kunnen zie ik met wat aanpassingen:
https://www.solaris-cookb...-docker-inside-container/

Alleen wordt er dan hier weer gesproken over security risks door de aangepaste instellingen:
https://forum.proxmox.com...-docker-inside-lxc.24858/

De andere reden om Docker toch in een VM te draaien staat netjes onderin in de laatste link: PVE is IAAS en Docker PAAS. En het is niet verkeerd om die twee lagen te scheiden 8)
Pinnen van containers op een systeem kunnen ze blijkbaar beiden (en is dus geen voordeel voor Docker).

Je lijkt dus een beetje te onderschatten wat PVE kan en doet.
Ik ben er nog lang niet achter wat PVE allemaal kan. De documentatie is omvangrijk en niet echt overzichtelijk, als ik dat wederom vergelijk met die van Docker. Maar dat is ff doorbijten, want ik wil het toch wel gaan uitproberen!

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Mars Warrior schreef op vrijdag 29 december 2017 @ 21:33:
[...]

Er blijft dus niks anders over dan te proberen of eea werkt. Docker kan altijd nog in een VM draaien. In de Wiki van PVE lees ik ook dat men Docker liever in een VM zet, en niet direct op PVE. Maar PVE heeft een sterke voorkeur voor het 'eigen' LXC merk ik ook in de documentatie.
:D En VMWare heeft een voorkeur voor het eigen virtualisatie-formaat, Hyper-V ook, VirtualBox ook, en Docker ook. Het unique selling point van PVE is juist de integratie van een systeem dat LXC en KVM combineert, natuurlijk heeft het daar de voorkeur voor. Je kan er prima Virtualbox, VMWare of Docker bij installeren, maar het integreert voor geen meter.

Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 14:07

Mars Warrior

Earth, the final frontier

dcm360 schreef op vrijdag 29 december 2017 @ 22:02:
:D En VMWare heeft een voorkeur voor het eigen virtualisatie-formaat, Hyper-V ook, VirtualBox ook, en Docker ook. Het unique selling point van PVE is juist de integratie van een systeem dat LXC en KVM combineert, natuurlijk heeft het daar de voorkeur voor. Je kan er prima Virtualbox, VMWare of Docker bij installeren, maar het integreert voor geen meter.
Je hebt gelijk vwb de voorkeur voor een eigen formaat, maar al die anderen ondersteunen (VMWare Integrated Containers, Hyper-V for Docker) wel Docker. De documentatie van PVE (LXC vs LXD vs Proxmox Containers vs Docker) verklaart Docker zowat tot een tweederangs container format.
En er wordt al langer gevraagd om Docker support binnen PVE, met soms vreemde reacties van de staff...

Ik snap dat PVE een behoorlijke investering in Proxmox Containers heeft gedaan (redundantie, live migration etc.), en dat dat ook nog eens uitstekend werkt, maar een beetje meegaan in de tijd van Docker inclusief de orchestration frameworks als Docker Swarm en Kubernetes / K8s mag best anno 2017 (bijna 2018)...

Het algemene advies komt bij elke discussie icm Proxmox altijd uit op het gebruik van een VM voor Docker zodat je met meerdere VM's ook een multi-node Swarm kunt aanmaken.

Dus ik volg dat advies voorlopig maar. Dan worden het dus uiteindelijk 4 VM's: 1 voor W10, en drie voor een Docker Swarm. Met 3 nodes mag er één uitvallen zonder dat de Swarm uitvalt. Dat wordt testen :D

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Mars Warrior schreef op vrijdag 29 december 2017 @ 23:27:
[...]

Je hebt gelijk vwb de voorkeur voor een eigen formaat, maar al die anderen ondersteunen (VMWare Integrated Containers, Hyper-V for Docker) wel Docker. De documentatie van PVE (LXC vs LXD vs Proxmox Containers vs Docker) verklaart Docker zowat tot een tweederangs container format.
En er wordt al langer gevraagd om Docker support binnen PVE, met soms vreemde reacties van de staff...
Wat ik er enkel uit lees is dat de ontwikkelaars achter PVE Docker zien als oplossing voor een probleem dat PVE niet probeert op te lossen. Het waardeoordeel dat jij daar aan geeft kan ik er niet in teruglezen.

Overigens doen VMWare en Hyper-V precies wat er door PVE wordt aangeraden om Docker werkend te krijgen: een VM starten met daarin een op Linux gebaseerd systeem om Docker containers in te draaien. Het grootste verschil is zelfs dat je het op PVE ook nog kan gaan proberen zonder VM, want de Linux-kernel heb je al.

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 08-04 00:21
Mattie112 schreef op vrijdag 29 december 2017 @ 15:59:
Iemand ervaring met een container voor CrashPlan? CrashPlan geeft de melding "backup disabled - backup location is not accessible".

Mountpoint:
code:
1
mp0: /bigpool_6tb/backup/CrashPlan,mp=/mnt/backup/CrashPlan

(ook / backup zelf geprobeerd)

Permissions (recursive) expres even naar 777 gezet
code:
1
2
3
4
5
root@proxmox:/bigpool_6tb/backup# ls -al
total 116
drwxrwxr-x  9 root root   10 Dec 29 15:45 .
drwxr-xr-x  7 root root    7 Dec 26 15:49 ..
drwxrwsrwx  5 root root    5 Dec 29 15:57 CrashPlan


Doe ik hier nou echt iets fout?

Edit:
CrashPlan draait als root en de user root kan toch echt in die dir schrijven/lezen

code:
1
root       155  0.0 35.0 4680600 367512 ?      SNl  14:55   0:12 /usr/local/crashplan/jre/bin/java -Dfile.encoding=UTF-8 -Dapp=CrashPlanService -DappBaseName=CrashPlan -Xms20m -Xmx1024m -Dsun.net.inetaddr.ttl=300 -Dnetworkaddress.cache.t
toon volledige bericht
Crashplan heeft hier enkele jaren in een debian LXC gewerkt, ook met 1 mountpoint naar het host FS. Dus werken moet het :), mijn oplossing zou zijn: gooi diene rommel eraf en gebruik Duplicati :+

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • MewBie
  • Registratie: April 2002
  • Laatst online: 11:58
Mars Warrior schreef op vrijdag 29 december 2017 @ 23:27:
[...]

Je hebt gelijk vwb de voorkeur voor een eigen formaat, maar al die anderen ondersteunen (VMWare Integrated Containers, Hyper-V for Docker) wel Docker. De documentatie van PVE (LXC vs LXD vs Proxmox Containers vs Docker) verklaart Docker zowat tot een tweederangs container format.
En er wordt al langer gevraagd om Docker support binnen PVE, met soms vreemde reacties van de staff...

Ik snap dat PVE een behoorlijke investering in Proxmox Containers heeft gedaan (redundantie, live migration etc.), en dat dat ook nog eens uitstekend werkt, maar een beetje meegaan in de tijd van Docker inclusief de orchestration frameworks als Docker Swarm en Kubernetes / K8s mag best anno 2017 (bijna 2018)...

Het algemene advies komt bij elke discussie icm Proxmox altijd uit op het gebruik van een VM voor Docker zodat je met meerdere VM's ook een multi-node Swarm kunt aanmaken.

Dus ik volg dat advies voorlopig maar. Dan worden het dus uiteindelijk 4 VM's: 1 voor W10, en drie voor een Docker Swarm. Met 3 nodes mag er één uitvallen zonder dat de Swarm uitvalt. Dat wordt testen :D
toon volledige bericht
Wat is de toegevoegde waarde van 2 extra Docker VM's om een Swarm op te zetten? VM's zelf falen volgens mij niet echt, je gebruikt dus alleen maar extra resources. Als je het doet vanwege software updates zou je een 2de VM achter de hand kunnen houden die hetzelfde is ingesteld voor test doeleinden en je alleen opstart om dingen als software updates te testen. Kijk eens naar het Cockpit Project en zie of dat wat voor je kan betekenen voor management van je host, Windows VM en Docker containers.

Please leave a message after the beep.
*beeeeep*


Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 14:07

Mars Warrior

Earth, the final frontier

dcm360 schreef op vrijdag 29 december 2017 @ 23:52:
Wat ik er enkel uit lees is dat de ontwikkelaars achter PVE Docker zien als oplossing voor een probleem dat PVE niet probeert op te lossen. Het waardeoordeel dat jij daar aan geeft kan ik er niet in teruglezen.

Overigens doen VMWare en Hyper-V precies wat er door PVE wordt aangeraden om Docker werkend te krijgen: een VM starten met daarin een op Linux gebaseerd systeem om Docker containers in te draaien. Het grootste verschil is zelfs dat je het op PVE ook nog kan gaan proberen zonder VM, want de Linux-kernel heb je al.
Proxmox zet zichzelf neer als een IAAS platform, maar weigeren Docker te ondersteunen ('no-one is using, testing or debug it here'), ze hebben zelfs geen plannen in die richting ('there are no plans about that').

Zowel VMWare als Hyper-V als de rest van de IAAS wereld ondersteunen Docker OOTB met Docker Machine en Docker Volume drivers. Maar nee Proxmox dus niet 8)7 8)7. Als dat geen tweederangs is, dan weet ik het even niet meer!
MewBie schreef op zaterdag 30 december 2017 @ 12:31:
Wat is de toegevoegde waarde van 2 extra Docker VM's om een Swarm op te zetten? VM's zelf falen volgens mij niet echt, je gebruikt dus alleen maar extra resources. Als je het doet vanwege software updates zou je een 2de VM achter de hand kunnen houden die hetzelfde is ingesteld voor test doeleinden en je alleen opstart om dingen als software updates te testen.
Ik draai Docker in Swarm mode. Om die te laten leven als er één server uitgaat moet ik meerdere managers hebben. Het aantal moet oneven zijn, dus als ik één manager op mijn domotica server heb draaien, dan heb ik nog twee VM's nodig om op 3 uit te komen. Vandaar.
Ik kan natuurlijk ook nog een RPI3 toevoegen als manager, dan hoef ik maar één VM op PVE te zetten die zowel manager als worker is. Scheelt inderdaad resources!
Kijk eens naar het Cockpit Project en zie of dat wat voor je kan betekenen voor management van je host, Windows VM en Docker containers.
Cockpit kende ik nog niet. Net even geprobeerd, maar die ziet mijn Docker containers niet vreemd genoeg, noch mijn netwerk interfaces. Kan in de documentatie ook niks vinden of ik iets moet aanzetten daarvoor. Ik zie ook geen ondersteuning voor Docker Swarm. Het ziet er wel mooi en overzichtelijk uit. Ga ik later nog eens verder mee spelen :D .

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • MewBie
  • Registratie: April 2002
  • Laatst online: 11:58
Mars Warrior schreef op zondag 31 december 2017 @ 16:35:
[...]

Ik draai Docker in Swarm mode. Om die te laten leven als er één server uitgaat moet ik meerdere managers hebben. Het aantal moet oneven zijn, dus als ik één manager op mijn domotica server heb draaien, dan heb ik nog twee VM's nodig om op 3 uit te komen. Vandaar.
Ik kan natuurlijk ook nog een RPI3 toevoegen als manager, dan hoef ik maar één VM op PVE te zetten die zowel manager als worker is. Scheelt inderdaad resources!
Ah, ik dacht dat je maar 1 server draaide, als je meerdere servers gebruikt kan het inderdaad wel nuttig zijn.
[...]
Cockpit kende ik nog niet. Net even geprobeerd, maar die ziet mijn Docker containers niet vreemd genoeg, noch mijn netwerk interfaces. Kan in de documentatie ook niks vinden of ik iets moet aanzetten daarvoor. Ik zie ook geen ondersteuning voor Docker Swarm. Het ziet er wel mooi en overzichtelijk uit. Ga ik later nog eens verder mee spelen :D .
Ik heb wat Fedora VM's om mee te spelen en Cockpit komt dan standaard meegeinstalleerd, je kan wat extra pakketten installeren voor o.a. Docker, oVirt, Kubernetes, en het dashboard pakket laat je meerdere machines beheren vanuit dezelfde web interface, NetworkManager is ook een apart pakket dat misschien niet automatisch meegeinstalleerd is.
Doe even:
code:
1
2
3
dnf list cockpit*
of
apt list cockpit*

om te zien welke pakketten beschikbaar zijn.

Please leave a message after the beep.
*beeeeep*


Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 14:07

Mars Warrior

Earth, the final frontier

MewBie schreef op zondag 31 december 2017 @ 16:48:
Ah, ik dacht dat je maar 1 server draaide, als je meerdere servers gebruikt kan het inderdaad wel nuttig zijn.
Nee. Heb wat dingen gekoppeld zodat ik wat kan spelen met de beschikbare resources. Hoofdserver zit vol met 16GB RAM en de Domotica server (NUCje) zit ook op zijn max met 8GB RAM. Dus zo combineer ik eea met elkaar :9

Ik zie nu wel dat PVE ook een RPI3 inzet als 3de node. Grappig :D. Het is omdat jij erover begon :Y. Zo zie je maar weer hoe leuk vragen kunnen zijn van anderen! Ga dus volgend jaar eens een RPI3 toevoegen als Docker Swarm manager en kijken hoe dat loopt.
Ik heb wat Fedora VM's om mee te spelen en Cockpit komt dan standaard meegeinstalleerd, je kan wat extra pakketten installeren voor o.a. Docker, oVirt, Kubernetes, en het dashboard pakket laat je meerdere machines beheren vanuit dezelfde web interface, NetworkManager is ook een apart pakket dat misschien niet automatisch meegeinstalleerd is.
Doe even:
code:
1
2
3
dnf list cockpit*
of
apt list cockpit*

om te zien welke pakketten beschikbaar zijn.
Heb net apt remove cockpit en apt autoremove gedaan O-). Maar ik zal inderdaad met de volgend test even kijken wat er geïnstalleerd is aan packages.

Ben verder wat 2dehands hardware aan het verzamelen om met PVE te gaan spelen. Moet nog ergens
2x4GB RAM hebben liggen, een SSD en wat oude 2.5" schijven. Dat moet toch voldoende zijn om een kleine setup met PVE te maken en een Docker VM te starten en zo ervaring op te doen. Kan ik meteen testen hoe DietPi het als VM voor Docker doet :9~

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 13:16

Mattie112

3780wP (18x 210wP EC Solar)

A1AD schreef op zaterdag 30 december 2017 @ 11:17:
[...]


Crashplan heeft hier enkele jaren in een debian LXC gewerkt, ook met 1 mountpoint naar het host FS. Dus werken moet het :), mijn oplossing zou zijn: gooi diene rommel eraf en gebruik Duplicati :+
Tja dat is wel het toekomst plan (omdat CrashPlan gaat stoppen met de consumer versie) maar ik heb liever dat het weer even werkt tot ik genoeg tijd heb om duplicatie eens in te regelen (betreft ook laptops ouders + broer etc op een ander adres). Maar het is echt vreemd vraag me af of het niet een dingetje in CrashPlan is, alles zou moeten werken....

Deze ruimte is te huur!


Acties:
  • 0 Henk 'm!

  • Koffiebarbaar
  • Registratie: November 2016
  • Laatst online: 01-04-2020
Heeft iemand hier al eens een successvol migratietraject doorlopen van een proxmox 3 (OpenVZ containers) naar Proxmox 4 of 5 LXC containers? (CentOS 7)
Ik zit er nu mee te spelen omdat ik een PX3 installatie wil vervangen voor het courante 5 door een nieuw cluster te bouwen en alle KVM's en CT's te migereren.
In principe werkt het restoren van een OpenVZ container prima, mijn backup wordt netjes geconverteerd door PX en kan gewoon starten en er met putty bij als ik eenmaal een netwerk interface heb toegevoegd maar ik stuit dan toch op een paar rariteiten.

- Geen toegang tot de container via de ingebouwde console (noVNC noch de JS variant). Geeft aan dat login data niet juist is. (is het absoluut wel)
Console(s) werkt(en) wel met een "verse" LXC container.

Opgelost, moest pts/0 aan /etc/securetty toevoegen...

- Container is pingbaar, kan er in met Putty (dus ook inloggen), maar als ik browser based iets wil benaderen. (een Gitlab server in mijn testscenario) werkt het niet terwijl de services wel lopen.
Als ik gitlab (werkt standaard op poort 80) vervang voor bijvoorbeeld even een standaard apache werkt het ook niet.
Op een verse container werkt dit probleemloos.

- Ik moet soms rare toeren uithalen met static routes binnen containers om alles betrouwbaar te kunnen benaderen vanuit andere interne subnets tewijl de host gewoon alle routes kent omdat deze kijkt naar de gateway.
Die toeren bestaan dan uit het toevoegen van static routes naar de doos van de ISP waar al die subnets aan elkaar geknoopt worden en daarmee moet ik dus feitelijk onze gateway passeren in de container.
De container is vanuit het subnet waar de host in zit wel gewoon ten aller tijde te bereiken.
Dit ben ik vanuit proxmox 3 niet gewend.
Dit stukje gaat overigens ook op voor verse containers.

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Dat issue met de console komt me wel bekend voor (als in: ik ben er net achtergekomen). Met het netwerk heb ik echter geen problemen, zowel met gemigreerde als met nieuwe containers niet.

Acties:
  • 0 Henk 'm!

  • Sidiox
  • Registratie: November 2013
  • Laatst online: 08-03 12:33
Ik heb zojuist voor mijn homelab/nas proxmox geinstalleerd ter vervanging van mijn Windows Server 2012R2 installatie. Echter, mijn Windows PC's kunnen niet verbinden met de proxmox box. Pingen gaat prima. Maar SSH en gewoon https access krijgen een time out (TCP retransmission in wireshark). Ik heb geen idee waar dit aan kan liggen, vooral omdat een andere proxmox box die ik de dag ervoor heb neergegooid het wel prima doet. Vanaf al mijn linux boxjes kan ik overigens wel bij de proxmox box (ook via een VM op een windows machine....)

Ik heb geen enkel idee waar ik moet beginnen met zoeken, iemand enig idee?

Acties:
  • 0 Henk 'm!

  • Cilph
  • Registratie: April 2010
  • Laatst online: 22-04 07:55
Ik zit met een redelijk experimenteel probleem.

Ik heb Proxmox 5.1 draaiend op een Ryzen 1700x, met ASRock Taichi X370. Hierop wil ik een FreeNAS VM draaien. Mijn onboard SATA controller(s) heb ik geforward naar deze VM door:
1) IOMMU en AMD-Vi in te schakelen, en de kernel flag pcie_acs_override=downstream,multifunction toe te passen
2) De betreffende devices, AMD Serial ATA Controller, AMD FCH SATA Controller, ASMedia SATA Controller toe te kennen aan de Proxmox VM (machine: q35, hostpci0: <addressje>,pcie=1, hostpci1, hostpci2). Geen idee overigens waarom dit drie devices zijn ipv twee.
3) alle devices zijn stubbed en ahci is geblacklist.

Dit werkt allemaal. Ik kon in FreeNAS een pool aanmaken, en op native speeds files transferren en terug uitlezen.

...en toen herstarte ik de VM.

Schijven worden of herkend als 0-byte met missende metadata, of met hun correcte size en volledig corrupt.

Heeft iemand tips waar ik nog verder kan zoeken? Anders moet ik toch maar op zoek naar een LSI SAS dingetje.


Oplossing gevonden: geen memory ballooning gebruiken.

[ Voor 11% gewijzigd door Cilph op 11-01-2018 20:53 ]


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 05-05 23:36

Compizfox

Bait for wenchmarks

Weet iemand hoe je een gerepliceerde VM kunt opstarten op aan andere node als de node waar die normaal op draait down is?

Ik heb een 2-node cluster (zonder HA en zonder central storage) met replicatie aan voor alle VMs en containers. Er is nu één node down, en ik wil graag de VM die op die node draaide opstarten op de ander node (die nog up is). Dat zou moeten kunnen, want die VM had replicatie aanstaan.

Maar hoe? Ik kan de VM niet migreren omdat de node down is. Hoe wordt ik precies verwacht de VM nu op te starten op de node waar hij naartoe gerepliceerd is?



Ik heb nu ook geprobeerd om een nieuwe VM aan te maken, maar zelfs dat is niet mogelijk vanwege het gebrek aan quorum. Kan iemand mij uitleggen wat op deze manier het nut is van een 2-node cluster met replicatie? Zo heb je er toch totaal niks aan?

[ Voor 18% gewijzigd door Compizfox op 15-01-2018 13:43 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • savale
  • Registratie: Oktober 2000
  • Laatst online: 01:59
Iemand tips hoe je dit het beste kan opzetten met proxmox (aangezien dit nog gaat plaatsvinden):

ik heb een kleine i7 proxmox server met 32gb ram en een 2tb samsung 960 pro nvme m2 ssd, Op de eerste ~25gb partitie wil ik proxmox installeren. De rest wil ik gebruiken als opslag voor de GUEST os-en (het idee is dat die ext4 gebruiken). Standaard wordt daar LVM voor gebruikt als het goed is.

Nu wordt die 960 pro waarschijnlijk wel blij als ik TRIM gebruik, maar dat moet dan in het guest os gaan gebeuren lijkt me? Hoe kan ik dat het beste doen? Iemand ervaring hiermee?

edit:
als ik het goed begrijp is er een automatische TRIM functie in de host aanwezig. Eventueel kan ik discard op de guest drive aanzetten.
Ik snap het nog niet helemaal, want een TRIM moet toch altijd op een filesystem aangeroepen worden en niet op een drive?

[ Voor 18% gewijzigd door savale op 18-01-2018 15:26 ]


Acties:
  • 0 Henk 'm!

  • DarkFire1985
  • Registratie: September 2002
  • Laatst online: 18-02 07:51
Nadat gisteren mijn Linux Mint install opeens niets meer deed (mijn databases waren nog wel te benaderen maar verder niets meer, geen video, geen ping, etc.) besloot ik om de server eens te herstarten.
Na het herstarten kreeg ik alleen een zwart scherm met een blinkende cursor, ook wel een black screen of death.

Na wat herstelpogingen besloten om over te stappen naar Proxmox, of allicht een poging daartoe gedaan.
Al mijn eerdere VM's binnen Linux Mint (KVM) maakten gebruik van LVM. Deze heb ik zonder al teveel problemen kunnen koppelen aan VM's binnen Proxmox.

1 van mijn VM's start reeds goed op maar de andere loop ik tegen errors aan.
Ze willen niet booten en ik kom in de grub rescue.
code:
1
2
3
4
5
6
SeaBIOS (version rel-1.10.2-0-g5f4c7b1-prebuilt.qemu-project.org)
Machine UUID a949a77c-630c-4629-8376-e3e1290fdd66
Booting from Hard Disk...
error: file '/grub/i386-pc/normal.mod' not found.
Entering rescue mode...
grub rescue>


Mijn config:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
bootdisk: scsi0
cores: 1
cpu: SandyBridge
ide2: none,media=cdrom
memory: 512
name: Maggie
net0: virtio=F6:00:71:14:39:D7,bridge=vmbr0
numa: 0
ostype: l26
scsi0: vg0:vm-200-disk-1,size=30G
scsihw: virtio-scsi-pci
smbios1: uuid=a949a77c-630c-4629-8376-e3e1290fdd66
sockets: 1


Ik was in eerste instantie in de veronderstelling dat dit zou liggen aan mijn CPU instelling. Het staat mij bij dat ik destijds deze moest zetten op SandyBridge voordat hij werkte maar helaas heeft dit niet het gewenste effect.

Iemand enig idee waar dit nog verder aan zou kunnen liggen?

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Wellicht zou het aan het schijftype kunnen liggen? Nu is het voor mij een beetje gokken of dat anders is dan op jouw oude machine, maar zelf ben ik er vanavond achtergekomen dat virtuele machines van type schijf veranderen toch wat moeite kost.

Acties:
  • 0 Henk 'm!

  • DarkFire1985
  • Registratie: September 2002
  • Laatst online: 18-02 07:51
Het lijkt er ook op dat mijn etc en boot folders leeg zijn binnen die VM's.... Heel apart, alsof het een en ander corrupt is geraakt.

Ik heb in ieder de XML weer gevonden en dat inderdaad een andere HD.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
<domain type='kvm'>
  <name>Maggie</name>
  <uuid>c41c02c2-6911-0a98-3ba2-f355ef697432</uuid>
  <memory unit='KiB'>2097152</memory>
  <currentMemory unit='KiB'>2097152</currentMemory>
  <vcpu placement='static'>2</vcpu>
  <os>
    <type arch='x86_64' machine='pc-i440fx-trusty'>hvm</type>
    <boot dev='cdrom'/>
    <boot dev='hd'/>
  </os>
  <features>
    <acpi/>
    <apic/>
    <pae/>
  </features>
  <cpu mode='custom' match='exact'>
    <model fallback='allow'>SandyBridge</model>
    <vendor>Intel</vendor>
    <feature policy='require' name='vme'/>
    <feature policy='require' name='dtes64'/>
    <feature policy='require' name='vmx'/>
    <feature policy='require' name='erms'/>
    <feature policy='require' name='xtpr'/>
    <feature policy='require' name='smep'/>
    <feature policy='require' name='pcid'/>
    <feature policy='require' name='est'/>
    <feature policy='require' name='monitor'/>
    <feature policy='require' name='smx'/>
    <feature policy='require' name='tm'/>
    <feature policy='require' name='acpi'/>
    <feature policy='require' name='osxsave'/>
    <feature policy='require' name='ht'/>
    <feature policy='require' name='pdcm'/>
    <feature policy='require' name='fsgsbase'/>
    <feature policy='require' name='f16c'/>
    <feature policy='require' name='ds'/>
    <feature policy='require' name='tm2'/>
    <feature policy='require' name='ss'/>
    <feature policy='require' name='pbe'/>
    <feature policy='require' name='ds_cpl'/>
    <feature policy='require' name='rdrand'/>
  </cpu>
  <clock offset='utc'/>
  <on_poweroff>destroy</on_poweroff>
  <on_reboot>restart</on_reboot>
  <on_crash>restart</on_crash>
  <devices>
    <emulator>/usr/bin/qemu-system-x86_64</emulator>
    <disk type='block' device='disk'>
      <driver name='qemu' type='raw'/>
      <source dev='/dev/vg0/Maggie'/>
      <target dev='vda' bus='virtio'/>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x04' function='0x0'/>
    </disk>
    <disk type='file' device='cdrom'>
      <driver name='qemu' type='raw'/>
      <target dev='hdc' bus='ide'/>
      <readonly/>
      <address type='drive' controller='0' bus='1' target='0' unit='0'/>
    </disk>
    <controller type='usb' index='0'>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x2'/>
    </controller>
    <controller type='pci' index='0' model='pci-root'/>
    <controller type='ide' index='0'>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x01' function='0x1'/>
    </controller>
    <interface type='bridge'>
      <mac address='52:54:00:d1:72:22'/>
      <source bridge='br1'/>
      <model type='virtio'/>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x03' function='0x0'/>
    </interface>
    <serial type='pty'>
      <target port='0'/>
    </serial>
    <console type='pty'>
      <target type='serial' port='0'/>
    </console>
    <input type='mouse' bus='ps2'/>
    <input type='keyboard' bus='ps2'/>
    <graphics type='vnc' port='-1' autoport='yes'/>
    <video>
      <model type='cirrus' vram='9216' heads='1'/>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x0'/>
    </video>
    <memballoon model='virtio'>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x05' function='0x0'/>
    </memballoon>
  </devices>
</domain>


Even kijken of je die kan importeren in Proxmox

[ Voor 93% gewijzigd door DarkFire1985 op 21-01-2018 10:50 ]


Acties:
  • 0 Henk 'm!

Anoniem: 426395

Nadat mijn eerste proxmox projectje niet is doorgegaan wil ik een nieuwe poging gaan wagen. Ik wil een 2 node cluster bouwen. Ik wil hem zo klein mogelijk hebben als demo opstelling om functionaliteit te kunnen laten zien. Vandaar ook de NUC. Ik zat te denken aan een van onderstaande setups, maar ik kom er niet uit welke het best is wat betreft storage. :). Het enige wat er moet worden opgelost zijn de vm's, LXC Containers en een kleine hoeveel data (Tijdelijk tot dat het automatisch naar een NAS wordt verplaatst). Heb gekozen voor de i3 versie omdat er geen CPU hongerige applicaties op komen te draaien, Plex zal of en toe het meeste vragen, dat zal gaan om maximaal 1 transcoded stream.

#ProductPrijsSubtotaal
1Intel NUC NUC7i3BNK€ 239,-€ 239,-
1Crucial CT2K8G4SFS824A€ 146,60€ 146,60
1Samsung 960 EVO 500GB€ 207,30€ 207,30
Bekijk collectie
Importeer producten
Totaal€ 592,90


Of aan onderstaande met behulp van Ceph.
#ProductPrijsSubtotaal
1WD Red Mobile WD7500BFCX, 750GB€ 54,04€ 54,04
1Intel NUC NUC7i3BNH€ 240,75€ 240,75
1Crucial CT2K8G4SFS824A€ 146,60€ 146,60
1Intel 600p 128GB€ 59,-€ 59,-
Bekijk collectie
Importeer producten
Totaal€ 500,39

Acties:
  • 0 Henk 'm!

  • MewBie
  • Registratie: April 2002
  • Laatst online: 11:58
2 nodes wordt altijd afgeraden, het kan waarschijnlijk wel zonder problemen, maar voor demonstratie doeleinden is een nested cluster van 3 nodes op 1 node misschien een beter idee.

Please leave a message after the beep.
*beeeeep*


Acties:
  • 0 Henk 'm!

Anoniem: 426395

3 nodes is ook mogelijk. Denk dat die met 2 disken de beste keuze is?

Acties:
  • 0 Henk 'm!

  • MewBie
  • Registratie: April 2002
  • Laatst online: 11:58
Niet absoluut noodzakelijk, maar het maakt het wel zo makkelijk als je met bijvoorbeeld Ceph wilt testen.

Please leave a message after the beep.
*beeeeep*


Acties:
  • 0 Henk 'm!

  • Mneder
  • Registratie: November 2017
  • Laatst online: 30-12-2022
Ben op zoek naar een eenvoudige how voor het instaleren van een proxmox NAS waar ik ook een paar VMs op kwijt kan. Nu kwam ik dit tegen, is dat iets en nog actueel?

Acties:
  • 0 Henk 'm!

  • MewBie
  • Registratie: April 2002
  • Laatst online: 11:58
Proxmox is geen NAS, Proxmox is een hypervisor. Je ziet het dus verkeerd om, met Proxmox heb je een hypervisor waar je eventueel ook een NAS VM op kunt draaien.

Please leave a message after the beep.
*beeeeep*


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

Mneder schreef op donderdag 22 maart 2018 @ 19:38:
Ben op zoek naar een eenvoudige how voor het instaleren van een proxmox NAS waar ik ook een paar VMs op kwijt kan. Nu kwam ik dit tegen, is dat iets en nog actueel?
Ik denk dat je wat zaken door elkaar haalt.
Proxmox VE is een hypervisor, geen NAS.

Het is *sterk* af te raden om je hypervisor als NAS te gebruiken. Het kan (onder water is het gewoon debian) maar het is niet wat je wil. Als je NAS functionaliteit op Proxmox VE wilt gebruiken, installeer dan een vm met NAS software als FreeNAS.

Ik word overigens niet heel enthousiast van die howto. Maar misschien ligt dat aan de rare rode letters en andere ellende. Ik snap ook niet goed waarom 'ie nadat PVE is geïnstalleerd, nog eens een losse zpool aan wil maken. (Daarbij verteld 'ie niet of een mirrored-stripe of raidz-1 of raidz-2 aan maakt.)

Hij verteld dus letterlijk dat je Samba op je machine moet installeren. Technisch kan het en zal het werken, maar hou alsjeblieft je hypervisor clean en zet er geen spullen op anders dan vm's en containers.

Persoonlijk zou ik beginnen bij de PVE Wiki en die installer volgen, maar wel eerst op een testsysteem om er vertrouwd mee te raken. Eerst even flink mee prutsen, wellicht wat vragen in het PVE IRC kanaal (let op, ze zijn daar soms wat nukkig), systeem goed leren kennen en pas later in productie nemen.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Dutch2007
  • Registratie: September 2005
  • Laatst online: 29-01-2024
Idd, gewoon een LXC, contrainer maken voor je storage, elke "service" als een VM danwel LXC

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

Dutch2007 schreef op vrijdag 23 maart 2018 @ 13:26:
Idd, gewoon een LXC, contrainer maken voor je storage, elke "service" als een VM danwel LXC
LXC vind ik nog erg beperkt in zijn mogelijkheden.
Reguliere vm is veel flexibeler.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Mneder
  • Registratie: November 2017
  • Laatst online: 30-12-2022
Ok bedankt. Dus eerst pve installeren en daarna een VM voor nas. Is het verstandig om pve op ssd te instaleren en dat ik dan de hdd deels gebruik voor nas? Of partitioneer je tijdens de instalatie welk deel voor pve is en welk deel beschikbaar is andere zaken (zoals vm met nas).
Is het verstandig om zfs te gebruiken In combinatie met een vm met FreeNAS?
Mooie is ik heb nog geen systeem dus kan dingen kopen voor de juiste configuratie.

[ Voor 10% gewijzigd door Mneder op 23-03-2018 17:33 ]


Acties:
  • 0 Henk 'm!

  • Koffiebarbaar
  • Registratie: November 2016
  • Laatst online: 01-04-2020
Ton Deuse schreef op woensdag 3 januari 2018 @ 15:04:
Heeft iemand hier al eens een successvol migratietraject doorlopen van een proxmox 3 (OpenVZ containers) naar Proxmox 4 of 5 LXC containers? (CentOS 7)
Ik zit er nu mee te spelen omdat ik een PX3 installatie wil vervangen voor het courante 5 door een nieuw cluster te bouwen en alle KVM's en CT's te migereren.
In principe werkt het restoren van een OpenVZ container prima, mijn backup wordt netjes geconverteerd door PX en kan gewoon starten en er met putty bij als ik eenmaal een netwerk interface heb toegevoegd maar ik stuit dan toch op een paar rariteiten.

- Geen toegang tot de container via de ingebouwde console (noVNC noch de JS variant). Geeft aan dat login data niet juist is. (is het absoluut wel)
Console(s) werkt(en) wel met een "verse" LXC container.

Opgelost, moest pts/0 aan /etc/securetty toevoegen...

- Container is pingbaar, kan er in met Putty (dus ook inloggen), maar als ik browser based iets wil benaderen. (een Gitlab server in mijn testscenario) werkt het niet terwijl de services wel lopen.
Als ik gitlab (werkt standaard op poort 80) vervang voor bijvoorbeeld even een standaard apache werkt het ook niet.
Op een verse container werkt dit probleemloos.

- Ik moet soms rare toeren uithalen met static routes binnen containers om alles betrouwbaar te kunnen benaderen vanuit andere interne subnets tewijl de host gewoon alle routes kent omdat deze kijkt naar de gateway.
Die toeren bestaan dan uit het toevoegen van static routes naar de doos van de ISP waar al die subnets aan elkaar geknoopt worden en daarmee moet ik dus feitelijk onze gateway passeren in de container.
De container is vanuit het subnet waar de host in zit wel gewoon ten aller tijde te bereiken.
Dit ben ik vanuit proxmox 3 niet gewend.
Dit stukje gaat overigens ook op voor verse containers.
toon volledige bericht
Ik heb netwerkissues uiteindelijk opgelost door een beetje met de botte bijl alles waar ik venet in zag staan onder sysconfig, (met name in networking) samen met iptabels files, overboord te zetten en een route file toe te voegen voor de interface...
Die route file op elke container ben ik het nog niet helemaal mee eens omdat de host de routes voor de subnets gewoon kent, maar het werkt...
Wel een beetje karig dat dit dus gewoon bijt blijkbaar, wij doen niets raars op configuratievlak.
unezra schreef op vrijdag 23 maart 2018 @ 13:34:
[...]


LXC vind ik nog erg beperkt in zijn mogelijkheden.
Reguliere vm is veel flexibeler.
Waar loop je met LXC/containers zoal tegenaan dan? Ik heb persoonlijk nog maar weinig redenen gevonden een echte KVM te voeren.

[ Voor 8% gewijzigd door Koffiebarbaar op 23-03-2018 18:06 ]


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 24-04 08:49

unezra

Ceci n'est pas un sous-titre.

Mneder schreef op vrijdag 23 maart 2018 @ 17:28:
Ok bedankt. Dus eerst pve installeren en daarna een VM voor nas. Is het verstandig om pve op ssd te instaleren en dat ik dan de hdd deels gebruik voor nas? Of partitioneer je tijdens de instalatie welk deel voor pve is en welk deel beschikbaar is andere zaken (zoals vm met nas).
Is het verstandig om zfs te gebruiken In combinatie met een vm met FreeNAS?
Mooie is ik heb nog geen systeem dus kan dingen kopen voor de juiste configuratie.
SSD is geen noodzaak. Wat je kunt doen is een HP Microserver met 4 HDD's kopen, daarop PVE installeren met ZFS in een striped mirror (RAID-10 equivalent) en dan je NAS in een VM ergens op die disks. PVE staat dus op dezelfde disks als je vm's. Kan prima.

ZFS is wél heel leuk en interessant en zou ik zeker voor gaan. Zet dan wel 16G (Gen8) of 32G (Gen10) in je Microserver, zeker als je van plan bent meerdere vm's te installeren. Als je weinig vm's gaat draaien is 16G zat. (Ook in een Gen10.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Alles wat ik containers kan zou ik in containers doen. Het scheelt aardig in geheugengebruik en ook in CPU-cycles. Ik heb zelf jaren mn NAS-functionaliteit in een VM gedraaid, en het is een verademing nu ik dat eens heb omgezet naar een container (waarbij Proxmox nu ZFS regelt in plaats van de VM). Voor NAS-functionaliteit heeft Turnkey een template, en wat ik daar van heb meegekregen* is dat dat wel aardig lijkt te werken.

* Ik had dat aangeraden aan een huisgenoot die zijn NAS op basis van Proxmox gebouwd heeft, waar niet alleen opslag maar ook virtualisatie handig leek. Zelf regel ik NAS-functionaliteit in een container die ik zelf ingericht heb, maar dat heeft een wat steilere leercurve

Acties:
  • 0 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 01-05 21:14
Ik ben nu een weekje met proxmox aan het testen heb een nieuwe SSD erin gezet als bootdisk en er staan wat kleine VM's op.(ubuntu domoticz pi-hole owncloud/nextcloud.
Heb een 2 disk mirror zfs pool waar de grote opslag op staat, NAS functie d.m.v een turnkey file server wat overigens uitstekend werkt (tot nu toe :*) )
Nu merk ik dat na een week de SSD smart value wearout al op 1% staat.
Is dit normaal of kan ik hier iets aan doen?

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 08-04 00:21
dcm360 schreef op vrijdag 23 maart 2018 @ 20:10:
Alles wat ik containers kan zou ik in containers doen. Het scheelt aardig in geheugengebruik en ook in CPU-cycles. Ik heb zelf jaren mn NAS-functionaliteit in een VM gedraaid, en het is een verademing nu ik dat eens heb omgezet naar een container (waarbij Proxmox nu ZFS regelt in plaats van de VM). Voor NAS-functionaliteit heeft Turnkey een template, en wat ik daar van heb meegekregen* is dat dat wel aardig lijkt te werken.

* Ik had dat aangeraden aan een huisgenoot die zijn NAS op basis van Proxmox gebouwd heeft, waar niet alleen opslag maar ook virtualisatie handig leek. Zelf regel ik NAS-functionaliteit in een container die ik zelf ingericht heb, maar dat heeft een wat steilere leercurve
Same here d:)b

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • Dutch2007
  • Registratie: September 2005
  • Laatst online: 29-01-2024
dcm360 schreef op vrijdag 23 maart 2018 @ 20:10:
Alles wat ik containers kan zou ik in containers doen. Het scheelt aardig in geheugengebruik en ook in CPU-cycles. Ik heb zelf jaren mn NAS-functionaliteit in een VM gedraaid, en het is een verademing nu ik dat eens heb omgezet naar een container (waarbij Proxmox nu ZFS regelt in plaats van de VM). Voor NAS-functionaliteit heeft Turnkey een template, en wat ik daar van heb meegekregen* is dat dat wel aardig lijkt te werken.

* Ik had dat aangeraden aan een huisgenoot die zijn NAS op basis van Proxmox gebouwd heeft, waar niet alleen opslag maar ook virtualisatie handig leek. Zelf regel ik NAS-functionaliteit in een container die ik zelf ingericht heb, maar dat heeft een wat steilere leercurve
Terwijl het niet zooooooo lastig is :P

1) download de template van distro die je wil (ik debian9/ubuntu16.04)
2) maak de LXC container aan
3) ga naar /etc/pve/nodes/"servernaam"/lxc (via bijv filezilla)
4) zet er 1 extra regel in

code:
1
mp0: /storage1,mp=/mnt/mp0


Dan maak je op de LXC container een koppeling tussen de LXC container en de PVE Host

@host /storage1 (mount locatie)
@LXC100 (standaard naam 1e LXC host) /mnt/mp0


Herhaal dit voor evt je download tool sabnzb/nzbget en je tooltjes zoals bijv sonarr/radarr and the likes and its working ;)

oh well :P

Totaal ziet dat Conf file er dan als volgt uit

code:
1
2
3
4
5
6
7
8
9
10
arch: amd64
cores: 2
hostname: lxc-server-naam-eigen-voorkeur
memory: 1024
mp0: /storage1,mp=/mnt/mp0
net0: name=eth0,bridge=vmbr0,firewall=1,hwaddr=AA:BB:CC:DD:EE:FF,ip=dhcp,ip6=auto,type=veth
onboot: 1
ostype: ubuntu
rootfs: local-lvm:vm-100-disk-1,size=8G
swap: 512

[ Voor 10% gewijzigd door Dutch2007 op 24-03-2018 01:55 ]

Pagina: 1 ... 4 ... 57 Laatste