Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 25-06 12:52
MvL schreef op zaterdag 31 december 2016 @ 17:47:
Als jullie ZFS gebruiken hoe delen jullie dit via het netwerk? Gebruiken jullie hiervoor NAS software in een VM?

Dan kom ik op het volgende ik lees hier dat mensen XPenology gebruiken. Wat zijn de ervaringen hiermee? Heeft iemand eventueel een how-to. Ik denk dat ik ook eens hiermee ga spelen.

Edit: Ik lees ook dat iemand MacOS(Server)? gebruikt in een VM. Wat zijn hier de ervaringen mee? Is dit makkelijk te installeren?
Zoals al enkele keren gezegd hier: host ZFS gebind Mount naar een lxc container waar SAMBA op staat.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • wilmardo
  • Registratie: Februari 2011
  • Laatst online: 25-06 16:58
MvL schreef op zaterdag 31 december 2016 @ 17:47:
Dan kom ik op het volgende ik lees hier dat mensen XPenology gebruiken. Wat zijn de ervaringen hiermee? Heeft iemand eventueel een how-to. Ik denk dat ik ook eens hiermee ga spelen.
Ik heb XPenology al een tijdje al VM draaien vooral uit gemak, veel van de functies zijn ook met een Linux VM te realiseren maar XPenology maakt het lekker makkelijk. Een paar van mijn persoonlijke voordelen van XPenology:
  • Veel packages beschikbaar (Sonarr, Couchpotato, Python, Mailserver, Webserver noem maar op)
  • Mooie webinterface met goede file explorer
  • Foolproof filesharing met link naar downloadpage met wachtwoord
  • Makkelijk management in een webinterface
  • Vraagt niet veel resources
Probeer het gewoon eens zou ik zeggen, installatiebestanden staan hier en de installatie is zo simpel als booten van de iso/img, gedownloade PAT bestand ingeven in de webinterface en klaar is kees (meestal dan, gelukkig staat xpenology.com vol met info voor wanneer het misgaat)
unezra schreef op zaterdag 31 december 2016 @ 18:41:
[...]
Volgens mij zijn er nogal wat twijfels over de legaliteit van XPenology. In mijn beleving is het een smerige vieze semi-legale hack en zijn er betere oplossingen die WEL volledig OSS zijn.
Naar wat ik heb begrepen heeft Synology de software uitgebracht onder de GPL 2.0 licentie en moeten daarom de source releasen. Het XPenology team voegt ondersteuning voor andere hardware toe aan deze source en released het als XPenology. Nu ben ik geen rechtsgeleerde maar heel vies of smerig is het volgens mij niet.
Even de laatste officieuze DSM6 ports buiten beschouwing gelaten in het bovenstaande en uitgaande van de officiële releases. Synology weigerde de source te openbaren tot ver na de release van DSM6 linkje waardoor er gekraakte loaders zijn gemaakt. Maar de laatste officiële release is nog steeds 5.2-5967.1

Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 23:07
Ik wil VLAN's gaan gebruiken met Proxmox 4.2 (ja ja ik moet nog upgraden :+ )
en heb de volgende tutorial gebruikt echter zie ik bij device type "Unknown"

Hebben jullie dat ook ?

https://pve.proxmox.com/wiki/Vlans

Afbeeldingslocatie: https://nextcloud.bitfinity.nl/index.php/s/UymwoFGLWRMNpZu/download

Acties:
  • 0 Henk 'm!

  • wilmardo
  • Registratie: Februari 2011
  • Laatst online: 25-06 16:58
Is het mogelijk om een cluster aan te maken met twee compleet verschillende nodes? Ik heb nieuw servertje voor erbij met het idee om daar pfSense op te gaan draaien. Maar ik zou ook Proxmox kunnen installeren met pfSense gevirtualiseerd. Met het idee dat wanneer ik mijn 'hoofd' server even moet uitzetten, ik de belangrijke LXC/VM's even over naar servertje zet zodat ik op mijn gemak er dingen aan kan doen.
Net even wat geprobeerd maar Proxmox maakt op de nieuwe node direct dezelfde storage config aan als op de al bestaande host terwijl deze in mijn geval compleet anders is. Hierdoor faalt de migratie omdat Proxmox op de nieuwe node op zoek gaat naar een storage die niet bestaat (stale is).

Ik snap dat dit niet helemaal het idee is van een HA dus misschien werken twee losse Proxmox installaties beter?
Iemand hier nog een goed idee hoe ik dat kan aanpakken of wil ik iets dat eigenlijk niet kan? :)

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

wilmardo schreef op maandag 2 januari 2017 @ 23:24:
Is het mogelijk om een cluster aan te maken met twee compleet verschillende nodes?
Zou in mijn beleving gewoon moeten werken. Zelf nog niet geprobeerd, wel iets dat ik in de toekomst wil gaan proberen. (Ik ben op zoek naar een goedkope single-board-computer ter uitbereiding van mijn cluster, die los van het feit dat het een x86 machine moet worden, nogal af gaat wijken van de Microservers die ik voor mijn huidige cluster gebruik.)
Ik heb nieuw servertje voor erbij met het idee om daar pfSense op te gaan draaien. Maar ik zou ook Proxmox kunnen installeren met pfSense gevirtualiseerd. Met het idee dat wanneer ik mijn 'hoofd' server even moet uitzetten, ik de belangrijke LXC/VM's even over naar servertje zet zodat ik op mijn gemak er dingen aan kan doen.
Net even wat geprobeerd maar Proxmox maakt op de nieuwe node direct dezelfde storage config aan als op de al bestaande host terwijl deze in mijn geval compleet anders is. Hierdoor faalt de migratie omdat Proxmox op de nieuwe node op zoek gaat naar een storage die niet bestaat (stale is).
Is je storage decentraal of centraal?
Ofwel, staan je vm's lokaal of op een NAS?

Handmatige migratie zou volgens mij wel moeten lukken, als je niet je vm's koud migreert maar ook meteen naar een lokaal aanwezige storage. Ik dacht dat dat tijdens migratie kon, mits je het dus aan geeft.

Maakt 'ie die storage echt aan, of gaat 'ie er gewoon vanuit dat die storage van je 1e node overal in het cluster aanwezig is? As in, als 'ie 'm aan maakt, dan zou het dus juist WEL moeten lukken maar volgens mij doet 'ie dat niet.
Ik snap dat dit niet helemaal het idee is van een HA dus misschien werken twee losse Proxmox installaties beter?
Iemand hier nog een goed idee hoe ik dat kan aanpakken of wil ik iets dat eigenlijk niet kan? :)
Cluster moet sowieso wel kunnen, maar wil je automatische failover moet je met centrale storage werken of met GlusterFS. (Dat laatste is theorie, ik heb het nog niet in de praktijk gebracht. Wil ik dit jaar op kantoor en thuis in test wel doen.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • wilmardo
  • Registratie: Februari 2011
  • Laatst online: 25-06 16:58
unezra schreef op dinsdag 3 januari 2017 @ 08:31:
Is je storage decentraal of centraal?
Ofwel, staan je vm's lokaal of op een NAS?
Storage van de VM's is lokaal.
unezra schreef op dinsdag 3 januari 2017 @ 08:31:
Handmatige migratie zou volgens mij wel moeten lukken, als je niet je vm's koud migreert maar ook meteen naar een lokaal aanwezige storage. Ik dacht dat dat tijdens migratie kon, mits je het dus aan geeft.

Maakt 'ie die storage echt aan, of gaat 'ie er gewoon vanuit dat die storage van je 1e node overal in het cluster aanwezig is? As in, als 'ie 'm aan maakt, dan zou het dus juist WEL moeten lukken maar volgens mij doet 'ie dat niet.
Afbeeldingslocatie: https://api.monosnap.com/rpc/file/download?id=v9Ve4F55t5L8xUzzRVkkCruL9ZI6VO
Dit is de situatie direct na het toevoegen aan het cluster, Proxmox heeft de volumes van de eerste node overgenomen terwijl op de node router alleen het volume local fysiek aanwezig is. Hij gaat er dus vanuit dat een volume op node1 ook aanwezig moet zijn op node2.

Wat bedoel je met handmatige migratie? Als ik op de GUI kijk kan ik alleen een node selecteren, geen volume:
Afbeeldingslocatie: https://api.monosnap.com/rpc/file/download?id=0g2KcB11DsigBR0NYJOOFCnivCuq1d

En wanneer ik dat probeer faalt het omdat het volume stale is op de router node
Afbeeldingslocatie: https://api.monosnap.com/rpc/file/download?id=wCug1jZejqb9u2U8xOTpKnm4LySFgO

Als er bij de migratie nu een disk op de target node kan worden aangegeven zou ik er al zijn. Ik dacht ook nog aan move disk maar deze kan alleen moven binnen de node.
unezra schreef op dinsdag 3 januari 2017 @ 08:31:
[...]
Cluster moet sowieso wel kunnen, maar wil je automatische failover moet je met centrale storage werken of met GlusterFS. (Dat laatste is theorie, ik heb het nog niet in de praktijk gebracht. Wil ik dit jaar op kantoor en thuis in test wel doen.)
Automatische failover hoeft niet, het is puur dat ik even mijn VM's naar een andere machine kan verplaatsen als ik de server even uit moet zetten.

Is wat ik wil alleen mogelijk met decentrale storage?

Acties:
  • +1 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 23:07
powerboat schreef op maandag 2 januari 2017 @ 22:19:
Ik wil VLAN's gaan gebruiken met Proxmox 4.2 (ja ja ik moet nog upgraden :+ )
en heb de volgende tutorial gebruikt echter zie ik bij device type "Unknown"

Hebben jullie dat ook ?

https://pve.proxmox.com/wiki/Vlans

[afbeelding]
Probleem is gefixed, voor degene die het wil weten ;)

https://forum.proxmox.com/threads/vlan-unknown-device.31621/

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

wilmardo schreef op dinsdag 3 januari 2017 @ 17:03:
[... knip ...]
Automatische failover hoeft niet, het is puur dat ik even mijn VM's naar een andere machine kan verplaatsen als ik de server even uit moet zetten.

Is wat ik wil alleen mogelijk met decentrale storage?
Sorry dat ik wat laat reageer wilmardo, ik wilde even goed begrijpen wat je nu bedoelt en de mogelijkheid hebben het op mijn eigen cluster uit te testen. :)

Inmiddels mijn cluster ook geupgrade naar de laatste versie (zojuist), zodat we niet over 2 verschillende versies zitten te kletsen.

Wat denk ik de oplossing van jouw probleem is, is op beide systemen een storage aan te maken die hetzelfde lokale pad heeft. Het maakt dan niet uit wat er precies onder ligt en of je op de ene 1T en op de andere 10T aan ruimte hebt, zolang je maar in beide gevallen bijvoorbeeld iets hebt als "/hierstaanmijnvms"

Als dat nu niet zo is, kun je die storage aanmaken en daar met "move disk" je vm heen verplaatsen (dat kan live).

Ben dat as we speak aan het testen
- ik heb een storage aangemaakt "teststorage"
- directory "/var/lib/vz/test" (dit is een lokale directory)
- testvm d'r heen gemoved van mijn centrale storage (move disk)
- op node kobold gezet
- migrate naar node volta

10,739,318,784 100% 99.59MB/s 0:01:42 (xfr#1, to-chk=0/1)
Jan 05 14:33:32 migration finished successfully (duration 00:01:44)
TASK OK


Ik zie inderdaad dat hij bij het aanmaken van storage dat meteen beschikbaar stelt voor het hele cluster, maar logisch dat als je onderliggende configuratie totaal anders is, dat niet goed werkt.

De truuk hier is dus zorgen dat het *pad* van je storage over je hele cluster gelijk is en dat kan gewoon. :)

Ben je hiermee geholpen?

EDIT:
Ook nog even geprobeerd met een migrate terwijl de vm aan staat met local storage, DAT borked idd.

Jan 05 14:38:59 starting migration of VM 108 to node 'volta' (192.168.10.1)
Jan 05 14:38:59 copying disk images
Jan 05 14:38:59 found local disk 'teststorage:108/vm-108-disk-1.qcow2' (in current VM config)
Jan 05 14:38:59 ERROR: Failed to sync data - can't do online migration - VM uses local disks
Jan 05 14:38:59 aborting phase 1 - cleanup resources
Jan 05 14:38:59 ERROR: migration aborted (duration 00:00:01): Failed to sync data - can't do online migration - VM uses local disks
TASK ERROR: migration aborted


Machine geshut:
Jan 05 14:42:02 starting migration of VM 108 to node 'volta' (192.168.10.1)
Jan 05 14:42:02 copying disk images
Jan 05 14:42:02 found local disk 'teststorage:108/vm-108-disk-1.qcow2' (in current VM config)
vm-108-disk-1.qcow2

 32,768 0% 0.00kB/s 0:00:00
83,492,864 0% 79.59MB/s 0:10:57
177,831,936 0% 84.70MB/s 0:10:17
290,226,176 0% 92.19MB/s 0:09:25 


Kortom, kan, maar dus niet met een levende (online) machine. Daar heb je shared storage voor nodig.

[ Voor 24% gewijzigd door unezra op 05-01-2017 14:43 . Reden: Verhaal over live migrage op local storage toegevoegd ]

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • wilmardo
  • Registratie: Februari 2011
  • Laatst online: 25-06 16:58
unezra schreef op donderdag 5 januari 2017 @ 14:38:
[...]


Sorry dat ik wat laat reageer wilmardo, ik wilde even goed begrijpen wat je nu bedoelt en de mogelijkheid hebben het op mijn eigen cluster uit te testen. :)

Inmiddels mijn cluster ook geupgrade naar de laatste versie (zojuist), zodat we niet over 2 verschillende versies zitten te kletsen.

Wat denk ik de oplossing van jouw probleem is, is op beide systemen een storage aan te maken die hetzelfde lokale pad heeft. Het maakt dan niet uit wat er precies onder ligt en of je op de ene 1T en op de andere 10T aan ruimte hebt, zolang je maar in beide gevallen bijvoorbeeld iets hebt als "/hierstaanmijnvms"

Als dat nu niet zo is, kun je die storage aanmaken en daar met "move disk" je vm heen verplaatsen (dat kan live).

Ben dat as we speak aan het testen
- ik heb een storage aangemaakt "teststorage"
- directory "/var/lib/vz/test" (dit is een lokale directory)
- testvm d'r heen gemoved van mijn centrale storage (move disk)
- op node kobold gezet
- migrate naar node volta

10,739,318,784 100% 99.59MB/s 0:01:42 (xfr#1, to-chk=0/1)
Jan 05 14:33:32 migration finished successfully (duration 00:01:44)
TASK OK


Ik zie inderdaad dat hij bij het aanmaken van storage dat meteen beschikbaar stelt voor het hele cluster, maar logisch dat als je onderliggende configuratie totaal anders is, dat niet goed werkt.

De truuk hier is dus zorgen dat het *pad* van je storage over je hele cluster gelijk is en dat kan gewoon. :)

Ben je hiermee geholpen?

EDIT:
Ook nog even geprobeerd met een migrate terwijl de vm aan staat met local storage, DAT borked idd.

Jan 05 14:38:59 starting migration of VM 108 to node 'volta' (192.168.10.1)
Jan 05 14:38:59 copying disk images
Jan 05 14:38:59 found local disk 'teststorage:108/vm-108-disk-1.qcow2' (in current VM config)
Jan 05 14:38:59 ERROR: Failed to sync data - can't do online migration - VM uses local disks
Jan 05 14:38:59 aborting phase 1 - cleanup resources
Jan 05 14:38:59 ERROR: migration aborted (duration 00:00:01): Failed to sync data - can't do online migration - VM uses local disks
TASK ERROR: migration aborted


Machine geshut:
Jan 05 14:42:02 starting migration of VM 108 to node 'volta' (192.168.10.1)
Jan 05 14:42:02 copying disk images
Jan 05 14:42:02 found local disk 'teststorage:108/vm-108-disk-1.qcow2' (in current VM config)
vm-108-disk-1.qcow2

 32,768 0% 0.00kB/s 0:00:00
83,492,864 0% 79.59MB/s 0:10:57
177,831,936 0% 84.70MB/s 0:10:17
290,226,176 0% 92.19MB/s 0:09:25 


Kortom, kan, maar dus niet met een levende (online) machine. Daar heb je shared storage voor nodig.
toon volledige bericht
Wow super bedankt dit is meer informatie dan ik had kunnen hopen! _/-\o_
Ik ga er binnenkort eens tijd voor maken alles uit te zoeken en in te delen en dan report ik mijn bevinden hier :)

Even een ander vraagje hoe heeft iedereen hier zijn opslag geregeld? Ik zie veel verschillende configs in het topic. Ik ben zelf aan het oriënteren op ZFS maar ik weet niet heel goed wat ik met mijn pools moet doen. Ik wil goede performance voor mijn VM's en LXC containers en veel opslag voor mijn NAS dus ik heb het onderstaande uitgedacht:

2x 64GB SSD voor het OS in mirror
3x 120GB RAIDZ1 voor VM's en LXC containers
3x 2TB RAIDZ1 voor de VM's met veel data en mijn belangrijke NAS opslag
2x 4TB striped voor media waar ik vooral veel opslag voor wil en het niet zo'n ramp is als een deel weg is

Wat denken jullie hiervan? Ik heb bewust gekozen Proxmox op losse ssd's te zetten omdat de ZFS pools dan los staan van het OS en eventueel migreren dan eenvoudiger is(?).

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

wilmardo schreef op maandag 9 januari 2017 @ 22:38:
[...]
Wow super bedankt dit is meer informatie dan ik had kunnen hopen! _/-\o_
Ik ga er binnenkort eens tijd voor maken alles uit te zoeken en in te delen en dan report ik mijn bevinden hier :)
Graag gedaan. :)
Op mijn beurt vond ik het ook leuk om dit juist even uit te testen thuis, leer daar ook weer van. Topic stond ook nog gemarkeerd als "moet ik nog op reageren" maar het was even zoeken naar het moment om de boel te upgraden.
Even een ander vraagje hoe heeft iedereen hier zijn opslag geregeld? Ik zie veel verschillende configs in het topic. Ik ben zelf aan het oriënteren op ZFS maar ik weet niet heel goed wat ik met mijn pools moet doen. Ik wil goede performance voor mijn VM's en LXC containers en veel opslag voor mijn NAS dus ik heb het onderstaande uitgedacht:

2x 64GB SSD voor het OS in mirror
3x 120GB RAIDZ1 voor VM's en LXC containers
3x 2TB RAIDZ1 voor de VM's met veel data en mijn belangrijke NAS opslag
2x 4TB striped voor media waar ik vooral veel opslag voor wil en het niet zo'n ramp is als een deel weg is

Wat denken jullie hiervan? Ik heb bewust gekozen Proxmox op losse ssd's te zetten omdat de ZFS pools dan los staan van het OS en eventueel migreren dan eenvoudiger is(?).
Ik heb zelf heel bewust gekozen geen RAIDZ1 te gebruiken omdat het eigenlijk als enkel voordeel oplevert dat het net iets goedkoper is dan mirrors of striped mirrors, terwijl het verder geen voordelen oplevert.

Ik heb 2 setups, 1 thuis en 1 voor mijn stichting. (Zie .sig)

Thuis
  • 2x Proxmox VE op een HP Microserver met 1x SSD
Op die SSD draai ik nu nog 1 LXC machine, dat worden er later ws meerdere en mogelijk komt er een volwaardige VM bij.
  • 1x FreeNAS als centrale storage op een HP Microserver
  • 1x 64G USB stick voor het OS
  • 4x 5T in ZFS striped mirror voor alle data (VM's via NFS ontsloten, ISO's ook via NFS ontsloten, SMB voor de rest van mijn data)
Geen caching. Is later wel toe te voegen, maar dan moet ik erg creatief 1 of 2 SSD's bij gaan plaatsen die ik partitioneer zodat ik zowel een stripe kan aanmaken voor de read caching als een mirror voor de write caching. (Normaliter gebruik je daar 4 disks voor, 2x stripe voor read caching, 2x mirror voor write caching.)

Stichting
  • 1x Promox VE op een HP P4500G2 LeftHand (DL180G6)
  • 2x SSD in mirror voor het OS en de ISO's
  • 4x 5T in ZFS striped mirror voor alle vm's
In dat chassis hebben we nog 6 drivebays over, die zijn expres nog niet gevuld. Afhankelijk van wat de volgende bottleneck gaat zijn (storage of performance) kunnen daar extra spindles bij (extra storage en performance) of SSD's (performance). Het kan ook zijn dat we een PCIx kaart plaatsen met 2x m.2 SATA of iets vergelijkbaars (NVMe) om daar caching op te doen. Dat vanwege snelheid (ik heb maar een enkele multilane SAS cable naar mijn backplane toe) en het feit dat we op die manier geen drivebays hoeven op te offeren aan caching. Afhankelijk van de noodzaak gaan we read caching, write caching, of allebei doen.


Stripes
Met 4 disks in ZFS stripe, ben je *al* je data kwijt als er 1 disk klapt. Het is geen JBOD. Stripe zou ik echt nooit inzetten, enkel gecombineerd met mirror. (Dus een mirrored stripe, RAID-10 equivalent.)

Caching
Ze raden eigenlijk altijd aan pas met caching te beginnen als je weet wat voor caching je nodig hebt. Heb je het niet nodig, is het zinloos d'r in te investeren. Extra performance is natuurlijk fijn, maar het is hetzelfde als met netwerken. Als je op piekmomenten maar 800Mbit/s verstookt is het onzin om 10Gbit kaarten en switches aan te schaffen. Dat is waarom we met de stichting dus nog niet aan caching doen, het is niet nodig en pas als we denken dat het wel nodig is, gaan we meten en dan bepalen we welke vormen van caching en op welke manier. :) (Het is ook een budgettaire overweging trouwens. Caching kost geld en dat wil ik / willen we pas uitgeven als de baten tegen de kosten op gaan wegen of er dwingende redenen zijn. Thuis verwacht ik dat niet zo snel en is het vooral leuk voor de heb, voor het experiment. Stichting is een ander verhaal, daar zie ik het nog wel gebeuren dat caching nodig gaat zijn om nog de performance te kunnen leveren die we redelijk vinden / er verwacht word.)

Rest van het verhaal
Genoeg gedachten ook hier d'r over, maar het begint laat te worden. :)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Yarisken
  • Registratie: Augustus 2010
  • Laatst online: 00:33
Ik ben ook aan het kijken naar proxmox en ik heb nog een vraagje ivm lxc containers.
Dus zo'n lxc container kan je vergelijken met docker. Zo'n lxc container maakt dan gebruik van je onderliggende HOST ( voor proxmox debian ) en gebruikt dan een soort van paravirtualisatie om rechtstreeks je hardware aan te spreken.
Klopt dit een beetje :-).

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 25-06 12:52
Yarisken schreef op woensdag 25 januari 2017 @ 21:29:
Ik ben ook aan het kijken naar proxmox en ik heb nog een vraagje ivm lxc containers.
Dus zo'n lxc container kan je vergelijken met docker. Zo'n lxc container maakt dan gebruik van je onderliggende HOST ( voor proxmox debian ) en gebruikt dan een soort van paravirtualisatie om rechtstreeks je hardware aan te spreken.
Klopt dit een beetje :-).
De onderliggende kernel. Je kan eender welke linux variant in een lxc plaatsen.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • Bramboos
  • Registratie: November 2009
  • Laatst online: 12-05 14:10
Ik gebruik nu al 2 jaar stabiel Proxmox 3.4 in een cluster setup op 2 servers met drbd om de data gelijk te houden op beide servers. Op de reboots na een update na heeft Proxmox altijd stabiel gedraaid op wat verouderde HP Proliand DL360G6's. Enige grote bottleneck is toch wel de gigabit nic. Met 20 productie vpssen heb je niet echt genoeg aan 100MB/s schrijfsnelheden. Vooral 's nachts als alle backups draaien is dat toch wel erg laag.

Ik vraag me af of hier ook mensen zijn die Proxmox met cluster setup voor bedrijfs (productie) servers gebruiken? Zo ja, wat voor (shared) storage gebruik je hiervoor?

Ik zit er zelf aan te denken om nieuwe Supermicro servers aan te schaffen met 10gbit en dan Proxmox en CEPH te gaan draaien. Het is minder bewezen dan DRBD+Proxmox maar zeker wel het proberen waard lijkt mij.

Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 23:07
A1AD schreef op woensdag 16 november 2016 @ 14:01:
[...]

Er zijn geen probleem met Pfsense, ja je moet misschien een bridge of 2 aanmaken, maar dat zijn toch basis linux dingen. Ik heb momenteel 1 NIC verbonden met een managed switch en werk met vlans :),
[...]
Zou je zo vriendelijk willen zijn om je bridge config te willen delen ? :) ik heb pfsense ook virtueel draaien en probeer met vlans te gaan werken alleen lukt dat niet erg super. |:(

vlans via de switch werken prima maar een vm in een vlan laten draaien lukt nog niet. :'(

Acties:
  • 0 Henk 'm!

  • wilmardo
  • Registratie: Februari 2011
  • Laatst online: 25-06 16:58
unezra schreef op maandag 9 januari 2017 @ 23:42:
Ik heb zelf heel bewust gekozen geen RAIDZ1 te gebruiken omdat het eigenlijk als enkel voordeel oplevert dat het net iets goedkoper is dan mirrors of striped mirrors, terwijl het verder geen voordelen oplevert.
Goed punt, na nog wat verder onderzoek te hebben gedaan ben ik het inderdaad met je eens (oa hier). Ik heb nu 4x 2TB voor mijn belangrijke dataset.
unezra schreef op maandag 9 januari 2017 @ 23:42:
Stripes
Met 4 disks in ZFS stripe, ben je *al* je data kwijt als er 1 disk klapt. Het is geen JBOD. Stripe zou ik echt nooit inzetten, enkel gecombineerd met mirror. (Dus een mirrored stripe, RAID-10 equivalent.)
Mijn overweging was dat het toch een volume is met data die opnieuw verkregen kan worden alleen moet ik daar dan veel moeite voor doen. Toch de knoop maar doorgehakt en een 3e 4TB disk gekocht om mezelf die moeite te besparen.

Nu zit ik nog met 3 dingen:
  • ZFS vs Btrfs. ZFS is bewezen betrouwbaar waar Btrfs dat nog niet is maar de dynamische insteek van Btrfs laat me nog twijfelen. Ook omdat de ervaringen die ik lees variëren van 'ik gebruik het al 5 jaar zonder problemen' tot 'niet gebruiken, het is niet production ready'. Waarom ik dan toch naar Btrfs neig is omdat er intussen wel flinke namen het gebruiken (linkje en het voordeel om later eenvoudig disks te kunnen toevoegen voor mij een enorme plus is.
  • IOPS voor de SSD's. Ik heb nu 3x 120GB ssd's voor de VM's (databaseservers etc.) maar zou het niet een enorme prestatieboost zijn als ik er 1 bijkoop en er een RAID10 (of equivalent) van maak?
  • Proxmox OS op SSD's, heeft dit prestatievoordeel? Mijn redenering is dat LXC containers delen van de kernel gebruiken dus ssd's voor Proxmox maken de containers sneller. Maar is dit waar? Ik kan er heel weinig over vinden.
Wat is het toch lastig als je probeert je server in 1 keer goed op te zetten voor de komende jaren, zoveel vragen. Gelukkig hebben we Tweakers.net _/-\o_

Acties:
  • 0 Henk 'm!

  • WeaZuL
  • Registratie: Oktober 2001
  • Laatst online: 25-06 09:46

WeaZuL

Try embedded, choose ARM!

Nav mijn eerdere vraag hier in het topic heb ik een test setup bij elkaar gesprokkeld om proxmox icm ZFS te testen:

#Product
1Intel Pentium i3-6300 Boxed
1Fujitsu D3417-B11
4Samsung M391A2K43BB1
6Seagate Spinpoint M8 ST1000LM024, 1TB
1Chineesche picoPSU 160


Nu heb ik het punt bereikt om de storage in te delen en daar loop ik vast. Het moederbord beschikt over de volgende aansluitingen:

- 6 x Serial ATA III 600 Interface
- 1 x M.2 Socket (2260/2280) for PCIe (4 lanes) based M.2 modules

Ik heb 1TB laptop schijven tot mijn beschikking en heb na wat proxmox artikels gelezen te hebben vernomen dat wanneer men proxmox OS geïnstalleerd op goedkope SSD's ervoor zorgt dat deze SSD's het snel begeven vanwege de vele schrijf transacties.

Nu heb ik een M.2 Socket ter beschikking waar een nvme SSD in kan. De vraag is nu, is het raadzaam om proxmox OS plus de virtuele machines en LXC containers op deze nvme SSD te plaatsen en de overige 6 1TB schijven als data storage te configureren? Iemand ervaring hiermee icm een thuisomgeving met, laten we zeggen, een tweetal virtuele machines en een 5 tal LXC containers?

NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict


Acties:
  • 0 Henk 'm!

  • vanputten80
  • Registratie: September 2008
  • Laatst online: 25-06 11:48
Op dit moment heb ik een machine met Proxmox met verschillende VMs en ik heb een machine met Nas4Free. Deze opstelling heb ik pas sinds 2 maanden, het stroomverbruik is enorm gestegen.

Ik wil eigenlijk alles in 1 machine hebben. Proxmox als main, daarin VMs en een VM welke mijn data beheert.
Eerder heb ik dit gedaan met een Server2012 VM en virtuele schijven voor data. Dit voldoende niet helemaal fijn, alle data in een soort container en wat als die het in eens niet meer doet...

Ik ben benieuwd naar hoe jullie dit hebben opgelost wanneer je voor 1 machine zou gaan.

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Als ik het een keer goed zou opzetten, gaat ProxMox het beheer over alle storage krijgen. Vervolgens kan een container met behulp van een bind mount toegang krijgen tot een deel van het filesystem en hier toegang met een client-protocol als SMB voor regelen. Momenteel heb ik nog een VM draaien die de ruwe storage regelt, maar dat is eigenlijk geen fijne oplossing (het bootproces wordt er nogal foutgevoelig door).

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 25-06 12:52
vanputten80 schreef op zondag 26 februari 2017 @ 13:36:
Op dit moment heb ik een machine met Proxmox met verschillende VMs en ik heb een machine met Nas4Free. Deze opstelling heb ik pas sinds 2 maanden, het stroomverbruik is enorm gestegen.

Ik wil eigenlijk alles in 1 machine hebben. Proxmox als main, daarin VMs en een VM welke mijn data beheert.
Eerder heb ik dit gedaan met een Server2012 VM en virtuele schijven voor data. Dit voldoende niet helemaal fijn, alle data in een soort container en wat als die het in eens niet meer doet...

Ik ben benieuwd naar hoe jullie dit hebben opgelost wanneer je voor 1 machine zou gaan.
Heb je de vorige 5 pagina's al eens gelezen?

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

vanputten80 schreef op zondag 26 februari 2017 @ 13:36:
Op dit moment heb ik een machine met Proxmox met verschillende VMs en ik heb een machine met Nas4Free. Deze opstelling heb ik pas sinds 2 maanden, het stroomverbruik is enorm gestegen.
Dan heb je de verkeerde machines gebruikt. :)
Met 2 Microservers blijft het stroomverbruik behoorlijk netjes en kun je keurig een gescheiden NAS en hypervisor bouwen.

Heel stuk flexibeler. Mocht je namelijk aan 1 hypervisor te weinig hebben, koop je een 2e, hang je die in een HA cluster en klaar.

Met alles op 1 machine ben je lang zo flexibel niet.

Kortom: Vervang je hardware, maar duw niet alles op 1 doos. Daar ga je spijt van krijgen. (Denk ik.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Mmore
  • Registratie: Oktober 2006
  • Laatst online: 23-06 18:15
Is er iemand hier die ervaring heeft met het opzetten van een dedicated 10GbE link tussen Proxmox en je NAS?

Situatie als volgt dus:
eth0 = 1 GbE naar router toe

Alle VMs/containers hebben via vmbr0 een verbinding met eth0 en krijgen vanuit de gateway (?) een ip-adres toegewezen. Deze wordt door mij vastgezet op basis van MAC-adres in de router.

Nieuwe netwerk kaart komt er vandaag bij, wordt waarschijnlijk eth1. De NAS heeft al een ongebruikte 10 GbE port. De meeste VMS/Containers maken verbinding met de NAS over NFS.

Situatie ziet er zo uit dus: http://i.imgur.com/lrf06bP.png

Is het straks een kwestie van een kabel prikken tussen de VM server (Proxmox) en de NAS, deze allebei een handmatig ip-adres geven (bijv 192.168.2.1 voor Proxmox en 192.168.2.2 voor de NAS) zonder gateway om de verbinding tussen deze twee machines te laten werken?

En kan ik de VMs dan toegang geven middels een nieuwe bridge, bijv. vmbr1 die geslaved wordt aan eth1? Moet ik die VMs dan ook handmatig een ipadres toewijzen voor dit netwerk, bijvoorbeeld 192.168.2.3?

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

Mmore schreef op vrijdag 3 maart 2017 @ 12:19:
Is er iemand hier die ervaring heeft met het opzetten van een dedicated 10GbE link tussen Proxmox en je NAS?

Situatie als volgt dus:
eth0 = 1 GbE naar router toe

Alle VMs/containers hebben via vmbr0 een verbinding met eth0 en krijgen vanuit de gateway (?) een ip-adres toegewezen. Deze wordt door mij vastgezet op basis van MAC-adres in de router.

Nieuwe netwerk kaart komt er vandaag bij, wordt waarschijnlijk eth1. De NAS heeft al een ongebruikte 10 GbE port. De meeste VMS/Containers maken verbinding met de NAS over NFS.

Situatie ziet er zo uit dus: http://i.imgur.com/lrf06bP.png

Is het straks een kwestie van een kabel prikken tussen de VM server (Proxmox) en de NAS, deze allebei een handmatig ip-adres geven (bijv 192.168.2.1 voor Proxmox en 192.168.2.2 voor de NAS) zonder gateway om de verbinding tussen deze twee machines te laten werken?

En kan ik de VMs dan toegang geven middels een nieuwe bridge, bijv. vmbr1 die geslaved wordt aan eth1? Moet ik die VMs dan ook handmatig een ipadres toewijzen voor dit netwerk, bijvoorbeeld 192.168.2.3?
toon volledige bericht
Staat er data op je NAS die de vm's zelf moeten kunnen benaderen?
Want dan moet je idd een 2e bridge aanmaken en die aan je 10Ge poort knopen, met een extra netwerk interface per vm en daarop een IP adres. (Net zoals op je vmbr0 dus.)

De andere vraag is: Staan je vm's (hun disk images) op lokale storage of op je NAS (via NFS).

In ieder geval, als je vm's zelf dus niet bij die data hoeven, maar alleen hun image via NFS op je NAS staat, hoef je niet met een bridge te werken. Je prikt dan gewoon je 10Ge kabel in je NAS, configureerd aan beide kanten een IP adres, configureert NFS op je NAS en ontsluit je data.

Ná Scaoll. - Don’t Panic.


Acties:
  • +1 Henk 'm!

  • nike
  • Registratie: November 2000
  • Niet online
powerboat schreef op zondag 5 februari 2017 @ 01:40:
[...]


Zou je zo vriendelijk willen zijn om je bridge config te willen delen ? :) ik heb pfsense ook virtueel draaien en probeer met vlans te gaan werken alleen lukt dat niet erg super. |:(

vlans via de switch werken prima maar een vm in een vlan laten draaien lukt nog niet. :'(
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
auto lo
iface lo inet loopback
iface eth0 inet manual
iface eth1 inet manual

auto vmbr0
iface vmbr0 inet static
<------>address  192.168.0.10
<------>netmask  255.255.255.0
<------>gateway  192.168.0.1
<------>bridge_ports eth0
<------>bridge_stp off
<------>bridge_fd 0
<------>bridge_vlan_aware yes

auto vmbr1
iface vmbr1 inet manual
<------>bridge_ports eth1
<------>bridge_stp off
<------>bridge_fd 0
<------>bridge_vlan_aware yes


zo staan mijn interfaces op de host in /etc/network
mijn pfsense krijgt vmbr1 als wan en de rest vd hosts op vmbr0

-edit-


Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 23:07
nike schreef op zondag 5 maart 2017 @ 11:30:
[...]


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
auto lo
iface lo inet loopback
iface eth0 inet manual
iface eth1 inet manual

auto vmbr0
iface vmbr0 inet static
<------>address  192.168.0.10
<------>netmask  255.255.255.0
<------>gateway  192.168.0.1
<------>bridge_ports eth0
<------>bridge_stp off
<------>bridge_fd 0
<------>bridge_vlan_aware yes

auto vmbr1
iface vmbr1 inet manual
<------>bridge_ports eth1
<------>bridge_stp off
<------>bridge_fd 0
<------>bridge_vlan_aware yes


zo staan mijn interfaces op de host in /etc/network
mijn pfsense krijgt vmbr1 als wan en de rest vd hosts op vmbr0
toon volledige bericht
Hi Nike, Thanks that did the trick :). Ik snap niet dat ik dit niet gezien heb 8)7.

Zelf was ik deze tutorial aan het volgen https://pve.proxmox.com/wiki/Vlans waardoor ik vastliep.

Acties:
  • 0 Henk 'm!

  • WeaZuL
  • Registratie: Oktober 2001
  • Laatst online: 25-06 09:46

WeaZuL

Try embedded, choose ARM!

Ik will nextcloud virtualiseren, waar doe ik goed aan kvm of lxc? Ik heb gegoogled en Het kan beide maar de meningen lijken verdeeld omdat lxc de (volgens sommigen ongewenste) vervanger was van openvz en dat proxmox eigenlijk helemaal niets met lxc te maken wil hebben :? Wat zijn hier de ervaringen met lxc icm Proxmox?

[ Voor 26% gewijzigd door WeaZuL op 06-03-2017 23:04 ]

NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict


Acties:
  • 0 Henk 'm!

  • Mmore
  • Registratie: Oktober 2006
  • Laatst online: 23-06 18:15
LXC wordt gewoon ondersteund en heeft altijd de voorkeur omdat het minder overhead heeft. LXC heeft een paar nadalen, je kan bijv. niet MS Windows of FreeBSD gebruiken want de onderliggende Linux kernel wordt gebruikt voor de emulatie (LXC staat dan ook voor Linux Containers). Een ander nadeel is dat je niet "alles" kan. Om te voorkomen dat een LXC container misbruik maakt van zijn toegang tot de Proxmox host wordt er iets wat "AppArmor" heet gebruikt. Hier merk je in de praktijk weinig van.

Lees even beknopt de verschillen door:
http://pve.proxmox.com/wiki/Linux_Container
http://pve.proxmox.com/wiki/Qemu/KVM_Virtual_Machines
WeaZuL schreef op maandag 6 maart 2017 @ 22:58:
Het kan beide maar de meningen lijken verdeeld omdat lxc de (volgens sommigen ongewenste) vervanger was van openvz en dat proxmox eigenlijk helemaal niets met lxc te maken wil hebben :?
Geen idee waar dat vandaan komt maar LXC containers worden al lange tijd goed ondersteund en dat zie ik zeker niet veranderen. Ik draai inmiddels op mijn server alles op LXC containers behalve een docker VM welke nog op KVM draait omdat dit niet anders kan :P

@unezra Thanks, dat was ongeveer wat ik al dacht ja. Sommige guests moeten inderdaad direct bij de NAS kunnen, er worden geen VMs vanaf de NAS geladen, alles wordt op de Proxmox machine bewaard in raid1 en gebackupped naar de NAS toe. Ik ga ermee aan de slag binnenkort :)

Acties:
  • 0 Henk 'm!

  • WeaZuL
  • Registratie: Oktober 2001
  • Laatst online: 25-06 09:46

WeaZuL

Try embedded, choose ARM!

Mmore schreef op dinsdag 7 maart 2017 @ 13:36:
LXC wordt gewoon ondersteund en heeft altijd de voorkeur omdat het minder overhead heeft. LXC heeft een paar nadalen, je kan bijv. niet MS Windows of FreeBSD gebruiken want de onderliggende Linux kernel wordt gebruikt voor de emulatie (LXC staat dan ook voor Linux Containers). Een ander nadeel is dat je niet "alles" kan. Om te voorkomen dat een LXC container misbruik maakt van zijn toegang tot de Proxmox host wordt er iets wat "AppArmor" heet gebruikt. Hier merk je in de praktijk weinig van.

Lees even beknopt de verschillen door:
http://pve.proxmox.com/wiki/Linux_Container
http://pve.proxmox.com/wiki/Qemu/KVM_Virtual_Machines

[...]
Hmm interessant, ik lees iets over privileged en unprivileged containers, tegelijktijd zie ik dat default "unprivileged containers" uit gevinkt staat, echter adviseert het lxc team wel deze te hanteren aldus de proxmox documentatie. Wat zijn de ervaringen met unprivileged lxc containers icm applicaties zoals Plex, Nextcloud en/of owncloud onder Debian/Ubuntu?

Los van het bovenstaande verhaal, ik ben nu een dag aan het spelen met ProxMox en ik vind het echt geniaal. De ene container na de andere spin ik op in een hand omdraai, Plex,Owncloud, Nextcloud, zonder issues. Is het niets, remove container en op naar de volgende installatie _/-\o_

#dithadikveeleerdermoetendoen 8)7

[ Voor 12% gewijzigd door WeaZuL op 09-03-2017 22:40 ]

NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 19-06 19:05

MvL

Is dit topic ook bedoeld voor hulp van het bouwen van LXC containers?

Acties:
  • 0 Henk 'm!

  • duramen
  • Registratie: Maart 2006
  • Laatst online: 20-11-2024
Ik heb al wat rondgezocht maar kan niet een duidelijk antwoord vinden.

Ik wil mijn windows desktop als VM gaan draaien zodat ik er andere VM's naast kan draaien. De VM host moet dan wel de mogelijkheid hebben om grafische desktop te draaien.

Ik las dat je ProxMox VE op Debian Jessie kan installeren met een X-Desktop.

Is het mogelijk om een ProxMox VE machine in standby te zetten? B.v. De Debian standby?
Zo ja, moet je dan de VM's eerst in standby zetten/saven? Kan dit via een machine interface (JSON?)?

En als je VT-d gebruikt om een van de VM's zijn eigen disk controller te geven. Is de standby dan nog mogelijk. Het is geen probleem om eerst de VM's in suspend/saved state te zetten mits dat maar via een computer/computer interface kan.

Het doel is om twee machines (een windows desktop en een NAS) te consolideren op een machine om zo minder dozen te hebben en minder elektriciteit. Daarom is het essentieel dat de VM host in standby kan.

Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 19-06 19:05

MvL

MvL schreef op vrijdag 10 maart 2017 @ 09:53:
Is dit topic ook bedoeld voor hulp van het bouwen van LXC containers?
Ik zag dat ik het al eens eerder had gevraagd. Sorry. :)

Heeft dan niemand problemen om LXC container te bouwen? Als ik bijvoorbeeld Plex media server in een LXC container wil installeren wat is de best manier? Welke distro? Nu heeft Plex mij nog geen problemen gegeven (kan waarschijnlijk beter), maar ik had wel problemen met Plexpy.

Misschien brengen de LXC containers die jij draait mij weer op ideeën. Ik wil graag wat ervaringen uitwisselen.

Acties:
  • 0 Henk 'm!

  • Edd
  • Registratie: Januari 2001
  • Laatst online: 01:46

Edd

MvL schreef op donderdag 16 maart 2017 @ 20:02:
Heeft dan niemand problemen om LXC container te bouwen? Als ik bijvoorbeeld Plex media server in een LXC container wil installeren wat is de best manier? Welke distro? Nu heeft Plex mij nog geen problemen gegeven (kan waarschijnlijk beter), maar ik had wel problemen met Plexpy.
Nee, geen enkel probleem hier. Loop je ergens tegenaan dan?
Ik heb mijn Plex Server geïnstalleerd in een LXC met Debian 8. Gewoon een LXC gemaakt obv de template, Plex gedownload vanaf Plex.tv (Ubuntu 64-bit versie) en deze met dpkg geïnstalleerd.
PlexPy draai ik zelf niet en ook nooit geprobeerd, dus weet ik ook niet of dat problemen kan geven.

-


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 19-06 19:05

MvL

Edd schreef op donderdag 16 maart 2017 @ 20:52:
[...]


Nee, geen enkel probleem hier. Loop je ergens tegenaan dan?
Ik heb mijn Plex Server geïnstalleerd in een LXC met Debian 8. Gewoon een LXC gemaakt obv de template, Plex gedownload vanaf Plex.tv (Ubuntu 64-bit versie) en deze met dpkg geïnstalleerd.
PlexPy draai ik zelf niet en ook nooit geprobeerd, dus weet ik ook niet of dat problemen kan geven.
Hoi Edd,

Inmiddels heb ik Plexpy draaien. Ik heb een guide gevolgd op htpcguides.com. Het is vorige keer denk ik een permissie probleem geweest.

Als jij SABnzbd installeert in LXC container hoe handel jij de storage af? Ik heb het volgens mij al eens via een NFS share geprobeerd en deze ge-bind and de LXC container.

Doe jij per LXC container één app installeren?

Acties:
  • +2 Henk 'm!

  • Edd
  • Registratie: Januari 2001
  • Laatst online: 01:46

Edd

MvL schreef op zondag 19 maart 2017 @ 16:36:
Als jij SABnzbd installeert in LXC container hoe handel jij de storage af? Ik heb het volgens mij al eens via een NFS share geprobeerd en deze ge-bind and de LXC container.
Storage heb ik gekoppeld via bind mounts. Hierdoor wordt een directory in de LXC gekoppeld aan een directory op de host. Op deze manier ontsluit ik de zfs datastores naar de LXC's die deze nodig hebben.
Er staat mij iets bij dat NFS in een LXC container niet echt werkt. Voor 1 container heb ik dan ook op de host een NFS share gekoppeld en die weer via een bind mount doorgegeven aan de container.
Doe jij per LXC container één app installeren?
Toevallig is het zo dat alle applicaties die ik gebruik voor downloads (Spotweb, Nzbget, Sonarr & Couchpotato) allemaal in dezelfde LXC draaien. Dit vanwege de verwerking van downloads e.d.
De rest zijn per app een LXC container. Zo heb ik ze bijvoorbeeld voor TVHeadend, Domoticz en HAProxy

-


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 19-06 19:05

MvL

Edd schreef op zondag 19 maart 2017 @ 19:43:
[...]


Storage heb ik gekoppeld via bind mounts. Hierdoor wordt een directory in de LXC gekoppeld aan een directory op de host. Op deze manier ontsluit ik de zfs datastores naar de LXC's die deze nodig hebben.
Er staat mij iets bij dat NFS in een LXC container niet echt werkt. Voor 1 container heb ik dan ook op de host een NFS share gekoppeld en die weer via een bind mount doorgegeven aan de container.
Gebruik jij het ZFS van Proxmox dus je koppelt (bind mounts) dan op directory niveau?

Ik koppel nu inderdaad een NFS share via de ui van proxmox and dan een bind mount naar de container. Tot nu toe werkt dat prima.
[...]
Toevallig is het zo dat alle applicaties die ik gebruik voor downloads (Spotweb, Nzbget, Sonarr & Couchpotato) allemaal in dezelfde LXC draaien. Dit vanwege de verwerking van downloads e.d.
De rest zijn per app een LXC container. Zo heb ik ze bijvoorbeeld voor TVHeadend, Domoticz en HAProxy
Ja ik heb inderdaad wel eens begrepen dat het een probleem met downloads kan zijn als je verschillende containers gebruikt. Ik moet een hier een beetje me experimenteren.

Acties:
  • 0 Henk 'm!

  • Edd
  • Registratie: Januari 2001
  • Laatst online: 01:46

Edd

MvL schreef op zondag 19 maart 2017 @ 20:40:
Gebruik jij het ZFS van Proxmox dus je koppelt (bind mounts) dan op directory niveau?
Ja, dat klopt helemaal.
Maar om het overzichtelijk te houden koppel ik wel op dataset niveau.
Zo heb ik bijvoorbeeld een Media dataset. Deze is op de host gemount op /media/MediaDataset en de /media/MediaDataset wordt dan doorgegeven naar de LXC container via een bind mount.
Iets waar je wel rekening mee moet houden is dat je max 10 mount points kan meegeven.

-


Acties:
  • 0 Henk 'm!

  • synoniem
  • Registratie: April 2009
  • Niet online
Ik zit ook al een tijdje naar Proxmox te kijken als vervanger van VMware en vraag me af hoeveel mensen die 6 euro per maand betalen voor toegang tot de enterprise repository. Het is geen groot bedrag maar VMware ESXI is gratis en voor mijn doeleinden goed genoeg. En wat mis ik aan die repository als ik zonder betalen met Proxmox werk?

Acties:
  • 0 Henk 'm!

  • WeaZuL
  • Registratie: Oktober 2001
  • Laatst online: 25-06 09:46

WeaZuL

Try embedded, choose ARM!

synoniem schreef op maandag 20 maart 2017 @ 00:23:
Ik zit ook al een tijdje naar Proxmox te kijken als vervanger van VMware en vraag me af hoeveel mensen die 6 euro per maand betalen voor toegang tot de enterprise repository. Het is geen groot bedrag maar VMware ESXI is gratis en voor mijn doeleinden goed genoeg. En wat mis ik aan die repository als ik zonder betalen met Proxmox werk?
Goede vraag, ik betaal voorlopig niets en krijg toch een paar keer in de week ongeveer updates binnen via de niet corporate mirror. Wat nu het verschil is is mij ook niet duidelijk.

NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict


Acties:
  • +1 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 25-06 12:52
Edd schreef op zondag 19 maart 2017 @ 23:45:
[...]
Iets waar je wel rekening mee moet houden is dat je max 10 mount points kan meegeven.
Als je 10 (0-9) mp's op zijn kan je nog steeds dit gebruiken:
code:
1
lxc.mount.entry: /bds/NAS/Media/Music /var/lib/lxc/109/rootfs/mnt/NAS/Media/Music  none bind,create=dir,optional 0 0
WeaZuL schreef op maandag 20 maart 2017 @ 09:38:
[...]
Goede vraag, ik betaal voorlopig niets en krijg toch een paar keer in de week ongeveer updates binnen via de niet corporate mirror. Wat nu het verschil is is mij ook niet duidelijk.
Corporate = stable
Free= snellere release, zouden meer bugs kunnen inzitten

De pakketten gaan van testing > free > corporate

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • WeaZuL
  • Registratie: Oktober 2001
  • Laatst online: 25-06 09:46

WeaZuL

Try embedded, choose ARM!

Ik kom er niet goed achter hoe het volgende werkt en waarom het nu wel werkt. Ik heb maar 1 Gbit NIC in mijn server. Ik wil graag een aantal lxc's in een vlan zetten, dus wordt het een trunk. Ik maak een bridge aan met eth0.13 en vervolgens configureer ik die lxc's op diezelfde bridge. Echter de VLAN configuratie van die lxc laat ik leeg, want als ik daar 13 invul kan ik de lxc niet bereiken. Waarom kan je daar nog een vlan tag specificeren? :?

NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict


Acties:
  • 0 Henk 'm!

  • Michidez
  • Registratie: December 2015
  • Laatst online: 20-06 13:12

Michidez

Zelden zo gelachen!

Ik ben nu Proxmox aan het testen. Vooral LXC is echt knap. 10MB RAM om een server op te zetten is nihil.

Dit is nu wel een test systeem, maar ik zou graag de goed geconfigureerde containers willen overnemen naar de eindopstelling. Ik zou ze namelijk toch op exact dezelfde manier opzetten.

Als ik dit opzoek zegt men om een .tar te maken van de files onder /var/lib/lxc/<containerID>. Bij mij is de rootfs folder namelijk leeg. En dus is de .tar hiervan onder de 1MB. Ik geloof nooit dat dit de volledige container kan zijn. Ik weet wel waar de echte files staan van de container, maar ik zie nergens in de config file een referentie naar die lokatie. Dus als ik het verhuis ben ik 99% zeker dat ik het stuk doe.

Hoe doen jullie offline migratie?


Edit: Ik heb het eens met backup geprobeerd, en dit lijkt te werken.

[ Voor 6% gewijzigd door Michidez op 27-04-2017 15:01 ]


Acties:
  • 0 Henk 'm!

  • wilmardo
  • Registratie: Februari 2011
  • Laatst online: 25-06 16:58
Michidez schreef op donderdag 27 april 2017 @ 14:29:
Edit: Ik heb het eens met backup geprobeerd, en dit lijkt te werken.
Dat is inderdaad ook wat ik heb gedaan, backup maken van de container/vm en die rsyncen naar de nieuwe node. Je kan zelfs je container afsluiten, je config file editen, backuppen en terugzetten met de nieuwe config (voor het wisselen van unprivileged naar privileged bijvoorbeeld :)

Acties:
  • 0 Henk 'm!

  • duiveltje666
  • Registratie: Mei 2005
  • Laatst online: 13-06-2022
Vorige week de upgrade gedaan naar 5.0 beta , Ben impressed ...
Door die 4.10 kernel is de I/O nog verder verbeterd

Acties:
  • 0 Henk 'm!

  • wilmardo
  • Registratie: Februari 2011
  • Laatst online: 25-06 16:58
duiveltje666 schreef op maandag 1 mei 2017 @ 16:16:
Vorige week de upgrade gedaan naar 5.0 beta , Ben impressed ...
Door die 4.10 kernel is de I/O nog verder verbeterd
Klinkt interessant! Hoe is je ervaring met de beta, is deze stabiel?

Acties:
  • 0 Henk 'm!

  • duiveltje666
  • Registratie: Mei 2005
  • Laatst online: 13-06-2022
wilmardo schreef op maandag 1 mei 2017 @ 20:33:
[...]

Klinkt interessant! Hoe is je ervaring met de beta, is deze stabiel?
Tot nu toe geen problemen tegengekomen , Debian 9 kan ook elk moment uitkomen ..

Acties:
  • 0 Henk 'm!

  • Michidez
  • Registratie: December 2015
  • Laatst online: 20-06 13:12

Michidez

Zelden zo gelachen!

De containers laten verbinden met de storage via bind mounts werkt heel goed hier, maar ik zit met 1 probleem. User rights.

Onder mijn storage pool heb ik de map iso, hieronder zitten onder andere de mappen Debian, Ubuntu en New. New is de map waar nieuwe torrents binnen komen. New is via bind mount doorgegeven naar Transmission. De debian-transmission user heeft hier geen rechten op, en kan hier dus niet schrijven. Nu heb ik per test deze folder 777 gegeven (In Transmission). Dat kan debian-transmission wel hierop downloaden. Als ik dan een nieuwe iso wil sorteren naar de juiste map (vanuit Samba op mijn Windows computer, over een Webmin container die op de iso folder toegang heeft via bindmount) dan is deze file in gebruik, zelfs na het afsluiten van de Transmission container. Als ik deze file chown naar root (in webmin), dan werkt het wel goed.

Verder nog, de New, Debian, etc. mappen zijn gemaakt via Samba op de Webmin container onder de gebruiker sambaIsoUser. Deze tonen bij de Proxmox host als user en group 1000. De files van debian-transmission tonen als systemd-bus-proxy user en sshd group.


Hoe kan ik heel deze permissie hel oplossen? Kerberos of LDAP ofzoiets?

Acties:
  • 0 Henk 'm!

  • WeaZuL
  • Registratie: Oktober 2001
  • Laatst online: 25-06 09:46

WeaZuL

Try embedded, choose ARM!

Michidez schreef op dinsdag 2 mei 2017 @ 11:44:
De containers laten verbinden met de storage via bind mounts werkt heel goed hier, maar ik zit met 1 probleem. User rights.

Onder mijn storage pool heb ik de map iso, hieronder zitten onder andere de mappen Debian, Ubuntu en New. New is de map waar nieuwe torrents binnen komen. New is via bind mount doorgegeven naar Transmission. De debian-transmission user heeft hier geen rechten op, en kan hier dus niet schrijven. Nu heb ik per test deze folder 777 gegeven (In Transmission). Dat kan debian-transmission wel hierop downloaden. Als ik dan een nieuwe iso wil sorteren naar de juiste map (vanuit Samba op mijn Windows computer, over een Webmin container die op de iso folder toegang heeft via bindmount) dan is deze file in gebruik, zelfs na het afsluiten van de Transmission container. Als ik deze file chown naar root (in webmin), dan werkt het wel goed.

Verder nog, de New, Debian, etc. mappen zijn gemaakt via Samba op de Webmin container onder de gebruiker sambaIsoUser. Deze tonen bij de Proxmox host als user en group 1000. De files van debian-transmission tonen als systemd-bus-proxy user en sshd group.

Hoe kan ik heel deze permissie hel oplossen? Kerberos of LDAP ofzoiets?
Heb je de desbetreffende containers op unpriviledged aangevinkt staan? Volgens het desbetreffende artikel op de Proxmox wiki:
These kind of containers use a new kernel feature called user namespaces. All of the UIDs (user id) and GIDs (group id) are mapped to a different number range than on the host machine, usually root (uid 0) became uid 100000, 1 will be 100001 and so on. This means that most security issues (container escape, resource abuse, …) in those containers will affect a random unprivileged user, even if the container itself would do it as root user, and so would be a generic kernel security bug rather than an LXC issue. The LXC team thinks unprivileged containers are safe by design.

Theoretically the unprivileged containers should work out of the box, without any difference to privileged containers. Their high uid mapped ids will be shown for the tools of the host machine (ps, top, ...).
Oplossing is volgens mij de lxc container op privileged te zetten. Ik dacht dat dat niet kon anders dan je container te verwijderen en opnieuw te installeren maar ik lees een aantal posts terug dat er ook andere manieren zijn om dit te wijzigen, echter heb ik daar geen ervaring mee.

[ Voor 36% gewijzigd door WeaZuL op 03-05-2017 18:58 ]

NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict


Acties:
  • 0 Henk 'm!

  • Michidez
  • Registratie: December 2015
  • Laatst online: 20-06 13:12

Michidez

Zelden zo gelachen!

WeaZuL schreef op woensdag 3 mei 2017 @ 17:05:
[...]


Heb je de desbetreffende containers op unpriviledged aangevinkt staan? Volgens het desbetreffende artikel op de Proxmox wiki:


[...]


Oplossing is volgens mij de lxc container op privileged te zetten. Ik dacht dat dat niet kon anders dan je container te verwijderen en opnieuw te installeren maar ik lees een aantal posts terug dat er ook andere manieren zijn om dit te wijzigen, echter heb ik daar geen ervaring mee.
Unprivileged container staat op no. Root van containers en host kan doen wat hij wilt.

Acties:
  • 0 Henk 'm!

  • WeaZuL
  • Registratie: Oktober 2001
  • Laatst online: 25-06 09:46

WeaZuL

Try embedded, choose ARM!

Michidez schreef op woensdag 3 mei 2017 @ 19:09:
[...]


Unprivileged container staat op no. Root van containers en host kan doen wat hij wilt.
Dan doe je er goed aan om de UID's / GID's recht te trekken tussen de lxc's onderling en eventueel de host. Bij het aanmaken van een gebruiker kan je de UID specificeren alswel de GID voor een groep. Als je deze gelijk houd kan je deze permissie hell vermijden. Als kers op de taart een aardig artikel over het hoe!

[ Voor 15% gewijzigd door WeaZuL op 03-05-2017 19:27 ]

NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict


Acties:
  • 0 Henk 'm!

  • Yarisken
  • Registratie: Augustus 2010
  • Laatst online: 00:33
Ik was aan het kijken om proxmox te installeren. Echter out of the box kan je niet installeren op usb. Ik gebruik zo op dit moment esxi. Wel via dd of andere tricks is het mogelijk.
Is het een nadeel om het te gebruiken via usb ? Ik las een comment dat dit problemen kan geven met de swap.

Acties:
  • 0 Henk 'm!

  • Addsz
  • Registratie: Juni 2009
  • Laatst online: 22-01 21:14
Yarisken schreef op zaterdag 6 mei 2017 @ 20:00:
Ik was aan het kijken om proxmox te installeren. Echter out of the box kan je niet installeren op usb. Ik gebruik zo op dit moment esxi. Wel via dd of andere tricks is het mogelijk.
Is het een nadeel om het te gebruiken via usb ? Ik las een comment dat dit problemen kan geven met de swap.
Correct me if im wrong, maar bij ESXi is run from USB noodzakelijk als je geen HDD wil opofferen. Dit komt doordat je geen VM's mag hosten vanaf je installdisk.

Bij Proxmox is deze beperking er niet. Ik heb bijvoorbeeld Proxmox op een NVMe SSD 960 PRO geïnstalleerd met daarnaast een aantal vhd's.

Merken jullie veel verschil in performance door over te schakelen naar LXC? Ik heb namelijk een Ubuntu 'downloadserver' geconfigureerd dat een NFS share opent op m'n fileserver VM. Loopt prima. Of mis ik nog andere voordelen?

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

Yarisken schreef op zaterdag 6 mei 2017 @ 20:00:
Ik was aan het kijken om proxmox te installeren. Echter out of the box kan je niet installeren op usb. Ik gebruik zo op dit moment esxi. Wel via dd of andere tricks is het mogelijk.
Is het een nadeel om het te gebruiken via usb ? Ik las een comment dat dit problemen kan geven met de swap.
Proxmox is in essentie een stock Debian met eigen kernel en een hele hoop eigen tools. Het is niet gemaakt om vanaf USB te draaien. Werkt wel, maar de kans op wear van je USB is relatief groot.

Nu kun je een USB stick aan schaffen die relatief veel read/write cycles aan kan, alleen zijn die dingen meteen zo duur, dat het eigenlijk niet interessant meer is en je beter voor een hdd of ssd kunt gaan. (Snelheid maakt niet echt uit als je d'r geen vm's op gaat draaien of alleen lichte LXC's, dus een hdd kan voldoen.)

Swap wil je niet op USB, daarvoor is een hdd of ssd hoe dan ook noodzakelijk.
Addsz schreef op maandag 8 mei 2017 @ 15:24:
[...]

Correct me if im wrong, maar bij ESXi is run from USB noodzakelijk als je geen HDD wil opofferen. Dit komt doordat je geen VM's mag hosten vanaf je installdisk.
Daar ben ik niet 100% zeker van maar het is wel zo dat ESXi gemaakt is om van USB of SD te draaien.
Nu moet ik zeggen dat ik ESXi ook niet in zet in een omgeving (kantoor) waar ik uberhaupt mijn vm's lokaal er bij wil hebben, daar hebben we centrale storage voor.

Thuis draai ik, met Proxmox, eigenlijk ook alles vanaf mijn NAS. Alleen 2 LXC's draaien op mijn Proxmox nodes, zodat ik voor DHCP en DNS niet afhankelijk ben van mijn NAS. Staat die stil, heb ik in ieder geval nog internet.
Bij Proxmox is deze beperking er niet. Ik heb bijvoorbeeld Proxmox op een NVMe SSD 960 PRO geïnstalleerd met daarnaast een aantal vhd's.
Klopt inderdaad. Proxmox is gewoon een Debian installatie met wat toeters en bellen.
Merken jullie veel verschil in performance door over te schakelen naar LXC? Ik heb namelijk een Ubuntu 'downloadserver' geconfigureerd dat een NFS share opent op m'n fileserver VM. Loopt prima. Of mis ik nog andere voordelen?
LXC is veel sneller dan een volledige virtuele machine. Persoonlijk zie ik er alleen de voordelen nog niet helemaal van in. Je kunt niet opeens een totaal ander OS installeren, HA is lastiger met LXC en nog wat andere nukken.

Thuis ben ik er wel mee aan het experimenteren, een LXC is klein en licht. Neemt weinig ruimte in op disk en boot in seconden. Sowieso is het interessante techniek om mee te spelen en te leren kennen. Alleen al daarom wil ik er meer mee gaan doen. Of ik het op korte termijn voor heel serieuze dingen ga gebruiken weet ik nog niet.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Yarisken
  • Registratie: Augustus 2010
  • Laatst online: 00:33
Thx voor de info, ik heb hier nog enkele ssd liggen van 30GB. Ik ga die gebruiken.

Acties:
  • 0 Henk 'm!

  • Jaapoes
  • Registratie: September 2006
  • Laatst online: 02-06 15:29
Hoi allemaal,

Ik heb onlangs een Dell T20 gekocht en met wat zoek en leeswerk wil daar proxmox op gaan draaien. Op de VM's wil ik persoonlijke bestanden opslaan, een cloud hosten, Plex server draaien en in de toekomst camera's en andere huis & tuin apparatuur op aansluiten. Het leuke is alleen dat nog helemaal nieuw ben in de wereld van servers en Linux.. dat is best een uitdaging ben ik inmiddels achter. Ik hoop dat jullie mij een beetje op gang kunnen/willen helpen :)

De T20 heeft een Xeon processor, 32gb EEC geheugen, 1tb Toshiba schijf en twee 4tb WD RED schijven. Ik dacht de twee WD schijven in ZFS RAID 1 te gebruiken voor de VM's en de Toshiba als schijf voor Proxmox.

Inmiddels heb ik Proxmox vanaf USB stick geïnstalleerd en bij installatie gekozen voor de Toshiba (1tb) HDD. Als ik nu via de webinterface inlog dan zie ik het datacenter met Thuis (node) en daaronder local en local-lvm (storage)

Het toevoegen van een VM of een container ziet er allemaal begrijpelijk uit maar ik snap nog niet helemaal wat de node e.d. zijn.
Klopt het dat ik de node zou kunnen zien als de Dell T20 met de Toshiba HDD en dat daaronder verschillende partities zijn gemaakt tijdens de installatie voor Proxmox? (local en local-lvm)
Zo ja, hoe kan ik dan de twee WD RED schijven toevoegen? Of had ik beter anders kunnen installeren?

[ Voor 9% gewijzigd door Jaapoes op 10-05-2017 14:32 ]

[Gigabyte X670 gaming X][Ryzen 7800X3D][Kraken X62][32GB Corsair][Zotac 5080 Solid][Samsung 980 PRO][NZXT H7 FLOW][Evnia 34M2C8600]


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Ik denk dat het op zich een goede opzet is. Wat je nu verder moet/kan doen, is via de commandline een ZFS Pool aanmaken op de andere 2 schijven. Vervolgens kan je deze via de webinterface toevoegen aan de beschikbare storage voor Proxmox. Zie ook hier.

Acties:
  • 0 Henk 'm!

  • Meneer iCy
  • Registratie: September 2003
  • Laatst online: 25-06 16:39

Meneer iCy

swarma

Ik zit al een tijdje te twijfelen om mijn hyperv server met daarop 4-5 tal machines om te bouwen naar een proxmox server.

Reden? Ik draai steeds en steeds meer op linux ipv windows.

Wat houdt mij tegen? Bang voor perfomance verlies met plex.

Server:
Core i5-3470
8GB
Disks:
1x Samsung 320GB
1x WDC 2TB
1x Hitachi 750GB
1x External network 2TB

Er zal dan een nieuwe disk toegevoegd, namelijk een 120GB SSD tbv de virtuele machines voor wat meer power. De 320GB gaat wellicht verdwijnen of zal af en toe als external storage worden geraadpleegd voor een extra backup middels usb.

Als ik Plex niet meer op mijn host ga draaien ga ik dit merken? Tevens zal er een overgang zijn van windows plex naar linux plex :).

Steam id is ijsie \\ Xbox Live GT: Meneer iCy


Acties:
  • 0 Henk 'm!

  • wilmardo
  • Registratie: Februari 2011
  • Laatst online: 25-06 16:58
icy schreef op woensdag 10 mei 2017 @ 14:40:
Ik zit al een tijdje te twijfelen om mijn hyperv server met daarop 4-5 tal machines om te bouwen naar een proxmox server.

Reden? Ik draai steeds en steeds meer op linux ipv windows.

Wat houdt mij tegen? Bang voor perfomance verlies met plex.

Als ik Plex niet meer op mijn host ga draaien ga ik dit merken? Tevens zal er een overgang zijn van windows plex naar linux plex :).
Waar draait je Plex nu op? Dat is niet helemaal duidelijk uit je verhaal, op een HyperV VM?

Acties:
  • 0 Henk 'm!

  • Meneer iCy
  • Registratie: September 2003
  • Laatst online: 25-06 16:39

Meneer iCy

swarma

wilmardo schreef op vrijdag 12 mei 2017 @ 12:12:
[...]

Waar draait je Plex nu op? Dat is niet helemaal duidelijk uit je verhaal, op een HyperV VM?
Nee W2012 Host, in de hyper v staan een 3tal webservers, waarvan 1 een proxy is en een W7 virtuele machine.

[ Voor 18% gewijzigd door Meneer iCy op 12-05-2017 13:00 ]

Steam id is ijsie \\ Xbox Live GT: Meneer iCy


Acties:
  • 0 Henk 'm!

  • Yarisken
  • Registratie: Augustus 2010
  • Laatst online: 00:33
Ik ben toch niet zo enthousiast meer over proxmox. Tis meer een enterprise product aan het worden.
Nog klungelen om die melding voor de licentie weg te krijgen .... ik denk dat ik deze kelk aan mij laat voorbijgaan.

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

Yarisken schreef op vrijdag 12 mei 2017 @ 14:46:
Ik ben toch niet zo enthousiast meer over proxmox. Tis meer een enterprise product aan het worden.
Nog klungelen om die melding voor de licentie weg te krijgen .... ik denk dat ik deze kelk aan mij laat voorbijgaan.
Huh?
Die licentie melding kun je slopen door in de code te harken, of je schaft voor 5 EUR per maand per CPU een licentie aan.

Wat bedoel je met "enterprise aan het worden"?

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Yarisken
  • Registratie: Augustus 2010
  • Laatst online: 00:33
unezra schreef op vrijdag 12 mei 2017 @ 14:52:
[...]


Huh?
Die licentie melding kun je slopen door in de code te harken, of je schaft voor 5 EUR per maand per CPU een licentie aan.

Wat bedoel je met "enterprise aan het worden"?
Je betaalt 5,83 euro voor gewoon toegang te krijgen tot de enterprise repository en voor support van het community forum te krijgen .... . Dat per cpu .... kan je moelijk nog opensource noemen hé.
Ik zou verwachten dat deze basiszaken toch in de free community edition zouden zitten.
Zie naar redhat, wil je support dan neem je redhat. Wil je free dan neem je centos. De packages zijn wel identiek.
En dan die licentiemelding .... waarvoor is dit nodig voor een "opensource" product. Persoonlijk vind ik dit een aggresieve manier van zakendoen.

Ik snap je wel hoor, ik was ook op weg een fanboy te worden :-)

Acties:
  • +3 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Het is nodig omdat de mensen die het maken ook gewoon boodschappen moeten betalen. Jij lijkt nogal onder de indruk te zijn dat open source gelijk moet zijn aan gratis, dan is onzin.

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

Yarisken schreef op vrijdag 12 mei 2017 @ 15:59:
[...]


Je betaalt 5,83 euro voor gewoon toegang te krijgen tot de enterprise repository en voor support van het community forum te krijgen .... . Dat per cpu .... kan je moelijk nog opensource noemen hé.
Ik zou verwachten dat deze basiszaken toch in de free community edition zouden zitten.
https://pve.proxmox.com/w...o_subscription_repository

Er is maar 1 versie en die heeft alle features.

Het enige dat je hebt is dat je zonder subscription geen toegang hebt tot de stable repository. Is dat erg? Neuh. Ook de no subscription repo is goed getest en loopt zelfs iets voor op de stable repository.
Zie naar redhat, wil je support dan neem je redhat. Wil je free dan neem je centos. De packages zijn wel identiek.
En dan die licentiemelding .... waarvoor is dit nodig voor een "opensource" product. Persoonlijk vind ik dit een aggresieve manier van zakendoen.

Ik snap je wel hoor, ik was ook op weg een fanboy te worden :-)
Packages ook daar zij niet identiek. De betaalde RedHat repo is een andere dan de repo van CentOS.

Alleen dat nagscreen vind ik irritant maar ach, het is 1x klikken en het is er uit te slopen als je wilt. Instaplicentie is nu ook weer niet zo duur dat dat echt een groot probleem is. (Ik overweeg sterk thuis toch ook te gaan voor de community license. Kost bijna niets, steunt een prima product en ik heb opeens toegang tot de stable repo en hun forum.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • WeaZuL
  • Registratie: Oktober 2001
  • Laatst online: 25-06 09:46

WeaZuL

Try embedded, choose ARM!

Ik heb net een cluster aangemaakt op mijn Proxmox VE 4 node en vervolgens een Proxmox VE 5 beta node aan dit cluster toegevoegd. Tot zover werkt het goed, vervolgens dacht ik een migratie uit te voeren als eerste test, krijg ik een melding dat de ZFS storage pool niet beschikbaar is op node2. Beide nodes hebben een ZFS storage pool echter zie ik alleen de storage pool in het cluster van de node waar ik het cluster op aangemaakt heb. Nu lees ik hier dat ZFS storage pools enkel lokaal beschikbaar zijn. Hoe hebben jullie je storage geregeld in een cluster (thuis) omgeving? Er valt nu volgens mij weinig te testen met de tweede node?!

Wat ik ook merk is dat de webinterface van de tweede node niet meer te benaderen valt, klopt dat? De webinterface is enkel te benaderen via de node waarop ik het cluster aangemaakt heb. :?

[ Voor 5% gewijzigd door WeaZuL op 12-05-2017 21:02 ]

NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

WeaZuL schreef op vrijdag 12 mei 2017 @ 20:52:
Ik heb net een cluster aangemaakt op mijn Proxmox VE 4 node en vervolgens een Proxmox VE 5 beta node aan dit cluster toegevoegd. Tot zover werkt het goed, vervolgens dacht ik een migratie uit te voeren als eerste test, krijg ik een melding dat de ZFS storage pool niet beschikbaar is op node2. Beide nodes hebben een ZFS storage pool echter zie ik alleen de storage pool in het cluster van de node waar ik het cluster op aangemaakt heb. Nu lees ik hier dat ZFS storage pools enkel lokaal beschikbaar zijn. Hoe hebben jullie je storage geregeld in een cluster (thuis) omgeving? Er valt nu volgens mij weinig te testen met de tweede node?!
Ik heb een NAS op basis van FreeNAS.

Lijkt me logisch dat zonder constructies als GlusterFS je ZFS pool die je aan maakt op machine 1, niet beschikbaar is op machine 2. De data staat immers op machine 1.

Dat is dus waar centrale storage (NAS) of GlusterFS voor is uitgevonden.

Hoe dan ook is het volgens mij niet verstandig 2 cluster nodes met verschillende major of minor OS versie te mixen, da's vragen om problemen. Als je je cluster update, moet je meteen je *hele* cluster updaten.
Wat ik ook merk is dat de webinterface van de tweede node niet meer te benaderen valt, klopt dat? De webinterface is enkel te benaderen via de node waarop ik het cluster aangemaakt heb. :?
Misschien ook te maken met het feit dat je 2 verschillende versies draait?

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • WeaZuL
  • Registratie: Oktober 2001
  • Laatst online: 25-06 09:46

WeaZuL

Try embedded, choose ARM!

unezra schreef op zaterdag 13 mei 2017 @ 00:29:
[...]


Ik heb een NAS op basis van FreeNAS.

Lijkt me logisch dat zonder constructies als GlusterFS je ZFS pool die je aan maakt op machine 1, niet beschikbaar is op machine 2. De data staat immers op machine 1.

Dat is dus waar centrale storage (NAS) of GlusterFS voor is uitgevonden.

Hoe dan ook is het volgens mij niet verstandig 2 cluster nodes met verschillende major of minor OS versie te mixen, da's vragen om problemen. Als je je cluster update, moet je meteen je *hele* cluster updaten.


[...]


Misschien ook te maken met het feit dat je 2 verschillende versies draait?
toon volledige bericht
Ok interessant, ik ga eens uitzoeken wat dat is dat FreeNAS. Hoe verhoud FreeNAS zich dan tot GlusterFS?

Wat betreft die versie nummering, idd normaliter zou ik dat niet zo snel doen maar ik kon nergens expliciet vinden dat dit het een voorwaarde was/is. Ik begrijp hieruit dat het normaal is dat je op elke node de webinterface moet kunnen benaderen? Werkt deze morgen ineens vreemd genoeg wel, zal wel een mij hebben gelegen 8)7

[ Voor 16% gewijzigd door WeaZuL op 13-05-2017 10:42 ]

NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

WeaZuL schreef op zaterdag 13 mei 2017 @ 10:29:
[...]
Ok interessant, ik ga eens uitzoeken wat dat is dat FreeNAS. Hoe verhoud FreeNAS zich dan tot GlusterFS?
GlusterFS is een manier om een soort van "RAID over netwerk" te doen. Het zit in de hoek van DRBD en consorten. Wat er effectief gebeurt is dat data op host A, realtime gerepliceerd word naar host B en in een failover situatie daar gebruikt kan worden.

https://www.gluster.org/
https://docs.linbit.com/

FreeNAS is, hence the name, een NAS. Denk QNAP, Synology, etc.
http://www.freenas.org/

Dingen als GlusterFS zet je dus in op je Proxmox VE host om zonder centrale storage, een HA setup te bouwen. FreeNAS zet je juist in als centrale storage.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • WeaZuL
  • Registratie: Oktober 2001
  • Laatst online: 25-06 09:46

WeaZuL

Try embedded, choose ARM!

unezra schreef op zaterdag 13 mei 2017 @ 10:33:
[...]


GlusterFS is een manier om een soort van "RAID over netwerk" te doen. Het zit in de hoek van DRBD en consorten. Wat er effectief gebeurt is dat data op host A, realtime gerepliceerd word naar host B en in een failover situatie daar gebruikt kan worden.

https://www.gluster.org/
https://docs.linbit.com/

FreeNAS is, hence the name, een NAS. Denk QNAP, Synology, etc.
http://www.freenas.org/

Dingen als GlusterFS zet je dus in op je Proxmox VE host om zonder centrale storage, een HA setup te bouwen. FreeNAS zet je juist in als centrale storage.
Aha, dat maakt een hoop duidelijk. Dan heb ik nog een laatste vraag, is het mogelijk om FreeNAS icm twee proxmox nodes, vm's en lcx containers te migreren wanneer de storage enkel centraal door FreeNAS gefaciliteerd word of heb je daar echt GlusterFS voor nodig? Alvast dank voor je uitleg! _/-\o_

NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

WeaZuL schreef op zaterdag 13 mei 2017 @ 10:38:
[...]


Aha, dat maakt een hoop duidelijk. Dan heb ik nog een laatste vraag, is het mogelijk om FreeNAS icm twee proxmox nodes, vm's en lcx containers te migreren wanneer de storage enkel centraal door FreeNAS gefaciliteerd word of heb je daar echt GlusterFS voor nodig? Alvast dank voor je uitleg! _/-\o_
Yep, kan. :)
Is precies wat ik hier doe. Nja, niet die migratie, ik heb het meteen op die manier opgezet, maar dat kan dus.

Ik heb hier een 2-node Proxmox cluster en een FreeNAS machine draaien op basis van HP Microserver Gen8's. FreeNAS bied een NFS share aan en die zijn gekoppeld op mijn Proxmox machines. (FreeNAS doet ook nog SMB voor mijn PC en laptops.) Op mijn Proxmox machine heb ik nog een paar LXC machines draaien op lokale storage, maar dat kan ook van NFS.

De reden dat ik LXC lokaal doe en nog geen LXC's op mijn FreeNAS heb staan, is dat ik een aantal functies (DNS, DHCP) onafhankelijk van mijn NAS werkend wil hebben.

Wellicht dat ik in de toekomst vaker LXC ga gebruiken en mogelijk ook via NFS op mijn FreeNAS machine. LXC is extreem licht en hoewel minder flexibel dan een volledige vm, vind ik het een interessant concept.

Wat ik zelf trouwens de fijnste methode met vm's vind, is de vm's zelf in qcow2 images en die images in een directory. Ook lokaal. Zo kun je heel makkelijk een vm offline en online migreren. Image oppakken, op een andere host zetten, klaar.

GlusterFS heb ik nog niet mee gewerkt maar ben ik serieus naar aan het kijken voor een specifieke setup op kantoor. Ik wil daar 2 machines opbouwen zonder centrale storage (NAS), waarbij ik toch een HA setup over hou en de machines elkaar dus kunnen vervangen. Dus alle vm's moeten op zowel host A als host B kunnen draaien, data moet realtime over kunnen.

Nadeel: Iedere vm kost 2x zo veel diskruimte.
Voordeel: Geen NAS, en dus geen single point of faillure.
Voordeel 2: Goedkoper, ondanks de dubbele diskruimte heb je maar 2 en geen 3 machines nodig.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • WeaZuL
  • Registratie: Oktober 2001
  • Laatst online: 25-06 09:46

WeaZuL

Try embedded, choose ARM!

unezra schreef op zaterdag 13 mei 2017 @ 10:59:
[...]


Yep, kan. :)
Is precies wat ik hier doe. Nja, niet die migratie, ik heb het meteen op die manier opgezet, maar dat kan dus.

Ik heb hier een 2-node Proxmox cluster en een FreeNAS machine draaien op basis van HP Microserver Gen8's. FreeNAS bied een NFS share aan en die zijn gekoppeld op mijn Proxmox machines. (FreeNAS doet ook nog SMB voor mijn PC en laptops.) Op mijn Proxmox machine heb ik nog een paar LXC machines draaien op lokale storage, maar dat kan ook van NFS.

De reden dat ik LXC lokaal doe en nog geen LXC's op mijn FreeNAS heb staan, is dat ik een aantal functies (DNS, DHCP) onafhankelijk van mijn NAS werkend wil hebben.
Zeer interessant, ik ga de testsetup nav bovenstaande hier omgooien. Nu heb twee proxmox nodes met lokale ZFS storage, dat wordt dus een Freenas node en een Proxmox node. Het liefst zou ik dan geen storage in die proxmox node stoppen maar een HBA. Daar heb echter niet veel kaas van gegeten glas etc en hoe het dan zit met verbruik etc .. iig weer wat leuk testwerk in het verschiet, bedankt voor de tips! Ik ga aan de slag en kom terug met mijn ervaringen!
Wellicht dat ik in de toekomst vaker LXC ga gebruiken en mogelijk ook via NFS op mijn FreeNAS machine. LXC is extreem licht en hoewel minder flexibel dan een volledige vm, vind ik het een interessant concept.

Wat ik zelf trouwens de fijnste methode met vm's vind, is de vm's zelf in qcow2 images en die images in een directory. Ook lokaal. Zo kun je heel makkelijk een vm offline en online migreren. Image oppakken, op een andere host zetten, klaar.

[...]
Zeker zijn die lxcś een leuke oplossing vanwege de lichtgewicht eigenschappen echter kan je het niet vergelijken met een VM. Door wat tests ben ik erachter gekomen dat unprivileged containers niet altijd goed werken bijv. met Bind9 DNS server dan heb je een een privileged container nodig en dan zit je niet zoals een VM "gescheiden" van je Host/Hypervisor. Dus security technisch heeft het wel een puntje van aandacht, het is niet de oplossing voor alles :z

[ Voor 44% gewijzigd door WeaZuL op 13-05-2017 12:16 ]

NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

WeaZuL schreef op zaterdag 13 mei 2017 @ 12:11:
[...]
Zeer interessant, ik ga de testsetup nav bovenstaande hier omgooien. Nu heb twee proxmox nodes met lokale ZFS storage, dat wordt dus een Freenas node en een Proxmox node. Het liefst zou ik dan geen storage in die proxmox node stoppen maar een HBA. Daar heb echter niet veel kaas van gegeten glas etc en hoe het dan zit met verbruik etc ..
Je haalt daar even wat termen door elkaar. :)

Een HBA is niets anders dan "een domme RAID controller". (Om het even heel kort door de bocht te zeggen.) De term HBA heeft niets met glas te maken. Een willekeurige SATA/SAS controller die zijn poorten direct door geeft aan het OS kan als HBA beschouwd worden (dus in principe ook de domme SATA controller op je mainboard), al word de term in de regel gebruikt voor aparte controllers.

Zo'n controller zit grofweg in dezelfde prijsklasse als een RAID controller en er zijn RAID controllers die je kunt omflashen naar HBA. Ook zijn er RAID controllers waarbij je de RAID functionaliteit volledig uit kunt zetten waardoor het in feite een HBA word. De on-board controller (B120i) in de HP Microserver Gen8 is bijvoorbeeld zo'n geval. Dat ding kan eenvoudige RAID vormen aan (RAID0, 1, 10) maar kan in het BIOS worden omgezet en dan is het weinig meer dan een "domme" SATA controller.

Voor ZFS is dat wat je wilt. In fact, ik heb op kantoor een server waar een P420 RAID controller in zat, die ik d'r uit heb getrokken en vervangen door een LSI SAS 9207-8i. Reden: ZFS. (Nu nog ZoL op Ubuntu maar ik wil 'm ombouwen naar FreeNAS.)

Qua storage in je Proxmox machine, je hebt sowieso storage voor je OS nodig. Ik heb d'r een 120G SSD in zitten omdat ik ook dingen met LXC doe op dat ding. Is SSD dan nodig? Nah. Maar het is leuk om d'r een SSD in te hebben en het gaat allemaal nog iets harder. :)

Kortom, stop sowieso iets van storage in je Proxmox machine, da's handig.

Op kantoor heb ik een andere overweging. Daar draaien we ESXi vanaf SD kaarten. Daar is dus *geen* backup van. Nu weet ik dat NetApp in staat is PXE-boot te faciliteren en alle machines kunnen PXE boot aan. Wat ik daar wil doen is ESXi via PXE ontsluiten en de SD kaart er uit halen. Machines booten dan 100% van het netwerk. Ideaal, want backups van mijn ESXi (we backuppen immers de complete NetApp) en als de hardware of klapt: nieuwe hardware neerploffen, PXE aanpassen, klaar.

Fin, moet nog eens uitzoeken hoe dat moet want het is een van de dingen die me echt niet lekker zitten qua config.

Zoiets *kun* je thuis trouwens ook doen, maar ik weet niet of Proxmox zinvol via PXE kan draaien en op de eoa manier zou ik dat ook niet willen. Proxmox is een volwaardige Debian dat zich het best thuis voelt op klassieke storage. ESXi is juist een heel klein, slank OS dat gemaakt is om van SD te draaien.

Oh, overweging die interessant is met Proxmox: Proxmox op ZFS zetten en dan mirroring. Klapt een van je OS disks, kun je door zonder dataverlies. :) (Ik heb dat hier nog niet gedaan maar overweeg dat thuis wel. SD d'r uit, 2 energiezuinige 3,5" disks er in, ZFS mirroring en gaan.)
iig weer wat leuk testwerk in het verschiet, bedankt voor de tips! Ik ga aan de slag en kom terug met mijn ervaringen!
Graag gedaan en leuk als je terug komt hier met je bevindingen. Altijd leuk om over dit soort dingen met anderen te sparren.
[...]
Zeker zijn die lxcś een leuke oplossing vanwege de lichtgewicht eigenschappen echter kan je het niet vergelijken met een VM. Door wat tests ben ik erachter gekomen dat unprivileged containers niet altijd goed werken bijv. met Bind9 DNS server dan heb je een een privileged container nodig en dan zit je niet zoals een VM "gescheiden" van je Host/Hypervisor. Dus security technisch heeft het wel een puntje van aandacht, het is niet de oplossing voor alles :z
Yep. Het concept is geweldig maar ik ben er zelf ook nog niet helemaal over uit waar ik het exact nuttig voor in ga zetten. (Zowel op kantoor, thuis als met de stichting.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • WeaZuL
  • Registratie: Oktober 2001
  • Laatst online: 25-06 09:46

WeaZuL

Try embedded, choose ARM!

unezra schreef op zaterdag 13 mei 2017 @ 15:19:
[...]


Je haalt daar even wat termen door elkaar. :)

Een HBA is niets anders dan "een domme RAID controller". (Om het even heel kort door de bocht te zeggen.) De term HBA heeft niets met glas te maken. Een willekeurige SATA/SAS controller die zijn poorten direct door geeft aan het OS kan als HBA beschouwd worden (dus in principe ook de domme SATA controller op je mainboard), al word de term in de regel gebruikt voor aparte controllers.

Zo'n controller zit grofweg in dezelfde prijsklasse als een RAID controller en er zijn RAID controllers die je kunt omflashen naar HBA. Ook zijn er RAID controllers waarbij je de RAID functionaliteit volledig uit kunt zetten waardoor het in feite een HBA word. De on-board controller (B120i) in de HP Microserver Gen8 is bijvoorbeeld zo'n geval. Dat ding kan eenvoudige RAID vormen aan (RAID0, 1, 10) maar kan in het BIOS worden omgezet en dan is het weinig meer dan een "domme" SATA controller.

Voor ZFS is dat wat je wilt. In fact, ik heb op kantoor een server waar een P420 RAID controller in zat, die ik d'r uit heb getrokken en vervangen door een LSI SAS 9207-8i. Reden: ZFS. (Nu nog ZoL op Ubuntu maar ik wil 'm ombouwen naar FreeNAS.)

Qua storage in je Proxmox machine, je hebt sowieso storage voor je OS nodig. Ik heb d'r een 120G SSD in zitten omdat ik ook dingen met LXC doe op dat ding. Is SSD dan nodig? Nah. Maar het is leuk om d'r een SSD in te hebben en het gaat allemaal nog iets harder. :)

Kortom, stop sowieso iets van storage in je Proxmox machine, da's handig.

Op kantoor heb ik een andere overweging. Daar draaien we ESXi vanaf SD kaarten. Daar is dus *geen* backup van. Nu weet ik dat NetApp in staat is PXE-boot te faciliteren en alle machines kunnen PXE boot aan. Wat ik daar wil doen is ESXi via PXE ontsluiten en de SD kaart er uit halen. Machines booten dan 100% van het netwerk. Ideaal, want backups van mijn ESXi (we backuppen immers de complete NetApp) en als de hardware of klapt: nieuwe hardware neerploffen, PXE aanpassen, klaar.

Fin, moet nog eens uitzoeken hoe dat moet want het is een van de dingen die me echt niet lekker zitten qua config.

Zoiets *kun* je thuis trouwens ook doen, maar ik weet niet of Proxmox zinvol via PXE kan draaien en op de eoa manier zou ik dat ook niet willen. Proxmox is een volwaardige Debian dat zich het best thuis voelt op klassieke storage. ESXi is juist een heel klein, slank OS dat gemaakt is om van SD te draaien.

Oh, overweging die interessant is met Proxmox: Proxmox op ZFS zetten en dan mirroring. Klapt een van je OS disks, kun je door zonder dataverlies. :) (Ik heb dat hier nog niet gedaan maar overweeg dat thuis wel. SD d'r uit, 2 energiezuinige 3,5" disks er in, ZFS mirroring en gaan.)
toon volledige bericht
Klopt, buiten het feit dat je bovenstaande verhaal (mij) weer een hoop duidelijk maakt betrap ik mijzelf erop dat ik niet goed zeg wat ik bedoel. Dat komt vooral omdat ik er 5 jaar geleden kort mee in aanraking ben geweest professioneel en verder nooit wat meer mee gedaan heb tot nu. Ik bedoelde eigenlijk Fiber channel. Ik zit nu te kijken naar Qlogic QLE246x-fibrechannel-hba om een point-to-point verbinding tussen het testsysteem en de FreeNAS op te zetten.

Eerst maar eens de weg bewandelen van FreeNAS installeren en 1 proxmox node. Daarna maar eens de opties bekijken van FreeNAS en FiberChannel.
Graag gedaan en leuk als je terug komt hier met je bevindingen. Altijd leuk om over dit soort dingen met anderen te sparren.
d:)b
Yep. Het concept is geweldig maar ik ben er zelf ook nog niet helemaal over uit waar ik het exact nuttig voor in ga zetten. (Zowel op kantoor, thuis als met de stichting.)
Ik heb het nu vooral draaien in een thuisomgeving maar in een VPS omgeving zou ik het niet zo snel toepassen. :/

NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

WeaZuL schreef op zaterdag 13 mei 2017 @ 16:47:
[...]


Klopt, buiten het feit dat je bovenstaande verhaal (mij) weer een hoop duidelijk maakt betrap ik mijzelf erop dat ik niet goed zeg wat ik bedoel. Dat komt vooral omdat ik er 5 jaar geleden kort mee in aanraking ben geweest professioneel en verder nooit wat meer mee gedaan heb tot nu. Ik bedoelde eigenlijk Fiber channel. Ik zit nu te kijken naar Qlogic QLE246x-fibrechannel-hba om een point-to-point verbinding tussen het testsysteem en de FreeNAS op te zetten.
Pardon my French, maar waarom zou je dat in vredesnaam willen?
FC heeft absoluut zijn toepassingen, maar zelfs op kantoor waar ik een set FAS2220 NetApps met dubbele controllers heb draaien heb ik geen behoefte aan FC. We doen daar gewoon alles over Ethernet.

Op dit moment zelfs met 8xGBit, in de toekomst willen we met 10GBit Ethernet aan de slag maar FC heb ik domweg geen toepassing voor.

Privé zou ik er ook niet snel aan beginnen. Misschien leuk om ervaring mee op te doen maar meer ook niet.
Eerst maar eens de weg bewandelen van FreeNAS installeren en 1 proxmox node. Daarna maar eens de opties bekijken van FreeNAS en FiberChannel.
Of gewoon lekker op ethernet blijven.
Goedkoper, flexibeler.

Ethernet jaag je over doodnormale switches. Geen bijzondere, storage-only infra nodig.

Ook daar, op kantoor is wat ik een SAN switch noem, een doodgewone 24xGBit L2 Ethernet Procurve. Kan het beter en sneller? Sure. Maar het is niet nodig. Toch draaien we daar een omgeving gedimensioneerd op 100 FTE op, inclusief VDI en rond de 70 VMWare vm's.

Wat is de reden dat je met FC aan de slag wil?
[...]
Ik heb het nu vooral draaien in een thuisomgeving maar in een VPS omgeving zou ik het niet zo snel toepassen. :/
Dat. Maar wie weet vergis ik me daarin. Als er redenen zijn om het toch te doen, zal ik het zeker doen.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Aherin
  • Registratie: Juli 2009
  • Laatst online: 20-06 10:22
ik gebruik zelf ook al heel lang proxmox, ik heb naast enkele windows vm's ook vm's voor linux en macos. Ik wil mezelf wat professioneler gaan maken, want veel meer dan " set and forget" ervaring heb ik niet met proxmox, niks als HA enzo :) het werkt, en het werkt goed! Dus ik ga dit topic zeker in de gaten houden :)

Acties:
  • 0 Henk 'm!

  • WeaZuL
  • Registratie: Oktober 2001
  • Laatst online: 25-06 09:46

WeaZuL

Try embedded, choose ARM!

Orii schreef op zaterdag 13 mei 2017 @ 18:44:
ik gebruik zelf ook al heel lang proxmox, ik heb naast enkele windows vm's ook vm's voor linux en macos. Ik wil mezelf wat professioneler gaan maken, want veel meer dan " set and forget" ervaring heb ik niet met proxmox, niks als HA enzo :) het werkt, en het werkt goed! Dus ik ga dit topic zeker in de gaten houden :)
Leuk, deel ook je ervaringen hier, die zijn erg welkom!

NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict


Acties:
  • 0 Henk 'm!

  • WeaZuL
  • Registratie: Oktober 2001
  • Laatst online: 25-06 09:46

WeaZuL

Try embedded, choose ARM!

unezra schreef op zaterdag 13 mei 2017 @ 17:37:
[...]


Pardon my French, maar waarom zou je dat in vredesnaam willen?
FC heeft absoluut zijn toepassingen, maar zelfs op kantoor waar ik een set FAS2220 NetApps met dubbele controllers heb draaien heb ik geen behoefte aan FC. We doen daar gewoon alles over Ethernet.

Op dit moment zelfs met 8xGBit, in de toekomst willen we met 10GBit Ethernet aan de slag maar FC heb ik domweg geen toepassing voor.

Privé zou ik er ook niet snel aan beginnen. Misschien leuk om ervaring mee op te doen maar meer ook niet.


[...]


Of gewoon lekker op ethernet blijven.
Goedkoper, flexibeler.

Ethernet jaag je over doodnormale switches. Geen bijzondere, storage-only infra nodig.

Ook daar, op kantoor is wat ik een SAN switch noem, een doodgewone 24xGBit L2 Ethernet Procurve. Kan het beter en sneller? Sure. Maar het is niet nodig. Toch draaien we daar een omgeving gedimensioneerd op 100 FTE op, inclusief VDI en rond de 70 VMWare vm's.

Wat is de reden dat je met FC aan de slag wil?


[...]


Dat. Maar wie weet vergis ik me daarin. Als er redenen zijn om het toch te doen, zal ik het zeker doen.
toon volledige bericht
Gewoon omdat het kan maw testen. Echter zoals reeds eerder gezegd, eerst maar eens ervaring op doen met FreeNAS icm ProxMox.

NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 25-06 12:52
unezra schreef op zaterdag 13 mei 2017 @ 15:19:
[...]

Oh, overweging die interessant is met Proxmox: Proxmox op ZFS zetten en dan mirroring. Klapt een van je OS disks, kun je door zonder dataverlies. :) (Ik heb dat hier nog niet gedaan maar overweeg dat thuis wel. SD d'r uit, 2 energiezuinige 3,5" disks er in, ZFS mirroring en gaan.)
Ik heb al een tijdje Proxmox op een SSD mirror draaien (2*100GB) + ik doe een ZFS send and receive van de OS disk naar een andere offsite ZFS machine.

Ik heb al eens enkele testen (virtueel) gesimuleerd en het is doodeenvoudig om van scratch je OS disk weer te send and receiven op een lege disk na een volledige crash. Zo eenvoudig zelf dat mijn volgende machine waarschijnlijk weer een singel OS disk gaat worden.

Leuk speelgoed :Y

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • WeaZuL
  • Registratie: Oktober 2001
  • Laatst online: 25-06 09:46

WeaZuL

Try embedded, choose ARM!

Net backups getrokken van al mijn containers en vm's via de webinterface naar een NFS backup share. Alles ging goed op de twee unprivileged containers na. Die hadden geen rechten om op de share te schrijven (UID/GID van 100000). Via dit topic kwam ik erachter dat je een temp dir kan configureren in /etc/vzdump.conf welke ervoor zorgt dat de uiteindelijke backup toch onder root privileges word gekopieerd naar de NFS share. Lang leve security 8)7

edit:

Net FreeNAS getracht te installeren (v9 stable en de laatste testing v11) blijkt dat mijn type moederbord Fujitsu D3417-b1 een ACPI issue heeft icm FreeBSD. Het is mij ook niet helemaal duidelijk waar het aan ligt. Vervolgens probeer ik FreeNAS op mijn andere ProxMox node te installeren een B85-PRO4 van ASROCK wordt de netwerkkaart niet herkend :/ Morgen nieuwe ronden, nieuwe kansen 8)7

[ Voor 27% gewijzigd door WeaZuL op 15-05-2017 23:30 ]

NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 19-06 19:05

MvL

Hoe kan ik het beste met ownerships em permissies omgaan?

Ik heb nu Sonarr in een LXC container geïnstalleerd, als root. Ik moet nog uitzoeken hoe ik dan onder een user kan doen. Sonarr zeurt nu dat deze geen schrijf toegang heeft op de NFS share op mijn OpenMediaVault nas...


Update:

Ik heb het kunnen oplossen door anonuid=xxx,anongid=xxx in de extra opties toe te voegen van mijn NFS share. Zijn er nog andere opties?

[ Voor 23% gewijzigd door MvL op 27-05-2017 12:34 ]


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

Call me stupid, maar vandaag dankzij een scherpe observatie in het Proxmox IRC kanaal (##proxmox op FreeNode) realiseerde ik me dat een HA cluster altijd uit 3 nodes of meer bestaat want quorum.

Staat weinig over beschreven in de Proxmox cluster documentatie (https://pve.proxmox.com/wiki/Cluster_Manager) dus op de eoa manier ben ik er vanuit gegaan dat een HA cluster met 2 nodes prima kan.

Zijn er mensen met ervaring met 2-node en 3-node HA clusters en is het eventueel verantwoord / acceptabel om een 3e cluster node puur voor quorum op te tuigen die verder eigenlijk te licht is serieus taken over te nemen van andere nodes?

Dus een soort van weight te geven waarbij de 3e node enkel dient om een split-brain situatie te voorkomen maar geen vm's kan en mag overnemen of slechts een zeer beperkte subset?

Andere vraag, wanneer ik gebruik wil maken van GlusterFS en dus geen centrale storage (want SPOF), is er dan ook een manier te verzinnen? (GlusterFS kan en mag over meerdere nodes maar als ik een minimale 3e node wil toevoegen, zou ik die ook liefst zonder serieuze storage willen uitrusten.)

[ Voor 15% gewijzigd door unezra op 31-05-2017 20:56 ]

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • DRAFTER86
  • Registratie: April 2002
  • Laatst online: 06:34
Inmiddels ben ik ook flink aan het spelen met Proxmox, en heb ik een aantal containers draaien voor PostgreSQL, Home Assistant, InfluxDB etc.
Het volgende projectje is een OpenVPN server, waarmee ik van buiten af verbinding wil maken met mijn thuisnetwerk. Dit draait momenteel op een Raspberry Pi, maar deze heeft regelmatig SD kaart problemen.
Nu loop ik hiermee toch een beetje tegen mijn beperkte kennis van networking en routering aan, maar ik zal proberen mijn setup zo goed mogelijk te beschrijven.

Het doel: van buiten (4G / mobiel) 'inbellen' op mijn thuisnetwerk (bedraad, DHCP en DNS via Ziggo modem), via OpenVPN.
Opzet: LXC container met Debian Jessie en OpenVPN, een port forward in de Ziggo modem naar het LAN IP van de LXC container.
Wat werkt er: Ik krijg met mijn telefoon (Android) VPN verbinding met de OpenVPN server via 4G
Wat werkt er niet: Ik kan geen enkel LAN IP pingen/bereiken

Nu is mijn kennis van routing zo mogelijk nog beperkter als mijn kennis van LXC, maar een aantal (volgens mij) relevante config files (of delen er van):

Proxmox host /etc/network/interfaces (bridged network):
code:
1
2
3
4
5
6
7
8
9
10
11
auto lo
iface lo inet loopback

auto vmbr0
iface vmbr0 inet static
        address 192.168.1.50
        netmask 255.255.255.0
        gateway 192.168.1.1
        bridge_ports eth0
        bridge_stp off
        bridge_fd 0


LXC config file met allow voor het aanmaken van de TUN device:
code:
1
2
3
4
5
6
7
8
9
arch: amd64
cores: 1
hostname: vpn.local
memory: 512
net0: name=eth0,bridge=vmbr0,gw=192.168.1.50,hwaddr=CE:15:7A:BB:57:A1,ip=192.168.1.56/24,type=veth
ostype: debian
rootfs: local-zfs:subvol-105-disk-1,size=8G
swap: 512
lxc.cgroup.devices.allow = c 10:200 rwm


OpenVPN config:
code:
1
2
3
4
5
6
7
8
9
10
11
proto udp
dev tun
server 10.8.0.0 255.255.255.0
duplicate-cn
keepalive 10 120
comp-lzo
user nobody
group nogroup
persist-key
persist-tun
verb 5


Iemand een idee wat hier aan de hand is? Moet ik handmatig routes toevoegen aan de VPN verbinding? Ligt het aan een firewall (voor zover ik weet staat die uit op zowel host als container)?

Acties:
  • 0 Henk 'm!

  • WeaZuL
  • Registratie: Oktober 2001
  • Laatst online: 25-06 09:46

WeaZuL

Try embedded, choose ARM!

Wellicht ip forwarding inschakelen op de OpenVPN container/server? Dit is wellicht? niet het topic om dit te berspreken.

#Forward traffic via VPN
#In Server enable runtime IP forwarding:

echo 1 > /proc/sys/net/ipv4/ip_forward

#Edit /etc/sysctl.conf uncomment the following line to make it permanent:

net.ipv4.ip_forward = 1


edit:
nuannce aangebracht

[ Voor 4% gewijzigd door WeaZuL op 08-06-2017 22:40 ]

NSLU2, SheevaPlug, Pogoplug, Espressobin and Odroid H2 addict


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 25-06 12:52
Dit al eens bekeken?

Het kan aan zoveel liggen...

[ Voor 6% gewijzigd door A1AD op 08-06-2017 14:50 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • Yarisken
  • Registratie: Augustus 2010
  • Laatst online: 00:33
Ik ken openvpn niet maar wat ik nog van vroeger weet is dat je met vpn 2 fases hebt. Fase 1 de eigenlijke verbinding en fase 2 is de subnet die je via vpn kan bereiken. Kan zijn dat je nog je je eigen subnet moet toevoegen ergens.

Acties:
  • 0 Henk 'm!

  • kooimens
  • Registratie: Augustus 2012
  • Laatst online: 25-06 10:08
Momenteel ook de mogelijkheden van proxmox aan het bekijken. Nu nog een esxi server draaien, maar de mogelijkheid van zfs en daardoor geen aparte 'NAS' VM meer nodig lijkt me handig.

Ik kom er nu alleen niet helemaal uit qua opslag. Draai nu een test machine met 1 ssd van 128 gb en een hdd van 750 gb.
(Ik wil in de uiteindelijke setup 2x ssd en 2x 3 tb in 2x raid 1 gaan draaien. Voor zover ik heb kun achterhalen via het zfs topic betekent dit eigenlijk 2x een zfs pool met raid 1.)

De ssd(s) moeten dan de OS, VM's en containers gaan hosten en de HDD is voor de opslag.

Nu heb ik het os geinstalleerd op de ssd, in nu nog raid0. Ik kan de HDD in de web front-end zien, maar krijg het niet voor elkaar om een aparte ZFS pool aan te maken of uberhaupt deze schijf ook maar van een bepaalde formatie te voorzien. Is dit niet mogelijk via de web UI of mis ik iets?

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

De pools aanmaken kan inderdaad niet via de web UI. Zodra je de pools hebt aangemaakt kan je ze wel toevoegen voor gebruik in de web UI.

Acties:
  • 0 Henk 'm!

  • Hugo!
  • Registratie: September 2015
  • Laatst online: 25-06 15:08
Ik heb een vraag over de web interface van Proxmox.
Stel ik wil de interface over internet bereiken. Welke internet snelheid is nodig om deze verbinding zonder haperingen te laten verlopen?
Ook ben ik benieuwd hoe je de beveiliging verbeterd. Je kan waarschijnlijk een VPN opzetten en op die manier je machines veilig bereiken. Maar zijn er ook mensen die een https certificaat gebruiken?

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Zolang de internetverbinding maar stabiel is is het al voldoende. Enkel voor de ingebouwde VNC-client is iets aan bandbreedte handig, maar ook dat valt best mee naar huidige maatstaven (al kan ik een native VNC- of RDP-client aanraden, die werken vaak veel fijner).
Wat betreft certificaten, bedoel je dan het gebruiken van een client-certificaat?

Acties:
  • 0 Henk 'm!

  • Hugo!
  • Registratie: September 2015
  • Laatst online: 25-06 15:08
Alvast bedankt voor je antwoord. Misschien moet ik duidelijker zijn in wat ik wil en dat jullie kunnen zeggen of dit kan.

Stel ik wil mijn Proxmox server en de daarbij behorende virtuele machines benaderen over internet. Wat is hiervoor de beste manier? Het liefste zou ik me server altijd benaderen via de browser.

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 25-06 12:52
Dat hoort hier wel op zijn plaats: https://doc.pfsense.org/i...lizing_pfSense_on_Proxmox

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 23:07
Gekkejantje schreef op zaterdag 24 juni 2017 @ 19:13:
Alvast bedankt voor je antwoord. Misschien moet ik duidelijker zijn in wat ik wil en dat jullie kunnen zeggen of dit kan.

Stel ik wil mijn Proxmox server en de daarbij behorende virtuele machines benaderen over internet. Wat is hiervoor de beste manier? Het liefste zou ik me server altijd benaderen via de browser.
Ik maak gebruik van guacomele achter een reverse proxy oOo

Acties:
  • 0 Henk 'm!

  • raven22
  • Registratie: Januari 2004
  • Laatst online: 22:27
Leuk dat ik dit forum aantref, ben al vele jaren een thuis gebruiker van Proxmox. Voornamelijk lxc en een paar vm's.
Ben vorige week overgestapt op beta2 van versie 5.
Draait prima met bestaande containers, maar als ik nieuwe containers (debian stretch) aanmaak dan zijn deze zeer traag benaderbaar met putty. Zijn er meer zulke ervaringen?

Acties:
  • +4 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:42

Compizfox

Bait for wenchmarks

Proxmox 5 is uit!

https://forum.proxmox.com...ox-ve-5-0-released.35450/

Toestemming nodig voor bekijken van YouTube

Op deze plek staat ingesloten content die van YouTube afkomstig is. Het tonen van deze inhoud kan ertoe leiden dat YouTube persoonlijke gegevens zoals je IP-adres verwerkt en/of cookies op jouw computer of ander apparaat zet. Hiervoor moet je eerst expliciet toestemming geven voor Sociale media.

Bekijk op YouTube
Whats new in Proxmox VE 5.0

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

Yay!
Komende week / volgende week eens mee spelen en eens zien of het mogelijk is een 2-node cluster zonder centrale storage op te bouwen.

Die nieuwe replicatie feature klinkt wel heel interessant. Wat ik me wel af vraag maar niet helemaal zie, is of dat nu ook werkt als je gebruik maakt van ZFS als backing, maar je vm's in reguliere qcow2 images hebt zitten.

Liefst maak ik opnieuw gebruik van qcow2 voor mijn vm's, maar als dan die replicatie feature niet werkt is dat niet niet zo handig. :)

Ook wel interessant is dat het lijkt of dit ook met LXC werkt. Die zijn tot nu toe hard gebonden aan 1 hypervisor en dat maakt LXC minder bruikbaar.

Eens een weekend plannen om hier thuis de boel te upgraden nadat ik op kantoor wat ervaring heb opgedaan met 5.

[ Voor 20% gewijzigd door unezra op 04-07-2017 23:21 ]

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Vanwaar de voorkeur voor qcow2? Welke voordelen biedt dat ten opzichte van zfs? Het enige dat ik me kan bedenken als schijnvoordeel is dat het bestanden zijn in plaats van block devices.

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

dcm360 schreef op dinsdag 4 juli 2017 @ 23:31:
Vanwaar de voorkeur voor qcow2? Welke voordelen biedt dat ten opzichte van zfs? Het enige dat ik me kan bedenken als schijnvoordeel is dat het bestanden zijn in plaats van block devices.
Migratie van lokale naar shared storage (NAS) is veel eenvoudiger als het al qcow2 images zijn.

Daarbij is het oppakken van een vm eenvoudiger, juist omdat het een bestand is in plaats van een block device. Da's geen schijn voordeel, het maakt het moven van individuele vm's handiger.

Belangrijkste vind ik echter dat migratiepad.

Overigens gebruik ik beiden, onderliggend ZFS maar daar binnen directories met images. Best of both. Migratiepad al voorbereid maar wel alle features van ZFS.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

unezra schreef op dinsdag 4 juli 2017 @ 23:45:
[...]


Migratie van lokale naar shared storage (NAS) is veel eenvoudiger als het al qcow2 images zijn.

Daarbij is het oppakken van een vm eenvoudiger, juist omdat het een bestand is in plaats van een block device. Da's geen schijn voordeel, het maakt het moven van individuele vm's handiger.
Dan gaat het dus om een non-ZFS NAS? Dat maakt de keuze inderdaad al wel begrijpelijker. Al kan je uiteraard nog steeds een ZFS send doen naar een bestand en elders weer een receive vanaf een bestand.

Hoe werkt jouw strategie overigens in combinatie met snapshots?

[ Voor 43% gewijzigd door dcm360 op 04-07-2017 23:54 ]


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

dcm360 schreef op dinsdag 4 juli 2017 @ 23:53:
[...]

Dan gaat het dus om een non-ZFS NAS? Dat maakt de keuze inderdaad al wel begrijpelijker. Al kan je uiteraard nog steeds een ZFS send doen naar een bestand en elders weer een receive vanaf een bestand.
Thuis heb ik een ZFS NAS (FreeNAS) maar ik gebruik NFS, geen iSCSI.
Dus mijn Proxmox hypervisors hebben geen weet van de onderliggende ZFS laag op de NAS. :)

Thuis heb ik dus overigens inderdaad centrale storage, het is met de stichting dat we nu nog lokale storage doen maar we al rekening hebben gehouden met het migratiepad. Stel dat eea zo groot word dat we naar een multinode cluster gaan, dan is centrale storage wel heel fijn en in feite bouw ik dan de situatie na die ik thuis ook heb, maar dan met iets zwaardere hardware.
Hoe werkt jouw strategie overigens in combinatie met snapshots?
ZFS maakt snapshots op ZFS niveau, ik maak geen snapshots op hypervisor niveau. Twijfel nog wel aan een combinatie van die 2 omdat hypervisor-snapshots heel eenvoudig via de GUI te maken en terug te zetten zijn. ZFS snapshots hebben dat voordeel niet, maar zijn wel (offsite) te repliceren.

Toch ook eens kijken of in de snapshot management van Proxmox er verbeteringen zijn, ik heb er al een tijdje niet naar gekeken en dacht dat het wat beperkingen had maar weet dus niet meer welke. Wellicht dat het inmiddels dusdanig verbeterd is dat ik beiden kan inzetten.

Fin, eerst komende weken dus op kantoor eens spelen met de nieuwe 5, dat word weer een iets andere setup dan ik thuis en bij de stichting gebruik. (Want 2-node cluster zonder centrale storage maar wel met replicatie van data. Daarom ben ik ook heel benieuwd hoe die nieuwe feature werkt, dat zou wel eens *de* oplossing kunnen zijn die ik op kantoor nodig ga hebben.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 25-06 17:57
En v5 is uitgebracht :-)

is everything cool?


Acties:
  • +1 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 25-06 12:52
Misschien scrol je best eens wat omhoog :+

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • +1 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 25-06 17:57
A1AD schreef op woensdag 5 juli 2017 @ 09:15:
[...]


Misschien scrol je best eens wat omhoog :+
Oh, ik zat in de trein en dacht als good samaritan dat hier even te posten. Zag het filmpje zo snel niet op mijn mobiel :9

is everything cool?

Pagina: 1 2 ... 57 Laatste