Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

ElMacaroni schreef op zaterdag 19 december 2020 @ 22:05:
[...]


VM kapot als in?
Als Windows fubar is dan steek je er een ISO tegenaan en doet een reinstall op dezelfde VM, dan activeert 'ie 'm gewoon weer.

Maar de truuk is natuurlijk snapshot voor je gaat experimenteren in je VM en rollback als het mis gaat.
Sanoid is ook leuk!
Ja idd, fubar door whatever gepruts, stel dat je dan geen snapshot hebt... Domme vraag wellicht, maar op een local PC zou je gewoon booten vanaf een USB stick of disc door op een toets te drukken, maar hoe doe je dat bij een VM?

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • +2 Henk 'm!

  • ElMacaroni
  • Registratie: November 2012
  • Laatst online: 12-09 20:15

ElMacaroni

Laat de zon maar komen!

Druk op <ESC> in de console bij het starten van de VM voor een bootmenu, of pas de Boot-order aan onder "Options"

SE2200+14xSF170S & SE1500M+4xTSM-375


Acties:
  • 0 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 16:31
Zenix schreef op zaterdag 19 december 2020 @ 21:48:
[...]


Ik heb gewoon een LXC container (Debian) voor Docker, werkt al maanden prima:
https://discuss.linuxcont...container-in-proxmox/3828

Dit heb ik gedaan:

#1 Docker installeren
#2 LXC config aanpasen en dit erbij zetten:
features: keyctl=1,nesting=1
#3 LXC rebooten en testen
Ik heb geen 'niet-unprivileged' LXC gemaakt. Volgens mij werkt Docker dan direct zonder gedoe :) Én je kunt mountpoints gebruiken, die werken anders ook niet.

Acties:
  • 0 Henk 'm!

  • Zenix
  • Registratie: Maart 2004
  • Laatst online: 03:56

Zenix

BOE!

lolgast schreef op zaterdag 19 december 2020 @ 22:16:
[...]

Ik heb geen 'niet-unprivileged' LXC gemaakt. Volgens mij werkt Docker dan direct zonder gedoe :) Én je kunt mountpoints gebruiken, die werken anders ook niet.
Ik wil dat juist niet, want het is toch minder veilig. Bindmounts werken ook bij beiden type containers, alleen is het bij privileged wel makkelijker.

Acties:
  • 0 Henk 'm!

  • tomdh76
  • Registratie: Maart 2015
  • Laatst online: 11:54
krijn1985 schreef op woensdag 9 december 2020 @ 10:18:
[...]


Ik heb nu iets meer dan 3 jaar een Crucial MX300 m.2 van 500GB in gebruik en wearout is volgens Proxmox 11%. Ding staat 24/7 aan en zowel desktop als Docker vm's staan hier gewoon op.
Ik heb proxmox nu een paar maanden en wearout was al 7% op een nvme ssd. Ik begreep dat dit komt omdat ik mijn ssd als zfs pool heb ingezet waarop de vm containers. Nu de ssd omgezet naar lvm en daarop de containers. Hopelijk gaat dit beter.

Hierbij wel gelijk een vraag hoe en of jullie backups testen. Ik had van alle vm's een backup om terug te zetten na het formateren van de ssd. Nu probeerde ik ze terug te zetten en de meesten werkten wel maar een aantal hadden een of andere checksum error. Dus die was ik allemaal kwijt. Terwijl er dus nergens in het backup proces iets gemeld word...Moet je dan altijd na een backup restoren om zeker te weten dat het goede backups zijn? En welke methode gebruiken jullie? Ik gebruikte mode snapshot maar gebruik nu maar stop, misschien dat dat veiliger is?

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:50
tomdh76 schreef op zondag 20 december 2020 @ 21:38:
[...]
.Moet je dan altijd na een backup restoren om zeker te weten dat het goede backups zijn?
Voor de 100% zekerheid wel ja. Hier draait alles op ZFS snapshots wat betreft backups.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 13-09 12:42

zeroday

There is no alternative!

Hierbij wel gelijk een vraag hoe en of jullie backups testen. Ik had van alle vm's een backup om terug te zetten na het formateren van de ssd. Nu probeerde ik ze terug te zetten en de meesten werkten wel maar een aantal hadden een of andere checksum error. Dus die was ik allemaal kwijt. Terwijl er dus nergens in het backup proces iets gemeld word...Moet je dan altijd na een backup restoren om zeker te weten dat het goede backups zijn? En welke methode gebruiken jullie? Ik gebruikte mode snapshot maar gebruik nu maar stop, misschien dat dat veiliger is?
Ik gebruik PBS ..van proxmox, maakt in ieder geval werkende backups, hier en daar gaat het fout met een time-out
heb verificatie ook maar aangezet

Enige wat ik nog niet voor elkaar krijgt is dat ik 7 dagen backup krijg en dan 1 backup van de week, en dan 1 backup van een maand.

Maar goed..
Het werkt ;)

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • tomdh76
  • Registratie: Maart 2015
  • Laatst online: 11:54
CurlyMo schreef op zondag 20 december 2020 @ 21:51:
[...]

Voor de 100% zekerheid wel ja. Hier draait alles op ZFS snapshots wat betreft backups.
Dat zfs gebeuren heb ik moeten verlaten omdat daarbij mijn ssd snel kapot zullen gaan.

Acties:
  • 0 Henk 'm!

  • DRAFTER86
  • Registratie: April 2002
  • Laatst online: 14:56
tomdh76 schreef op maandag 21 december 2020 @ 17:48:
[...]


Dat zfs gebeuren heb ik moeten verlaten omdat daarbij mijn ssd snel kapot zullen gaan.
Hoe dat zo? Hier nergens last van, Proxmox op een enkele 120GB SSD, dus zowel OS als data.

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:50
tomdh76 schreef op maandag 21 december 2020 @ 17:48:
[...]


Dat zfs gebeuren heb ik moeten verlaten omdat daarbij mijn ssd snel kapot zullen gaan.
Hier ook geen enkel probleem met SSD's en ZFS. Ik draai er al vele jaren op.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • tomdh76
  • Registratie: Maart 2015
  • Laatst online: 11:54
DRAFTER86 schreef op maandag 21 december 2020 @ 17:51:
[...]


Hoe dat zo? Hier nergens last van, Proxmox op een enkele 120GB SSD, dus zowel OS als data.
Ik heb er geen verstand van maar het viel me op bij een nieuwe ssd dat ik na een paar maanden al een wearout van 7% had. Dus die zou het na een jaar al wrsch gaan begeven. En ik dit topic kreeg ik het volgende advies:
maxxie85 schreef op zondag 8 november 2020 @ 13:33:
[...]


Welk bestandssysteem gebruik je op die SSD?
ZFS voert veel writes uit en is over het algemeen niet aangeraden op consumer-level SSD's.
Misschien kan je in de SMART data terug vinden wat de waarde is voor de "Total Bytes Written"
maxxie85 schreef op zondag 8 november 2020 @ 15:06:
[...]


Wat je kan doen is backup maken van je containers en VM's naar een NAS of externe harde schijf. En dan proxmox opnieuw installeren met LVM op Ext4. Je verliest wel de mogelijkheid voor snapshots, maar je SSD wordt gespaard.

ZFS schrijft voor elk data blok ook een redundancy weg, verder worden er verschillende caches bijgehouden wst voor nog meer writes zorgt
Dus toen alles maar LVM overgezet, maar wrsch komt het dus dat ik een simpele samsung nvme ssd heb gekocht en niet een enterprise ssd. Als jij geen wearout hebt zal het daar wel aan liggen

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:50
tomdh76 schreef op maandag 21 december 2020 @ 18:03:
[...]
Dus toen alles maar LVM overgezet, maar wrsch komt het dus dat ik een simpele samsung nvme ssd heb gekocht en niet een enterprise ssd. Als jij geen wearout hebt zal het daar wel aan liggen
Ik doe alles met standaard Crucial SSD's.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • tomdh76
  • Registratie: Maart 2015
  • Laatst online: 11:54
CurlyMo schreef op maandag 21 december 2020 @ 18:08:
[...]

Ik doe alles met standaard Crucial SSD's.
En wat is jouw wearout?

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:50
code:
1
2
3
4
Device Model:     M4-CT256M4SSD2
  9 Power_On_Hours          0x0032   100   100   001    Old_age   Always       -       24163
173 Wear_Leveling_Count     0x0033   068   068   010    Pre-fail  Always       -       985
202 Perc_Rated_Life_Used    0x0018   068   068   001    Old_age   Offline      -       32


code:
1
2
3
Device Model:     CT480BX500SSD1
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       4001
202 Percent_Lifetime_Remain 0x0030   086   086   001    Old_age   Offline      -       14


De tweede SSD heeft Wear_Leveling_Count niet.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • tomdh76
  • Registratie: Maart 2015
  • Laatst online: 11:54
CurlyMo schreef op maandag 21 december 2020 @ 18:21:
[...]

code:
1
2
3
4
Device Model:     M4-CT256M4SSD2
  9 Power_On_Hours          0x0032   100   100   001    Old_age   Always       -       24163
173 Wear_Leveling_Count     0x0033   068   068   010    Pre-fail  Always       -       985
202 Perc_Rated_Life_Used    0x0018   068   068   001    Old_age   Offline      -       32


code:
1
2
3
Device Model:     CT480BX500SSD1
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       4001
202 Percent_Lifetime_Remain 0x0030   086   086   001    Old_age   Offline      -       14


De tweede SSD heeft Wear_Leveling_Count niet.
Thx, deze getallen heeft mijn ssd niet. En als je kijkt in de GUI onder pve, en dan disks? Bij mij is dat dus 7% bij wearout

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:50
tomdh76 schreef op maandag 21 december 2020 @ 18:26:
[...]


Thx, deze getallen heeft mijn ssd niet. En als je kijkt in de GUI onder pve, en dan disks? Bij mij is dat dus 7% bij wearout
Resp. dus 32% en 14% volgens de Proxmox interpretatie van de SMART waardes.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • tomdh76
  • Registratie: Maart 2015
  • Laatst online: 11:54
CurlyMo schreef op maandag 21 december 2020 @ 18:28:
[...]

Resp. dus 32% en 14% volgens de Proxmox interpretatie van de SMART waardes.
Dat valt dan wel mee als je er al jaren op draait. Misschien ligt het aan mijn containers; ik heb er wel aardig wat; plex, roon, home assistant en nog linux mint. Ik had ook al 10 Tb aan data geschreven in een maand tijd... :-) .

Acties:
  • +1 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:50
tomdh76 schreef op maandag 21 december 2020 @ 18:37:
[...]


Dat valt dan wel mee als je er al jaren op draait. Misschien ligt het aan mijn containers; ik heb er wel aardig wat; plex, roon, home assistant en nog linux mint. Ik had ook al 10 Tb aan data geschreven in een maand tijd... :-) .
Ik heb de Power_On_Hours ook benoemd. Dus concludeer maar zelf. Resp. de waardes waar jij aan refereert:
code:
1
2
241 Total_LBAs_Written      0x0000   100   253   000    Old_age   Offline      -       13629466792
242 Total_LBAs_Read         0x0000   100   253   000    Old_age   Offline      -       26007807072

en
code:
1
246 Total_LBAs_Written      0x0032   100   100   000    Old_age   Always       -       42932872895


De tweede heeft de read waarde niet.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • tomdh76
  • Registratie: Maart 2015
  • Laatst online: 11:54
CurlyMo schreef op maandag 21 december 2020 @ 18:39:
[...]

Ik heb de Power_On_Hours ook benoemd. Dus concludeer maar zelf. Resp. de waardes waar jij aan refereert:
code:
1
2
241 Total_LBAs_Written      0x0000   100   253   000    Old_age   Offline      -       13629466792
242 Total_LBAs_Read         0x0000   100   253   000    Old_age   Offline      -       26007807072

en
code:
1
246 Total_LBAs_Written      0x0032   100   100   000    Old_age   Always       -       42932872895


De tweede heeft de read waarde niet.
Dank je, maar ik ben te noob om deze waarden te interpreteren. Ik vond het wearout percentage van mijn ssd schrikbarend dus toen maar actie ondernomen. Al die andere SMART waardes zeggen me niets.

Acties:
  • 0 Henk 'm!

  • RL600
  • Registratie: April 2012
  • Laatst online: 12-07 17:55
Hey allen,

Ik heb proxmox geinstalleerd op twee SSD's (beide 120GB). Nou is er een local en een local-zfs (ZFS gekozen tijdens installatie) opslag plek in the proxmox web UI. Nou zie ik in datacentrum dat 1 van de twee een folder is, maar waarom is er niet gewoon 1 plek waar je alles kan zetten? Ik zie de reden niet waarom dit twee moeten zijn waarvan eentje gewoon een folder is?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 16:42
Volgens mij is dat gewoon 'standaard' configuratie die er van oudsher in zit (die Local Datastore).
Ik dacht dat je hem ook niet uit kon zetten, maar alleen kan disablen.

Even niets...


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 27-07 23:41
RL600 schreef op dinsdag 22 december 2020 @ 10:25:
Hey allen,

Ik heb proxmox geinstalleerd op twee SSD's (beide 120GB). Nou is er een local en een local-zfs (ZFS gekozen tijdens installatie) opslag plek in the proxmox web UI. Nou zie ik in datacentrum dat 1 van de twee een folder is, maar waarom is er niet gewoon 1 plek waar je alles kan zetten? Ik zie de reden niet waarom dit twee moeten zijn waarvan eentje gewoon een folder is?
Local-zfs is de plaats waar je lxc datasets komen te staan.
Local is ergens een locatie op je root filesysteem waar iso's, template's, backups,... staan.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • RL600
  • Registratie: April 2012
  • Laatst online: 12-07 17:55
A1AD schreef op dinsdag 22 december 2020 @ 12:41:
[...]


Local-zfs is de plaats waar je lxc datasets komen te staan.
Local is ergens een locatie op je root filesysteem waar iso's, template's, backups,... staan.
In local-zfs kan een VM disk ook staan. In de local directory kan je daadwerkelijk alles neerzetten. Feitelijk allemaal waar, maar waarom? Ik zie geen reden waarom je het zou opdelen.. Je kan bij een nieuwe installatie toch prima 1 plek hebben en daar alles neerzetten.

Acties:
  • 0 Henk 'm!

  • RL600
  • Registratie: April 2012
  • Laatst online: 12-07 17:55
Ik denk dat ik het antwoord heb: https://forum.proxmox.com...to-local-lvm-drive.15711/

Kort samengevat:
Backups are stored as files, files are stored on filesystems.
local-zfs is geen filesystem. Aangezien een VM of een CT volume dat niet is kan die daar staan. Wil je ook een backup lokaal opslaan dan heb je een extra directory nodig (local).

Dan blijft het gek dat local-zfs er is en niet gewoon alles in local staat?

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 27-07 23:41
RL600 schreef op dinsdag 22 december 2020 @ 14:34:
[...]


In local-zfs kan een VM disk ook staan. In de local directory kan je daadwerkelijk alles neerzetten. Feitelijk allemaal waar, maar waarom? Ik zie geen reden waarom je het zou opdelen.. Je kan bij een nieuwe installatie toch prima 1 plek hebben en daar alles neerzetten.
Dat is wat ik zeg. Lees: DATASETS, datasets zijn geen directories.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • +1 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 17:00
RL600 schreef op dinsdag 22 december 2020 @ 14:39:
Ik denk dat ik het antwoord heb: https://forum.proxmox.com...to-local-lvm-drive.15711/

Kort samengevat:

[...]


local-zfs is geen filesystem. Aangezien een VM of een CT volume dat niet is kan die daar staan. Wil je ook een backup lokaal opslaan dan heb je een extra directory nodig (local).

Dan blijft het gek dat local-zfs er is en niet gewoon alles in local staat?
Met local-zfs schrijf je de gevens van je virtuele disks op blocklevel niveau en op de local doe je dat op filelevel niveau naar een filesystem.

Doordat je bij zfs op blocklevel wegschrijft krijg je er andere voordelen er voor terug denk o.a. hogere performance en bij replicatie hoef je enkel de gewijzigde blocken te repliceren i.p.c. het hele bestand.

En proxmox moet geinstalleerd worden op een filesystem waardoor je dus zowel local als local-zfs krijgt

Acties:
  • +1 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 15:56
-

[ Voor 98% gewijzigd door GioStyle op 30-10-2022 07:14 ]


Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

GioStyle schreef op dinsdag 22 december 2020 @ 15:07:
Als je een 1TB nvme ssd hebt liggen voor Proxmox, hoe zouden jullie dat dan indelen? Ik dacht gewoon aan 64GB voor local en de rest voor local-zfs?
Ik heb een 60GB 2,5" SSD gebruikt voor Proxmox OS, die had ik nog liggen en kost toch niets. Ik heb de NVME gebruikt voor local storage.

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

GioStyle schreef op dinsdag 22 december 2020 @ 15:07:
Als je een 1TB nvme ssd hebt liggen voor Proxmox, hoe zouden jullie dat dan indelen? Ik dacht gewoon aan 64GB voor local en de rest voor local-zfs?
De gehele disk voor beiden. Tenzij je zeer specifieke redenen hebt om dat niet te willen (zoals de Proxmox-installatie zelf niet op ZFS).

Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 17:00
GioStyle schreef op dinsdag 22 december 2020 @ 15:07:
Als je een 1TB nvme ssd hebt liggen voor Proxmox, hoe zouden jullie dat dan indelen? Ik dacht gewoon aan 64GB voor local en de rest voor local-zfs?
Dat gaat niet

Acties:
  • +1 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:50
Gaat prima. Het is niet erg als je het niet zeker weet ;)

code: /etc/pve/storage.cfg
1
2
3
4
5
6
7
8
9
dir: local
        path /var/lib/vz
        content iso,vztmpl,backup

zfspool: local-zfs
        pool data/vm
        content images,rootdir
        mountpoint /data/vm
        sparse 1

[ Voor 8% gewijzigd door CurlyMo op 22-12-2020 20:56 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 17:00
CurlyMo schreef op dinsdag 22 december 2020 @ 20:48:
[...]


Gaat prima. Het is niet erg als je het niet zeker weet ;)

code: /etc/pve/storage.cfg
1
2
3
4
5
6
7
8
9
dir: local
        path /var/lib/vz
        content iso,vztmpl,backup

zfspool: local-zfs
        pool data/vm
        content images,rootdir
        mountpoint /data/vm
        sparse 1
O nice, goed om te weten. Hoe heb ke dat gedaan als ik vragen mag ? :P

Met een standaard install op mijn testcluster kreeg ik het niet voor elkaar. (Volgens de documentatie/forum)

Acties:
  • +1 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:50
powerboat schreef op dinsdag 22 december 2020 @ 22:28:
[...]


O nice, goed om te weten. Hoe heb ke dat gedaan als ik vragen mag ? :P

Met een standaard install op mijn testcluster kreeg ik het niet voor elkaar. (Volgens de documentatie/forum)
Letterlijk wat je daar ziet. Het betreffende bestand aanpassen.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 17:00
CurlyMo schreef op dinsdag 22 december 2020 @ 22:35:
[...]

Letterlijk wat je daar ziet. Het betreffende bestand aanpassen.
Oh nevermind :z zat weer eens niet op te letten. Ging om een andere usecase in mijn testcluster m.b.t. CEPH.

Daar moet je een bootdisk hebben en disk voor data. Je kan geen aparte partities gebruiken. 8)7

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 15:56
-

[ Voor 99% gewijzigd door GioStyle op 30-10-2022 07:15 ]


Acties:
  • +1 Henk 'm!

  • Zenix
  • Registratie: Maart 2004
  • Laatst online: 03:56

Zenix

BOE!

GioStyle schreef op zaterdag 26 december 2020 @ 15:01:
Ik heb toch nog even meningen nodig over mijn setup. Ik draai thuis momenteel het volgende:

Windows Server 2019 met Hyper-V op een 1TB nvme ssd. Op de Hyper-V host heb ik 3 VM's:

1.) Debian 10 met Docker + 6x5TB in raidz2 (disk passthrough)
2.) Windows Server 2016 Active Directory + DNS + DHCP + 1TB nvme ssd (disk passthrough)
3.) Windows Server 2016 met Exchange 2016

Ik zou graag willen overstappen naar het volgende:

Schone Debian install met daarop Proxmox VE plus daarop bovenstaande VM's.

Wat ik wil is mogelijk toch? Ik weet nog niet helemaal zeker of ik de VM's ga migreren of opnieuw ga beginnen.

Hoe kan ik het best de 1TB nvme ssd dan indelen? Ik had zelf gedacht voor 64GB voor Debian + Proxmox VE en de rest voor de VM's.

Iemand nog tips verder?
Proxmox is Debian met een Ubuntu LTS kernel, dus die moet je niet apart zien. Dus proxmox installeren op de 1TB SSD en daar kan je dus ook de VM en containers opzetten. De ZFS pool importeren op de Proxmox host en via bindmounts doorzetten naar containers. Docker kan in een Debian LXC container Zenix in "Het grote Proxmox VE topic" voor minder overhead. VM kan je inderdaad migreren, maar alles met Linux zou ik in een Debian container doen. Eventueel kan je voor de Exchange een disk aanmaken op de SSD voor de VM en een disk op je ZFS pool. Door alles in containers en VM's te doen, kan je ook mooi gebruik maken van de back-up opties van Proxmox en kan je bijvoorbeeld alle backups sturen naar je ZFS pool.

Mooier is nog 2x een SSD in een mirror met ZFS voor Proxmox, zodat je ook ZFS snapshots kan gebruiken.

[ Voor 8% gewijzigd door Zenix op 26-12-2020 15:39 ]


Acties:
  • 0 Henk 'm!

  • DRAFTER86
  • Registratie: April 2002
  • Laatst online: 14:56
Hm, hier nu toch iets raars: in mijn opruim woede heb ik een paar containers weggegooid die ik eigenlijk wilde bewaren. Ik dacht: geen probleem, zet ik ff een ZFS snapshot terug.
Stap één was even de LXC config uit /etc/pve/lxc terugzoeken in /.zfs/snapshots.
Daar blijkt echter dat de snapshots (ik heb een snapshot per uur) van de root partitie heel die lxc config folder missen?
Mijn zfs list output (ik heb een hoop vm/container datasets er uit geknipt voor het overzicht):

code:
1
2
3
4
5
6
7
8
# zfs list
NAME                            USED  AVAIL     REFER  MOUNTPOINT
rpool                          76.9G  30.7G       96K  /rpool
rpool/ROOT                     12.5G  30.7G       96K  /rpool/ROOT
rpool/ROOT/pve-1               12.5G  30.7G     5.76G  /
rpool/data                     23.6G  30.7G      112K  /rpool/data
rpool/data/subvol-100-disk-1    890M  30.7G      536M  /rpool/data/subvol-100-disk-1
rpool/swap                     12.5G  33.2G     4.87G  -


De output van ls -lah /etc/pve/nodes/prox/lxc:
code:
1
2
3
4
5
6
7
ls -lah /etc/pve/nodes/prox/lxc/
total 8.0K
drwxr-xr-x 2 root www-data    0 Jun  1  2017 .
drwxr-xr-x 2 root www-data    0 Jun  1  2017 ..
-rw-r--r-- 1 root www-data  250 Dec 27 08:10 100.conf
....
-rw-r--r-- 1 root www-data  397 Dec 27 08:10 115.conf


Echter in mijn snapshots is de hele /etc/pve map leeg?
code:
1
2
3
4
# ls -lah /.zfs/snapshot/2020-11-29-080000/etc/pve/
total 9.0K
drwxr-xr-x   2 root root   2 Jun  1  2017 .
drwxr-xr-x 108 root root 217 Nov 10 20:47 ..

Ik dacht misschien iets met symlinks oid, maar die /etc/pve/nodex/prox zou een normale map moeten zijn.
Zie ik iets over het hoofd?

Acties:
  • +1 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:50
Die config directory is een SQLite FS. Zie de inleiding uit het kopje recovery:
https://pve.proxmox.com/w...ster_File_System_(pmxcfs)

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • DRAFTER86
  • Registratie: April 2002
  • Laatst online: 14:56
CurlyMo schreef op maandag 28 december 2020 @ 12:20:
[...]

Die config directory is een SQLite FS. Zie de inleiding uit het kopje recovery:
https://pve.proxmox.com/w...ster_File_System_(pmxcfs)
Wow thanks, dat is goed verborgen! Maar in de output van mount is het inderdaad te zien.
Nu even uitzoeken hoe ik een oude versie kan mounten...

Acties:
  • 0 Henk 'm!

  • sven123ab
  • Registratie: December 2018
  • Laatst online: 29-07-2022
Goedendag, ik krijg van de week mijn nuc binnen.

Ik wil daar proxmox op gaan draaien met daarin Hassio en open mediavault met docker en nextcloud en andere containers.

Ik heb een:
m2 500gb voor proxmox en vm’s
Ssd 500 gb data/ foto’s.

Wat kan ik het beste aanschaffen als back up? Dacht zelf aan een 2 tb harddisk en dan proxmox de backups op die schijf uit te laten voeren of zijn er betere opties?

Alvast bedankt voor het meedenken

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:50
sven123ab schreef op maandag 28 december 2020 @ 19:08:
Wat kan ik het beste aanschaffen als back up? Dacht zelf aan een 2 tb harddisk en dan proxmox de backups op die schijf uit te laten voeren of zijn er betere opties?
Wat zoek je zelf in een backup?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • sven123ab
  • Registratie: December 2018
  • Laatst online: 29-07-2022
CurlyMo schreef op maandag 28 december 2020 @ 19:58:
[...]

Wat zoek je zelf in een backup?
Ik wil mijn vm’s backuppen en de data die daar op staat met nextcloud daarin staan mijn foto’s die moeten gebackupt worden.

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:50
sven123ab schreef op maandag 28 december 2020 @ 20:22:
[...]

Ik wil mijn vm’s backuppen en de data die daar op staat met nextcloud daarin staan mijn foto’s die moeten gebackupt worden.
Dat lijkt me logisch ;)

Welke mate van veiligheid zoek je? Een HDD altijd aangesloten is natuurlijk minder veilig (bliksem, brand, inbraak, cryptoware) dan offsite.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • sven123ab
  • Registratie: December 2018
  • Laatst online: 29-07-2022
CurlyMo schreef op maandag 28 december 2020 @ 20:33:
[...]

Dat lijkt me logisch ;)

Welke mate van veiligheid zoek je? Een HDD altijd aangesloten is natuurlijk minder veilig (bliksem, brand, inbraak, cryptoware) dan offsite.
Haha sorry geeft mijn niveau aan... veiligheid is wel belangrijk maar de eerste 3 punten ben ik niet zo bang voor is natuurlijk wel mogelijk... offsite moet ik denken aan clouddiensten neem ik aan... had altijd stack 1 tb maar helaas is dat niet meer gratis en betalen zie ik niet zitten of er offsite oplossing zijn gratis of voor een leuk bedrag weet ik niet. HDD is eenmalige aankoop maar wel altijd aangesloten. Kortom ben er niet uit heb je nog tips of ideeën. :) ;)

Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Mosterd na de maaltijd, maar dat krijg je als je achteraf vragen gaat stellen :P Als je nu iets had gekocht met meer SATA/M2 aansluitingen dan een NUC dan had je mooi een RAID setupje kunnen maken en heb je altijd (geen offsite) backups.

Je zou ook kunnen kijken naar een simpele NAS met al dan niet een RAID setup waar je de VM's naar kan backuppen. Ietwat veiliger dan simpelweg een externe HDD eraan hangen.

Ik heb zelf ook een NUC-achtige setup (ik vond mijn 8e gen NUC te luid, dus heb een Lenovo M900 tiny ervoor in de plaats gezet), daar heb ik ook VM's op draaien op een NVME, daar draait weer (o.a.) Ubuntu server op met Docker als host. De data volumes heb ik gemapt naar een NAS, die dan weer in RAID staat. Daarnaast ben ik van plan (zit nog in de transitie vanaf een andere setup) om periodiek een VM snapshot te maken en deze te plaatsen op de NAS. Soort van dubbele veiligheid zeg maar. Ik ben nog van plan om voor mijn écht belangrijke data een offsite backup in te regelen bij mijn ouders op de NAS, de rest is vervangbaar.

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • +2 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:50
@Sp33dFr34k De dooddoener, maar RAID != backup.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

True, helaas ook wel mindere ervaringen mee gehad, maar ik draai daarnaast ook nog Duplicati, dus ik denk dat ik wel goed zit :P

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Ik heb 2 VM's draaien op Proxmox, een Ubuntu Server en W10 VM.

Ik merk hierbij dat de W10 VM altijd de max mem limit (8GB) gebruikt... ook al staat ie te idlen. Is dat normaal in Proxmox?

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Geeft Windows zelf ook dat geheugengebruik aan? Mocht je dat niet gedaan hebben, is het altijd aan te raden om de VirtIO drivers en tools te installeren: https://pve.proxmox.com/w..._Guest_Agent_and_Services

Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

dcm360 schreef op zaterdag 9 januari 2021 @ 13:35:
Geeft Windows zelf ook dat geheugengebruik aan? Mocht je dat niet gedaan hebben, is het altijd aan te raden om de VirtIO drivers en tools te installeren: https://pve.proxmox.com/w..._Guest_Agent_and_Services
Het lijkt af te nemen als ik remote inlog op de VM, dat is het gekke. Dan gaat ie ineens rond de 5GB zitten, zowel in de VM zelf als in Proxmox. Komt niet helemaal overeen, maar wel close. De VirtIO drivers heb ik wel geïnstalleerd...

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • +1 Henk 'm!

  • maxxie85
  • Registratie: Augustus 2015
  • Laatst online: 12:05
Sp33dFr34k schreef op zaterdag 9 januari 2021 @ 13:42:
[...]


Het lijkt af te nemen als ik remote inlog op de VM, dat is het gekke. Dan gaat ie ineens rond de 5GB zitten, zowel in de VM zelf als in Proxmox. Komt niet helemaal overeen, maar wel close. De VirtIO drivers heb ik wel geïnstalleerd...
Heb je ook de balloon driver geïnstalleerd en die optie aangezet in Proxmox?

Ik vond dit een duidelijk en goede guide https://davejansen.com/re...016-2018-2019-vm-proxmox/

Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

maxxie85 schreef op zaterdag 9 januari 2021 @ 14:12:
[...]


Heb je ook de balloon driver geïnstalleerd en die optie aangezet in Proxmox?

Ik vond dit een duidelijk en goede guide https://davejansen.com/re...016-2018-2019-vm-proxmox/
Thanks voor de tip! Ik heb een vid van Techno Tim gevolgd, daarbij heb ik wel de ballooning driver geïnstalleerd en aangezet in Proxmox, maar niet als service geïnstalleerd. Dat laatste was het missende punt dus, nu zakt het geheugengebruik als ik niet connected ben op de VM (naar zo'n 3GB), als ik ingelogd ben komt het inderdaad mooi overeen met het geheugengebruik wat ik in W10 zelf zie. Top, thanks!

EDIT: Zakt zelfs helemaal naar 1,25GB uiteindelijk :)

[ Voor 3% gewijzigd door Sp33dFr34k op 10-01-2021 00:08 ]

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • 0 Henk 'm!

  • BliXem
  • Registratie: December 2010
  • Laatst online: 10-09 19:24
Ik heb een NUC thuis waarbij ik nu op een omslachtige manier enkele VM's draai. Maar ik wil dezelfde NUC omzetten naar Proxmox. Alleen is het zo dat bijna alle NUC's maar 1 m2 slot en 1 SSD slot hebben. Zou ik een mirror link (raid) kunnen opzetten van 1 M2 en 1 SSD van hetzelfde merk + aantal GB's? Iemand enig idee?

Eventueel 1x m.2 en 1x SSD, kan er ook een backup gemaakt worden naar de SSD of andersom in geval m.2 of de SSD is overleden?

[ Voor 16% gewijzigd door BliXem op 18-01-2021 22:47 ]


Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 17:00
BliXem schreef op maandag 18 januari 2021 @ 22:07:
Ik heb een NUC thuis waarbij ik nu op een omslachtige manier enkele VM's draai. Maar ik wil dezelfde NUC omzetten naar Proxmox. Alleen is het zo dat bijna alle NUC's maar 1 m2 slot en 1 SSD slot hebben. Zou ik een mirror link (raid) kunnen opzetten van 1 M2 en 1 SSD van hetzelfde merk + aantal GB's? Iemand enig idee?

Eventueel 1x m.2 en 1x SSD, kan er ook een backup gemaakt worden naar de SSD of andersom in geval m.2 of de SSD is overleden?
Geen idee, nooit geprobeerd. lijkt me wel een leuke casus: 9

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:50
@BliXem Kan inderdaad allemaal.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • Andre_J
  • Registratie: September 2005
  • Laatst online: 13:49
Als je een NUC (of een systeempje hebt met een Intel GPU), kan dit wellicht leuk/handig zijn.
https://nakaori.net/index...der-intel-hd-grafikkarte/

"Native" grafische performance in je Windows VM

Acties:
  • 0 Henk 'm!

  • sven123ab
  • Registratie: December 2018
  • Laatst online: 29-07-2022
Hoi ik heb een vraag.. Mijn NUC met proxmox laat na een week niet meer kan dat komen dat de nuc in slaapstand gaat? Ik moet de NUC helemaal opnieuw opstarten om weer op de proxmox server te komen! Wie heeft de goude tip alvast bedankt.

Acties:
  • 0 Henk 'm!

  • maxxie85
  • Registratie: Augustus 2015
  • Laatst online: 12:05
sven123ab schreef op woensdag 20 januari 2021 @ 19:26:
Hoi ik heb een vraag.. Mijn NUC met proxmox laat na een week niet meer kan dat komen dat de nuc in slaapstand gaat? Ik moet de NUC helemaal opnieuw opstarten om weer op de proxmox server te komen! Wie heeft de goude tip alvast bedankt.
Poeh, zou niet logisch zijn dat hij in slaapstand gaat tenzij je zoiets expliciet hebt ingesteld.

Heb je al de syslog en dmesg bekeken?

Acties:
  • 0 Henk 'm!

  • sven123ab
  • Registratie: December 2018
  • Laatst online: 29-07-2022
maxxie85 schreef op woensdag 20 januari 2021 @ 19:55:
[...]


Poeh, zou niet logisch zijn dat hij in slaapstand gaat tenzij je zoiets expliciet hebt ingesteld.

Heb je al de syslog en dmesg bekeken?
ik had het net weer ik kom dan mijn server niet meer in en ik kijk dan bij mijn nuc en dan brand dat oranje lampje stil en wanneer ik de stekker eruit haal en erin doet gaat het oranje lampje weer knipperen en werkt mijn server weer... erg vreemd maar ook vervelend..

Acties:
  • 0 Henk 'm!

  • maxxie85
  • Registratie: Augustus 2015
  • Laatst online: 12:05
sven123ab schreef op zaterdag 23 januari 2021 @ 20:40:
[...]


ik had het net weer ik kom dan mijn server niet meer in en ik kijk dan bij mijn nuc en dan brand dat oranje lampje stil en wanneer ik de stekker eruit haal en erin doet gaat het oranje lampje weer knipperen en werkt mijn server weer... erg vreemd maar ook vervelend..
Ja dus het lampje van de HDD activiteit brand non-stop?

Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
@sven123ab heb je toevallig een Kingston A2000? Ik had daar namelijk issues mee, waardoor ogenschijnlijk/achteraf op basis van anderen de SSD in een (deep) sleep stand gaat waar die niet meer uit komt.
Zie hier het topic over mijn issue: Proxmox lockups door NVME drive? en mijn review waar een ogenschijnlijke fix in de comments staat: productreview: Kingston A2000 500GB review door RobertMe (ogenschijnlijke fix omdat ik de SSD intussen dus niet meer gebruik en dus niet kan verifiëren).

Acties:
  • 0 Henk 'm!

  • sven123ab
  • Registratie: December 2018
  • Laatst online: 29-07-2022
RobertMe schreef op zaterdag 23 januari 2021 @ 22:09:
@sven123ab heb je toevallig een Kingston A2000? Ik had daar namelijk issues mee, waardoor ogenschijnlijk/achteraf op basis van anderen de SSD in een (deep) sleep stand gaat waar die niet meer uit komt.
Zie hier het topic over mijn issue: Proxmox lockups door NVME drive? en mijn review waar een ogenschijnlijke fix in de comments staat: productreview: Kingston A2000 500GB review door RobertMe (ogenschijnlijke fix omdat ik de SSD intussen dus niet meer gebruik en dus niet kan verifiëren).
Jaa die heb ik! Shit heb altijd dat soort problemen word er een beetje moe van kijken hoe ik dit kan oplossen hopelijk

Acties:
  • 0 Henk 'm!

  • sven123ab
  • Registratie: December 2018
  • Laatst online: 29-07-2022
RobertMe schreef op zaterdag 23 januari 2021 @ 22:09:
@sven123ab heb je toevallig een Kingston A2000? Ik had daar namelijk issues mee, waardoor ogenschijnlijk/achteraf op basis van anderen de SSD in een (deep) sleep stand gaat waar die niet meer uit komt.
Zie hier het topic over mijn issue: Proxmox lockups door NVME drive? en mijn review waar een ogenschijnlijke fix in de comments staat: productreview: Kingston A2000 500GB review door RobertMe (ogenschijnlijke fix omdat ik de SSD intussen dus niet meer gebruik en dus niet kan verifiëren).
Ik zie waarschijnlijk de fix heb alleen geen idee hoe ik dat moet oplossen...

Acties:
  • +5 Henk 'm!

  • babananana
  • Registratie: Maart 2009
  • Laatst online: 25-08 10:15
Naar aanleiding van de concrete vraag van @sven123ab in de A2000 productreview, post ik de oplossing die ik van Kingston support heb gekregen ook even hier:

In de GRUB bootloader config kan je een parameter meegeven met het booten van de linux kernel.
Nadat je de config hebt opgeslagen, pas je ze toe met het command "update-grub"

Stappenplan:
1. connect naar de terminal van proxmox
2. Edit deze file: /etc/default/grub
(ik doe dat met nano):
nano /etc/default/grub
3. Pas de GRUB_CMDLINE_LINUX_DEFAULT variable aan zodat die regel er zo uitziet:
GRUB_CMDLINE_LINUX_DEFAULT="nvme_core.default_ps_max_latency_us=5500"
4. Voer dit commando uit:
update-grub
5. Reboot om de nieuwe settings toe te passen. Nu zou de SSD niet meer moeten verdwijnen!

Het probleem ligt in de APST S4 power state, die wordt met bovenstaande kernel parameter uitgeschakeld.
Volgens mij zit er een ontwerpfout in de A2000. Er is te weinig info bekend om het euvel precies te duiden maar wat ik ervan kan maken is dit: Die low power state zorgt er op sommige moederborden voor dat de complete communicatie stopt. Mogelijk is de signaalkwaliteit te zwak onder die omstandigheden waardoor de PCIe controller de gehele verbinding uitschakelt oid.

Maar goed, met deze hack kan je er goed omheen werken. .

Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Ik heb al voor de 3e keer een probleem met een VM, hij hangt dusdanig vast dat een VM stoppen of shutdown niet eens meer werkt, ik krijg dat deze melding:

"trying to acquire lock...
TASK ERROR: can't lock file '/var/lock/qemu-server/lock-101.conf' - got timeout"

Enige wat werkt is de hele server rebooten... iemand ook problemen hiermee? Het gaat overigens om een ubuntu server 20.04 VM, maar ik heb het ook al met een W10 VM gehad...

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • 0 Henk 'm!

  • Koepert
  • Registratie: Augustus 2013
  • Laatst online: 10:56
Sp33dFr34k schreef op zondag 24 januari 2021 @ 17:39:
Ik heb al voor de 3e keer een probleem met een VM, hij hangt dusdanig vast dat een VM stoppen of shutdown niet eens meer werkt, ik krijg dat deze melding:

"trying to acquire lock...
TASK ERROR: can't lock file '/var/lock/qemu-server/lock-101.conf' - got timeout"

Enige wat werkt is de hele server rebooten... iemand ook problemen hiermee? Het gaat overigens om een ubuntu server 20.04 VM, maar ik heb het ook al met een W10 VM gehad...
Wat ook werkt is via terminal naar: /var/lock/qemu-server/ gaan, en de desbetreffende /var/lock/qemu-server/lock-XXXXXX.conf deleten. Granted, zou zelf ook liever weten WAAROM een VM zo kut werkt.

Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Koepert schreef op zondag 24 januari 2021 @ 17:53:
[...]


Wat ook werkt is via terminal naar: /var/lock/qemu-server/ gaan, en de desbetreffende /var/lock/qemu-server/lock-XXXXXX.conf deleten. Granted, zou zelf ook liever weten WAAROM een VM zo kut werkt.
Ik kwam dus ook de terminal van Proxmox zelf niet meer in na de shutdown kloterij, alles om zeep... |:(

Hopelijk gaat dit geen vaak voorkomend probleem worden, ik doe verder niet veel spannends op die VM's dus lijkt me ook sterk dat ie ergens van over de nek gaat...

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 13-09 12:42

zeroday

There is no alternative!

Sp33dFr34k schreef op zondag 24 januari 2021 @ 19:40:
[...]


Ik kwam dus ook de terminal van Proxmox zelf niet meer in na de shutdown kloterij, alles om zeep... |:(

Hopelijk gaat dit geen vaak voorkomend probleem worden, ik doe verder niet veel spannends op die VM's dus lijkt me ook sterk dat ie ergens van over de nek gaat...
Bij mij een VM die om de haverklap bij een backup gewoon uit ging en niet meer aan. Ondanks dat de backup gewoon een snapshot moest zijn. VM vervangen en opgelost.

Enige jammere, en daar mag ik niet over klagen is dat PBS ook vaak crashed, vooral als ik binnen mijn cluster alle machines achter elkaar wil backuppen.
Ik snap nu ook dat ze aangeven dat PBS stand-alone moet draaien.

Heb nog wel een LXC die ook soms ineens unresponsive wordt en dan moet ik de taak killen in de shell van die proxmox omgeving. Nu zijn het gelukkig geen virtuele machines die ik altijd aan moet hebben, maar goed .. soms wel vervelend

There are no secrets, only information you do not yet have


Acties:
  • +2 Henk 'm!

  • Hmmbob
  • Registratie: September 2001
  • Laatst online: 08:00
Net een nieuwsitem gesubmit dat er een security vulnerablity in SUDO gevonden is. Als je nu naar updates zoekt op je Proxmox host (of Debian VM/CT) zul je zien dat er een update klaar staat.

Officieel Debian bericht hier: https://www.debian.org/security/2021/dsa-4839

Veel beschrijvendere blog van Qualys hier: https://blog.qualys.com/v...low-in-sudo-baron-samedit
CVE-2021-3156: Heap-Based Buffer Overflow in Sudo (Baron Samedit)

The Qualys Research Team has discovered a heap overflow vulnerability in sudo, a near-ubiquitous utility available on major Unix-like operating systems. Any unprivileged user can gain root privileges on a vulnerable host using a default sudo configuration by exploiting this vulnerability.

Sudo is a powerful utility that’s included in most if not all Unix- and Linux-based OSes. It allows users to run programs with the security privileges of another user. The vulnerability itself has been hiding in plain sight for nearly 10 years. It was introduced in July 2011 (commit 8255ed69) and affects all legacy versions from 1.8.2 to 1.8.31p2 and all stable versions from 1.9.0 to 1.9.5p1 in their default configuration.

Successful exploitation of this vulnerability allows any unprivileged user to gain root privileges on the vulnerable host. Qualys security researchers have been able to independently verify the vulnerability and develop multiple variants of exploit and obtain full root privileges on Ubuntu 20.04 (Sudo 1.8.31), Debian 10 (Sudo 1.8.27), and Fedora 33 (Sudo 1.9.2). Other operating systems and distributions are also likely to be exploitable.
Patchen dus :)

edit: nieuws: Bug in sudo-commando kon rootrechten toekennen aan iedere gebruiker

[ Voor 6% gewijzigd door Hmmbob op 27-01-2021 12:14 ]

Sometimes you need to plan for coincidence


Acties:
  • 0 Henk 'm!

  • Waah
  • Registratie: Maart 2009
  • Laatst online: 16:47
Ik ben zelf vrij nieuw in Proxmox en Linux. En nu heb ik wat disk storage issues.

Ik heb Proxmox draaien met 2 VMs. Home Assistant en een losse Debian image voor DSMR-reader. Beide hebben 32GB per stuk aan opslag tot hun beschikking. (LocalLVM)

Maar nu zit dat dus vol... En dan werkt Home Assistant niet meer. Ik heb een snapshot image weggegooid om ruimte te maken, maar dat lukt straks niet meer. Ik zag ook dat Home Assistant opeen 3GB wegschreef.
Afbeeldingslocatie: https://tweakers.net/i/R7kD_caD9Ifdw_dRdVh9ZGnHrHY=/800x/filters:strip_exif()/f/image/lb5eq341gt74wHnVcMXw0Eod.png?f=fotoalbum_large

Hoe kan ik ruimte vrij maken?
En hoe kan ik uberhaupt zien wat nu zoveel ruimte in neem in Proxmox? Al wat google-dingetjes geprobeert maar ik krijg de local-lvm's niet te zien in proxmox met df -h

Afbeeldingslocatie: https://tweakers.net/i/mU1GMsiwqKqsDEsjA-u8QG4IYjE=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/77gWuDtOxnhuFZkI4i4JM7D2.png?f=user_large

Acties:
  • 0 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 16:31
@Waah Even los van het probleem, maar dan is je HA wel érg vol hoor. Ik gebruik de QCOW2 image van HA, heb 5 addons en met wat gefilterde logging zit ik op een daadwerklijke schijfgebruik van 9GB
Afbeeldingslocatie: https://i.imgur.com/rsQhd44.png

Ruimte vrijmaken zul je op de VM zelf moeten doen. Staan er oude docker images die niet gebruikt worden? Heb je addons die ontzettend grote images gebruiken? En anders de disk vergroten, dat kan natuurlijk ook gewoon. Maar ik vind 32GB toch wel flink. De piek met data zou kunnen komen doordat je HA ging updaten op dat moment? Dan wordt gewoon de Docker image gedownload en die zijn best groot als ze eenmaal zijn uitgepakt op je machine.

Acties:
  • 0 Henk 'm!

  • Waah
  • Registratie: Maart 2009
  • Laatst online: 16:47
@lolgast ik heb even gekeken wat Home Assistant nu daadwerkelijk verbruikt volgens de GUI en dan zit ik op 10.8 GB. Dus dat lijkt op zich niet het issue.

Maar ik weet dus niet hoe ik kan zien wat nu zoveel ruimte inneemt op een VM?

Acties:
  • 0 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 16:31
@Waah (Ik heb niet héél veel verstand van Proxmox)
Volgens mij kun je met het command lvdisplay zien welke disk images je hebt en hoe vol ze zitten.

Maar volgens HA zat je image nog helemaal niet vol, dus het lijkt me sterk dat daar een probleem door is ontstaan. Of is je local-LVM storage kleiner dan 64GB? Als daar 2 images op staan die elk 32GB groot kunnen worden moet hij die ruimte wel hebben natuurlijk. Als dat maar 20GB is en samen komen ze op 21GB uit, heb je een probleem :)

Acties:
  • 0 Henk 'm!

  • Waah
  • Registratie: Maart 2009
  • Laatst online: 16:47
lolgast schreef op woensdag 27 januari 2021 @ 13:37:
@Waah (Ik heb niet héél veel verstand van Proxmox)
Volgens mij kun je met het command lvdisplay zien welke disk images je hebt en hoe vol ze zitten.

Maar volgens HA zat je image nog helemaal niet vol, dus het lijkt me sterk dat daar een probleem door is ontstaan. Of is je local-LVM storage kleiner dan 64GB? Als daar 2 images op staan die elk 32GB groot kunnen worden moet hij die ruimte wel hebben natuurlijk. Als dat maar 20GB is en samen komen ze op 21GB uit, heb je een probleem :)
Heb beide VM's even df -h gedaan. dat geeft:
Hassio:
Afbeeldingslocatie: https://tweakers.net/i/_OQk_PhNOdKATx5DBXzC8PR3whU=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/Hws1IEPumzDtwj3oKeSxih5H.png?f=user_large

Debian:
Afbeeldingslocatie: https://tweakers.net/i/R0PUzUBViVy23oR5s3RiiCYuKac=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/M7djmTatFAQADLVgPIT8Dq44.png?f=user_large

Als ik dat optel, kom ik op zo'n 21 GB aan gebruikte opslag.
De local-lvm heeft 64GB beschikbaar
Afbeeldingslocatie: https://tweakers.net/i/l2Dhb2xQ9EoOM4w3G9GJtFxa75I=/800x/filters:strip_exif()/f/image/Q4TsCGtqXY0461BlP8JnXccS.png?f=fotoalbum_large

Wat mis ik 8)7

Acties:
  • 0 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 17:11
@Waah Je gebruikt thin provisioned LVM voor opslag van VMs. Kijk eens naar vgdisplay ;)

Acties:
  • 0 Henk 'm!

  • Waah
  • Registratie: Maart 2009
  • Laatst online: 16:47
_JGC_ schreef op woensdag 27 januari 2021 @ 14:17:
@Waah Je gebruikt thin provisioned LVM voor opslag van VMs. Kijk eens naar vgdisplay ;)
Met vgdisplay kwam ik niet veel verder eigenlijk
Afbeeldingslocatie: https://tweakers.net/i/Q_nBzqkjDiGCOZwazSlK4BwQhf8=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/OxleC8GgH1yD14saOnH08dzD.png?f=user_large

Maar kwam zo ook op lvdisplay en de afgeleide lvs

Dan zie ik toch dat mijn Hassio Image "vol" zit.
Afbeeldingslocatie: https://tweakers.net/i/YGP7Mm7uwuuIkC6MG4xVMxD5hRY=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/2fyujiKbrkL3uygHrj6RnZIw.png?f=user_large

Ik heb een snapshot verwijderd, dus heb nu weer iets meer ruimte. Maar snap niet waarom die hassio-image zo groot is... Maar zal wel informeren in het home assistant topic.

Maar als ik het goed begrijp, je kunt niet even door zo'n volume grasduinen om te zien wat zoveel ruimte in neemt?

Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

@Waah Ik ken Hass.io niet zo goed, maar in veel gevallen is logging een bekende boosdoener voor dat soort problemen. Kan dat bij Hass.io ook het geval zijn?

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • Waah
  • Registratie: Maart 2009
  • Laatst online: 16:47
ocf81 schreef op woensdag 27 januari 2021 @ 17:25:
@Waah Ik ken Hass.io niet zo goed, maar in veel gevallen is logging een bekende boosdoener voor dat soort problemen. Kan dat bij Hass.io ook het geval zijn?
Dat zou best kunnen. Ik zal er even induiken O-)

Acties:
  • 0 Henk 'm!

  • ntiender
  • Registratie: Juni 2015
  • Laatst online: 14-05 11:28
Ik heb onlangs op een pc gebouwd en hier proxmox op geinstalleerd.
Hier draaien tot nu toe linux VM's op voor het netwerk (Pihole, unifi etc) Domotica (Openhab, Logitech media server etc.) en een windows VM om diverse domotica apparatuur te kunnen configureren.

De pc bestaat uit:

Asus P11C-I, Intel i3 8100, 2x crucial mx500(ZSF raid 1), Hyperx fury 32GB, extra netwerkkaart, Yakkaroo server IPC-G1528 case.

Draait prima, maar aangezien het hele huis afhankelijk is van deze PC, wil ik wellicht nog een gaan bouwen voor redundantie.

Heeft iemand hier ervaring mee? is dat een beetje goed te doen?
Is het tevens belangrijk dat de hardware precies hetzelfde is?

Acties:
  • 0 Henk 'm!

  • Zenix
  • Registratie: Maart 2004
  • Laatst online: 03:56

Zenix

BOE!

@ntiender Hier is alles ook afhankelijk van mijn proxmox server, zelfs de router/firewall heb ik er op draaien. Ik zie dat je een zuinige machine hebt gemaakt en het is een beetje zonde om dan nog een machine er naast te plaatsen alleen voor redundantie in een thuis omgeving.

Ik zou voor een reserve voeding zorgen en een UPS kopen, dan kan je de voeding direct swappen als die kapot gaat. Je SSD's zijn in mirror, dus als één stuk gaat kan je gewoon een nieuwe kopen en die de volgende dag erbij plaatsen. Gewoon het wear level goed in de gaten houden.

Ter vergelijking ik hebl zo'n 10 jaar homeservers op desktop hardware zitten draaien. Het enige wat ik heb moeten vervangen zijn schijven en een keer een fan die wat lawaai ging maken. Als je goed spul hebt dan gaat het niet snel stuk.

Acties:
  • 0 Henk 'm!

  • afterburn
  • Registratie: Januari 2000
  • Laatst online: 17-08 20:22

afterburn

No more...

Vraagje waar jullie hopelijk mee kunnen helpen: ik gebruik momenteel mijn DS1815+ Synology voor containers en VM's, maar zoals jullie misschien kunnen geloven is met name het draaien van VM's op een Atom processor en 8GB geheugen niet de meest fantastische experience. Twee tot drie VM's gaat nog wel, zolang je er alleen een beetje mee speelt en er niet veel serieus mee doet.

Dus ik wil een dedicated machine opzetten hiervoor. Ik dacht eerst aan mijn 2011 Mac Mini Server alleen is ondersteund deze machine (voor zover ik weet) geen passthrough voor de IGP, die ik nodig heb voor Plex (2635QM processor). Nu staan er genoeg 1u servers voor weinig ook hier op V&A, maar die dingen vreten over het algemeen stroom.

Ik zoek dus eigenlijk iets wat 1) goedkoop is 2) genoeg power om fatsoenlijk VM's te draaien, 3) niet vreselijk veel stroom trekt en 4) igp of pcie voor passthrough.

Hebben jullie daar een beetje suggesties voor, er vanuitgaande dat er Proxmox op moet gaan draaien?

Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
afterburn schreef op maandag 1 februari 2021 @ 13:56:
Vraagje waar jullie hopelijk mee kunnen helpen: ik gebruik momenteel mijn DS1815+ Synology voor containers en VM's, maar zoals jullie misschien kunnen geloven is met name het draaien van VM's op een Atom processor en 8GB geheugen niet de meest fantastische experience. Twee tot drie VM's gaat nog wel, zolang je er alleen een beetje mee speelt en er niet veel serieus mee doet.

Dus ik wil een dedicated machine opzetten hiervoor. Ik dacht eerst aan mijn 2011 Mac Mini Server alleen is ondersteund deze machine (voor zover ik weet) geen passthrough voor de IGP, die ik nodig heb voor Plex (2635QM processor). Nu staan er genoeg 1u servers voor weinig ook hier op V&A, maar die dingen vreten over het algemeen stroom.

Ik zoek dus eigenlijk iets wat 1) goedkoop is 2) genoeg power om fatsoenlijk VM's te draaien, 3) niet vreselijk veel stroom trekt en 4) igp of pcie voor passthrough.

Hebben jullie daar een beetje suggesties voor, er vanuitgaande dat er Proxmox op moet gaan draaien?
Qua zuinigheid zou ik zeker eens hier kijken: Het grote zuinige server topic - deel 2 Daar komen ook wat Proxmox systemen langs, maar uiteindelijk maakt dat natuurlijk niet heel veel uit. Qua kant en klaar zou je natuurlijk ook voor een NUC kunnen gaan, en de ASRock DeskMini systemen zijn volgens mij ook populair op dit vlak.

Vergeet overigens ook niet dat bij Proxmox VMs niet perse nodig zijn. Je hebt dan ook de mogelijkheid om LXC containers te draaien waarmee je alsnog een semi geisoleerde Linux omgeving hebt (die in eigen netwerk / VLAN kan draaien, met volledig init systeem, ... dus niet "gescheiden zoals Docker" maar meer "als VM"). Dat is een stuk lichter en gebruikt dus ook lang niet zoveel resources als een volledige VM.

Acties:
  • 0 Henk 'm!

  • afterburn
  • Registratie: Januari 2000
  • Laatst online: 17-08 20:22

afterburn

No more...

Dank je @RobertMe. Zuinige server topic ken ik. Lxc moet ik me in verdiepen. Kleine systemen zijn mooi, maar wat voor ram hoeveelheid moet ik aanhouden voor een keus. Veel itx plankjes BV kunnen niet meer als 8gb en dat lijkt wat krap voor virtualisatie.

Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs


Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 17:00
Zie hier itx plankjes bij staan met 32GB of 64GB


https://www.megekko.nl/Co...lair_pp-50_p-1_d-list_cf-

Acties:
  • 0 Henk 'm!

  • afterburn
  • Registratie: Januari 2000
  • Laatst online: 17-08 20:22

afterburn

No more...

@RobertMe lxc gaat hem niet worden helaas, wel jammer want het ziet er heel interessant uit. Had ik niet eens nieuwe hardware voor hoeven kopen want dan had ik met de mm wel uitgekund. Echter er zijn geen lxc containers beschikbaar met rhel voor zover ik kan zien en dat is mijn primaire distro. Zelf maken heb ik niet echt de tijd voor om allemaal uit te zoeken helaas.

@powerboat dank je, ga even kijken!

[ Voor 5% gewijzigd door afterburn op 02-02-2021 11:42 ]

Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs


Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 16:50
afterburn schreef op dinsdag 2 februari 2021 @ 11:42:
@RobertMe lxc gaat hem niet worden helaas, wel jammer want het ziet er heel interessant uit. Had ik niet eens nieuwe hardware voor hoeven kopen want dan had ik met de mm wel uitgekund. Echter er zijn geen lxc containers beschikbaar met rhel voor zover ik kan zien en dat is mijn primaire distro. Zelf maken heb ik niet echt de tijd voor om allemaal uit te zoeken helaas.
Say what :)

https://www.redhat.com/sysadmin/exploring-containers-lxc

Ik heb het idee dat je docker en lxc door elkaar haalt.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 17:00
@RobertMe , de lxc container is gewoon een kernelbased vm. Je gewoon een centos template inladen (als RedHat het niet verder de nek omdraait)

Acties:
  • 0 Henk 'm!

  • afterburn
  • Registratie: Januari 2000
  • Laatst online: 17-08 20:22

afterburn

No more...

CurlyMo schreef op dinsdag 2 februari 2021 @ 12:12:
[...]

Say what :)

https://www.redhat.com/sysadmin/exploring-containers-lxc

Ik heb het idee dat je docker en lxc door elkaar haalt.
Absoluut niet. 😉 Er zijn wel docker rhel containers en je kunt rhel wel gebruiken om lxc/lxd op te draaien, maar er zijn geen lxc containers waarmee je rhel mee draait.

Maar het lijkt alsof lxc containers maken heel erg lijkt op wat ik doe om mijn eigen wsl distro te maken op windows, dus nu ben ik heel nieuwsgierig aan het worden. Als dat zo is, dan heb ik zo rhel in een container draaien dus maar eens proberen.

Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs


Acties:
  • 0 Henk 'm!

  • LightStar
  • Registratie: Juli 2003
  • Laatst online: 16:36
Ik heb hier 2 itx plankjes van Supermico (x10sdv) deze kunnen 128GB aan DDR4 geheugen aan.

Acties:
  • 0 Henk 'm!

  • Koepert
  • Registratie: Augustus 2013
  • Laatst online: 10:56
Ik heb een vraag die lastiger is dan ik dacht. Althans het vinden van de oplossing.

Wat heb ik?
  • Proxmox op een Dell Optiplex met 500GB HDD. Momenteel 1 VM.
  • Externe HDD (128GB)
Wat wil ik?
Snapshot van de VM OP die externe HDD maken. Dit zodat ik dagelijks/wekelijks een backup/snaphot van de VM naar deze externe disk kan schrijven.

Wat lukt er niet?
Vinden hoe ik die externe disk beschikbaar maak als storage-optie.

Acties:
  • +1 Henk 'm!

  • Zenix
  • Registratie: Maart 2004
  • Laatst online: 03:56

Zenix

BOE!

Koepert schreef op vrijdag 5 februari 2021 @ 14:03:
Ik heb een vraag die lastiger is dan ik dacht. Althans het vinden van de oplossing.

Wat heb ik?
  • Proxmox op een Dell Optiplex met 500GB HDD. Momenteel 1 VM.
  • Externe HDD (128GB)
Wat wil ik?
Snapshot van de VM OP die externe HDD maken. Dit zodat ik dagelijks/wekelijks een backup/snaphot van de VM naar deze externe disk kan schrijven.

Wat lukt er niet?
Vinden hoe ik die externe disk beschikbaar maak als storage-optie.
Gewoon de schijf mounten. Als je gaat zoeken op ''mount usb drive proxmox'' krijg je genoeg resultaten.
https://forum.proxmox.com...ethod-to-usb-drive.21294/

[ Voor 5% gewijzigd door Zenix op 05-02-2021 14:19 ]


Acties:
  • 0 Henk 'm!

  • Koepert
  • Registratie: Augustus 2013
  • Laatst online: 10:56
Vervolgvraagje eigenlijk. Ik heb zojuist een snapshot gemaakt, vervolgens is het RAMgebruik van de bestaande VM behoorlijk omhoog gegaan. Nu kan dit zijn omdat het een update betreft, maar wat doet een snapshot precies? Die zet toch letterlijk een kopie van bestaande VM incl settings, meer niet? Of werkt het meer als een soort High Availability waarbij er een 2e VM op hot standby staat?

Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 17:00
Koepert schreef op vrijdag 5 februari 2021 @ 17:11:
Vervolgvraagje eigenlijk. Ik heb zojuist een snapshot gemaakt, vervolgens is het RAMgebruik van de bestaande VM behoorlijk omhoog gegaan. Nu kan dit zijn omdat het een update betreft, maar wat doet een snapshot precies? Die zet toch letterlijk een kopie van bestaande VM incl settings, meer niet? Of werkt het meer als een soort High Availability waarbij er een 2e VM op hot standby staat?
Met een snapshot maak je soort van restorepoint waar je naar terug kan grijpen.

Het is geen backup, je gebruikt de snapshot om bijv. een update te testen mocht het niet werken dan kun je simpelweg een roleback doen.

Acties:
  • 0 Henk 'm!

  • Koepert
  • Registratie: Augustus 2013
  • Laatst online: 10:56
powerboat schreef op vrijdag 5 februari 2021 @ 17:23:
[...]


Met een snapshot maak je soort van restorepoint waar je naar terug kan grijpen.

Het is geen backup, je gebruikt de snapshot om bijv. een update te testen mocht het niet werken dan kun je simpelweg een roleback doen.
Ja precies, dat was mij intentie ook. Het betreft Home Assistant, dus mijn idee was om met de back-up functie in Home Assistant dat (een backup maken)te regelen. Op het moment dat Home Assistant dan een update heeft, maak ik een snapshot van de VM, update, en ben dan klaar. Dus theoretisch kan deze ook weer direct weg bij succesvolle update. Maar het viel me dus op dat RAM spiked. Vandaar de vraag hoe een snapshot precies werkt: is dat een kopie op schijf, of een semi-actieve 2e VM.

Ik wil nu eigenlijk gewoon op "verwijder" klikken, maar als er wel een 'link' is tussen VM en snapshot, zou dat problemen kunnen geven kan ik me voorstellen.

Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 17:00
Koepert schreef op vrijdag 5 februari 2021 @ 17:29:
[...]


Ja precies, dat was mij intentie ook. Het betreft Home Assistant, dus mijn idee was om met de back-up functie in Home Assistant dat (een backup maken)te regelen. Op het moment dat Home Assistant dan een update heeft, maak ik een snapshot van de VM, update, en ben dan klaar. Dus theoretisch kan deze ook weer direct weg bij succesvolle update. Maar het viel me dus op dat RAM spiked. Vandaar de vraag hoe een snapshot precies werkt: is dat een kopie op schijf, of een semi-actieve 2e VM.

Ik wil nu eigenlijk gewoon op "verwijder" klikken, maar als er wel een 'link' is tussen VM en snapshot, zou dat problemen kunnen geven kan ik me voorstellen.
Is mij nooit opgevallen dat het ram gebruik omhoog schiet, wel disk gebruik (bij vmware).

Op het moment dat je de snapshot verwijdert, worden de wijzigingen van na het maken van je snapshot samengevoegd met die van ervoor.

Acties:
  • 0 Henk 'm!

  • Koepert
  • Registratie: Augustus 2013
  • Laatst online: 10:56
powerboat schreef op vrijdag 5 februari 2021 @ 17:55:
[...]


Is mij nooit opgevallen dat het ram gebruik omhoog schiet, wel disk gebruik (bij vmware).

Op het moment dat je de snapshot verwijdert, worden de wijzigingen van na het maken van je snapshot samengevoegd met die van ervoor.
Thnx.. Snapshot weggepleurd, RAMgebruik is niet gedaald, dus blijkbaar lag het daar niet aan ;)


Voor nu lijkt het iig te doen wat ik verwachtte :) Dus dat scheelt.

Acties:
  • 0 Henk 'm!

  • Yarisken
  • Registratie: Augustus 2010
  • Laatst online: 12-09 10:25
Allen,
Ik ga hier mijn servertjes thuis wat consolideren naar 1 machine. Ik wil een nuc 10 i3 gebruiken met proxmox of esxi.
Als ik daar windows 10 virtuele machine draai, kan ik die dan via hdmi "zichtbaar" maken op mijn tv ?
Dus passtrough enkel van deze virtuele machine ?

Acties:
  • 0 Henk 'm!

  • afterburn
  • Registratie: Januari 2000
  • Laatst online: 17-08 20:22

afterburn

No more...

Ik heb toch Proxmox op mijn Mac Mini Server gezet, en ik moet zeggen ik ben aardig onder de indruk. Performance is ronduit goed te noemen, ondanks de momenteel nog slechts 6GB geheugen. Heb de meeste applicaties inmiddels in een container draaien en dat helpt natuurlijk ook. Echter nog steeds geen RHEL in een container en dat is mijn preferente distro ivm bepaalde tools.

Ik kan in een standaard linix met lxc/lxd geinstalleerd een RHEL container die ik zelf gemaakt heb importeren, maar hoe doe ik dat in Proxmox op de CLI? Proxmox heeft geen lxc executable die je normaal gebruikt en zelfs als die er was, betwijfel ik eerlijk gezegd of de import dan binnen de Proxmox GUI zichtbaar zou zijn.

Weet iemand hoe je dit op de CLI doet voor Proxmox? Ik heb een tar.gz met rootfs en een metafile.tar.gz. Voor LXC/LXD is dit genoeg voor een import.

Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs


Acties:
  • 0 Henk 'm!

  • frv
  • Registratie: November 2002
  • Laatst online: 22-07-2024

frv

Al jaren een tevreden freenas klant maar de single point of failure zit me dwars. NAS mobo stuk = alles down die er aan hangt.

Zat te denken aan proxmox cluster (via zuinige server topic kan je een node draaien aan 5 a 8 watt per node) met eventueel glusterfs/ceph. Heb al 1 proxmox bak en plan een 2de. Een 3de is er dan al snel bij he :-)

Ceph en erasure coding lijkt me gecompliceerd. Met glusterfs is dat precies eenvoudiger dus neig naar gluster.

Samba met ctdb of windows fileserver in cluster erop en meteen een HA cluster.

Toevallig mensen die dit draaien hebben ? Zfs met freenas is natuurlijk rock solid maar blijft al je eieren in 1 mand leggen en moeilijk up te graden (telkens 6 disks erbij (raidz2 6 disk vdevs)).

[ Voor 18% gewijzigd door frv op 09-02-2021 00:31 ]


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

frv schreef op dinsdag 9 februari 2021 @ 00:27:
Al jaren een tevreden freenas klant maar de single point of failure zit me dwars. NAS mobo stuk = alles down die er aan hangt.

Zat te denken aan proxmox cluster (via zuinige server topic kan je een node draaien aan 5 a 8 watt per node) met eventueel glusterfs/ceph. Heb al 1 proxmox bak en plan een 2de. Een 3de is er dan al snel bij he :-)

Ceph en erasure coding lijkt me gecompliceerd. Met glusterfs is dat precies eenvoudiger dus neig naar gluster.

Samba met ctdb of windows fileserver in cluster erop en meteen een HA cluster.

Toevallig mensen die dit draaien hebben ? Zfs met freenas is natuurlijk rock solid maar blijft al je eieren in 1 mand leggen en moeilijk up te graden (telkens 6 disks erbij (raidz2 6 disk vdevs)).
Het lijkt er op of TrueNAS zelf ook HA mogelijkheden heeft:
https://www.truenas.com/d...vanced/high-availability/

Persoonlijk zou ik me afvragen hoe belangrijk échte HA is. Zelf vond ik pure HA minder belangrijk dan backups, dus ben ik uiteindelijk voor 2 Pve machines gegaan waarvan 1 offsite staat.

Die sync ik met Sanoid: https://github.com/jimsalterjrs/sanoid

Op die manier loop ik nooit meer dan 6 uur achter (afhankelijk van de dataset) én ben ik ook beschermd tegen fysieke calamiteiten als diefstal en brand thuis.

Ná Scaoll. - Don’t Panic.

Pagina: 1 ... 14 ... 61 Laatste