i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60
SE2200+14xSF170S & SE1500M+4xTSM-375
Ik heb geen 'niet-unprivileged' LXC gemaakt. Volgens mij werkt Docker dan direct zonder gedoeZenix schreef op zaterdag 19 december 2020 @ 21:48:
[...]
Ik heb gewoon een LXC container (Debian) voor Docker, werkt al maanden prima:
https://discuss.linuxcont...container-in-proxmox/3828
Dit heb ik gedaan:
#1 Docker installeren
#2 LXC config aanpasen en dit erbij zetten:
features: keyctl=1,nesting=1
#3 LXC rebooten en testen
Ik wil dat juist niet, want het is toch minder veilig. Bindmounts werken ook bij beiden type containers, alleen is het bij privileged wel makkelijker.lolgast schreef op zaterdag 19 december 2020 @ 22:16:
[...]
Ik heb geen 'niet-unprivileged' LXC gemaakt. Volgens mij werkt Docker dan direct zonder gedoeÉn je kunt mountpoints gebruiken, die werken anders ook niet.
Ik heb proxmox nu een paar maanden en wearout was al 7% op een nvme ssd. Ik begreep dat dit komt omdat ik mijn ssd als zfs pool heb ingezet waarop de vm containers. Nu de ssd omgezet naar lvm en daarop de containers. Hopelijk gaat dit beter.krijn1985 schreef op woensdag 9 december 2020 @ 10:18:
[...]
Ik heb nu iets meer dan 3 jaar een Crucial MX300 m.2 van 500GB in gebruik en wearout is volgens Proxmox 11%. Ding staat 24/7 aan en zowel desktop als Docker vm's staan hier gewoon op.
Hierbij wel gelijk een vraag hoe en of jullie backups testen. Ik had van alle vm's een backup om terug te zetten na het formateren van de ssd. Nu probeerde ik ze terug te zetten en de meesten werkten wel maar een aantal hadden een of andere checksum error. Dus die was ik allemaal kwijt. Terwijl er dus nergens in het backup proces iets gemeld word...Moet je dan altijd na een backup restoren om zeker te weten dat het goede backups zijn? En welke methode gebruiken jullie? Ik gebruikte mode snapshot maar gebruik nu maar stop, misschien dat dat veiliger is?
Voor de 100% zekerheid wel ja. Hier draait alles op ZFS snapshots wat betreft backups.tomdh76 schreef op zondag 20 december 2020 @ 21:38:
[...]
.Moet je dan altijd na een backup restoren om zeker te weten dat het goede backups zijn?
Sinds de 2 dagen regel reageer ik hier niet meer
Ik gebruik PBS ..van proxmox, maakt in ieder geval werkende backups, hier en daar gaat het fout met een time-outHierbij wel gelijk een vraag hoe en of jullie backups testen. Ik had van alle vm's een backup om terug te zetten na het formateren van de ssd. Nu probeerde ik ze terug te zetten en de meesten werkten wel maar een aantal hadden een of andere checksum error. Dus die was ik allemaal kwijt. Terwijl er dus nergens in het backup proces iets gemeld word...Moet je dan altijd na een backup restoren om zeker te weten dat het goede backups zijn? En welke methode gebruiken jullie? Ik gebruikte mode snapshot maar gebruik nu maar stop, misschien dat dat veiliger is?
heb verificatie ook maar aangezet
Enige wat ik nog niet voor elkaar krijgt is dat ik 7 dagen backup krijg en dan 1 backup van de week, en dan 1 backup van een maand.
Maar goed..
Het werkt
There are no secrets, only information you do not yet have
Dat zfs gebeuren heb ik moeten verlaten omdat daarbij mijn ssd snel kapot zullen gaan.CurlyMo schreef op zondag 20 december 2020 @ 21:51:
[...]
Voor de 100% zekerheid wel ja. Hier draait alles op ZFS snapshots wat betreft backups.
Hoe dat zo? Hier nergens last van, Proxmox op een enkele 120GB SSD, dus zowel OS als data.tomdh76 schreef op maandag 21 december 2020 @ 17:48:
[...]
Dat zfs gebeuren heb ik moeten verlaten omdat daarbij mijn ssd snel kapot zullen gaan.
Hier ook geen enkel probleem met SSD's en ZFS. Ik draai er al vele jaren op.tomdh76 schreef op maandag 21 december 2020 @ 17:48:
[...]
Dat zfs gebeuren heb ik moeten verlaten omdat daarbij mijn ssd snel kapot zullen gaan.
Sinds de 2 dagen regel reageer ik hier niet meer
Ik heb er geen verstand van maar het viel me op bij een nieuwe ssd dat ik na een paar maanden al een wearout van 7% had. Dus die zou het na een jaar al wrsch gaan begeven. En ik dit topic kreeg ik het volgende advies:DRAFTER86 schreef op maandag 21 december 2020 @ 17:51:
[...]
Hoe dat zo? Hier nergens last van, Proxmox op een enkele 120GB SSD, dus zowel OS als data.
maxxie85 schreef op zondag 8 november 2020 @ 13:33:
[...]
Welk bestandssysteem gebruik je op die SSD?
ZFS voert veel writes uit en is over het algemeen niet aangeraden op consumer-level SSD's.
Misschien kan je in de SMART data terug vinden wat de waarde is voor de "Total Bytes Written"
Dus toen alles maar LVM overgezet, maar wrsch komt het dus dat ik een simpele samsung nvme ssd heb gekocht en niet een enterprise ssd. Als jij geen wearout hebt zal het daar wel aan liggenmaxxie85 schreef op zondag 8 november 2020 @ 15:06:
[...]
Wat je kan doen is backup maken van je containers en VM's naar een NAS of externe harde schijf. En dan proxmox opnieuw installeren met LVM op Ext4. Je verliest wel de mogelijkheid voor snapshots, maar je SSD wordt gespaard.
ZFS schrijft voor elk data blok ook een redundancy weg, verder worden er verschillende caches bijgehouden wst voor nog meer writes zorgt
Ik doe alles met standaard Crucial SSD's.tomdh76 schreef op maandag 21 december 2020 @ 18:03:
[...]
Dus toen alles maar LVM overgezet, maar wrsch komt het dus dat ik een simpele samsung nvme ssd heb gekocht en niet een enterprise ssd. Als jij geen wearout hebt zal het daar wel aan liggen
Sinds de 2 dagen regel reageer ik hier niet meer
En wat is jouw wearout?CurlyMo schreef op maandag 21 december 2020 @ 18:08:
[...]
Ik doe alles met standaard Crucial SSD's.
1
2
3
4
| Device Model: M4-CT256M4SSD2 9 Power_On_Hours 0x0032 100 100 001 Old_age Always - 24163 173 Wear_Leveling_Count 0x0033 068 068 010 Pre-fail Always - 985 202 Perc_Rated_Life_Used 0x0018 068 068 001 Old_age Offline - 32 |
1
2
3
| Device Model: CT480BX500SSD1 9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 4001 202 Percent_Lifetime_Remain 0x0030 086 086 001 Old_age Offline - 14 |
De tweede SSD heeft Wear_Leveling_Count niet.
Sinds de 2 dagen regel reageer ik hier niet meer
Thx, deze getallen heeft mijn ssd niet. En als je kijkt in de GUI onder pve, en dan disks? Bij mij is dat dus 7% bij wearoutCurlyMo schreef op maandag 21 december 2020 @ 18:21:
[...]
code:
1 2 3 4 Device Model: M4-CT256M4SSD2 9 Power_On_Hours 0x0032 100 100 001 Old_age Always - 24163 173 Wear_Leveling_Count 0x0033 068 068 010 Pre-fail Always - 985 202 Perc_Rated_Life_Used 0x0018 068 068 001 Old_age Offline - 32
code:
1 2 3 Device Model: CT480BX500SSD1 9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 4001 202 Percent_Lifetime_Remain 0x0030 086 086 001 Old_age Offline - 14
De tweede SSD heeft Wear_Leveling_Count niet.
Resp. dus 32% en 14% volgens de Proxmox interpretatie van de SMART waardes.tomdh76 schreef op maandag 21 december 2020 @ 18:26:
[...]
Thx, deze getallen heeft mijn ssd niet. En als je kijkt in de GUI onder pve, en dan disks? Bij mij is dat dus 7% bij wearout
Sinds de 2 dagen regel reageer ik hier niet meer
Dat valt dan wel mee als je er al jaren op draait. Misschien ligt het aan mijn containers; ik heb er wel aardig wat; plex, roon, home assistant en nog linux mint. Ik had ook al 10 Tb aan data geschreven in een maand tijd... :-) .CurlyMo schreef op maandag 21 december 2020 @ 18:28:
[...]
Resp. dus 32% en 14% volgens de Proxmox interpretatie van de SMART waardes.
Ik heb de Power_On_Hours ook benoemd. Dus concludeer maar zelf. Resp. de waardes waar jij aan refereert:tomdh76 schreef op maandag 21 december 2020 @ 18:37:
[...]
Dat valt dan wel mee als je er al jaren op draait. Misschien ligt het aan mijn containers; ik heb er wel aardig wat; plex, roon, home assistant en nog linux mint. Ik had ook al 10 Tb aan data geschreven in een maand tijd... :-) .
1
2
| 241 Total_LBAs_Written 0x0000 100 253 000 Old_age Offline - 13629466792 242 Total_LBAs_Read 0x0000 100 253 000 Old_age Offline - 26007807072 |
en
1
| 246 Total_LBAs_Written 0x0032 100 100 000 Old_age Always - 42932872895 |
De tweede heeft de read waarde niet.
Sinds de 2 dagen regel reageer ik hier niet meer
Dank je, maar ik ben te noob om deze waarden te interpreteren. Ik vond het wearout percentage van mijn ssd schrikbarend dus toen maar actie ondernomen. Al die andere SMART waardes zeggen me niets.CurlyMo schreef op maandag 21 december 2020 @ 18:39:
[...]
Ik heb de Power_On_Hours ook benoemd. Dus concludeer maar zelf. Resp. de waardes waar jij aan refereert:
code:
1 2 241 Total_LBAs_Written 0x0000 100 253 000 Old_age Offline - 13629466792 242 Total_LBAs_Read 0x0000 100 253 000 Old_age Offline - 26007807072
en
code:
1 246 Total_LBAs_Written 0x0032 100 100 000 Old_age Always - 42932872895
De tweede heeft de read waarde niet.
Ik heb proxmox geinstalleerd op twee SSD's (beide 120GB). Nou is er een local en een local-zfs (ZFS gekozen tijdens installatie) opslag plek in the proxmox web UI. Nou zie ik in datacentrum dat 1 van de twee een folder is, maar waarom is er niet gewoon 1 plek waar je alles kan zetten? Ik zie de reden niet waarom dit twee moeten zijn waarvan eentje gewoon een folder is?
Ik dacht dat je hem ook niet uit kon zetten, maar alleen kan disablen.
Even niets...
Local-zfs is de plaats waar je lxc datasets komen te staan.RL600 schreef op dinsdag 22 december 2020 @ 10:25:
Hey allen,
Ik heb proxmox geinstalleerd op twee SSD's (beide 120GB). Nou is er een local en een local-zfs (ZFS gekozen tijdens installatie) opslag plek in the proxmox web UI. Nou zie ik in datacentrum dat 1 van de twee een folder is, maar waarom is er niet gewoon 1 plek waar je alles kan zetten? Ik zie de reden niet waarom dit twee moeten zijn waarvan eentje gewoon een folder is?
Local is ergens een locatie op je root filesysteem waar iso's, template's, backups,... staan.
- Deze advertentie is geblokkeerd door Pi-Hole -
In local-zfs kan een VM disk ook staan. In de local directory kan je daadwerkelijk alles neerzetten. Feitelijk allemaal waar, maar waarom? Ik zie geen reden waarom je het zou opdelen.. Je kan bij een nieuwe installatie toch prima 1 plek hebben en daar alles neerzetten.A1AD schreef op dinsdag 22 december 2020 @ 12:41:
[...]
Local-zfs is de plaats waar je lxc datasets komen te staan.
Local is ergens een locatie op je root filesysteem waar iso's, template's, backups,... staan.
Kort samengevat:
local-zfs is geen filesystem. Aangezien een VM of een CT volume dat niet is kan die daar staan. Wil je ook een backup lokaal opslaan dan heb je een extra directory nodig (local).Backups are stored as files, files are stored on filesystems.
Dan blijft het gek dat local-zfs er is en niet gewoon alles in local staat?
Dat is wat ik zeg. Lees: DATASETS, datasets zijn geen directories.RL600 schreef op dinsdag 22 december 2020 @ 14:34:
[...]
In local-zfs kan een VM disk ook staan. In de local directory kan je daadwerkelijk alles neerzetten. Feitelijk allemaal waar, maar waarom? Ik zie geen reden waarom je het zou opdelen.. Je kan bij een nieuwe installatie toch prima 1 plek hebben en daar alles neerzetten.
- Deze advertentie is geblokkeerd door Pi-Hole -
Met local-zfs schrijf je de gevens van je virtuele disks op blocklevel niveau en op de local doe je dat op filelevel niveau naar een filesystem.RL600 schreef op dinsdag 22 december 2020 @ 14:39:
Ik denk dat ik het antwoord heb: https://forum.proxmox.com...to-local-lvm-drive.15711/
Kort samengevat:
[...]
local-zfs is geen filesystem. Aangezien een VM of een CT volume dat niet is kan die daar staan. Wil je ook een backup lokaal opslaan dan heb je een extra directory nodig (local).
Dan blijft het gek dat local-zfs er is en niet gewoon alles in local staat?
Doordat je bij zfs op blocklevel wegschrijft krijg je er andere voordelen er voor terug denk o.a. hogere performance en bij replicatie hoef je enkel de gewijzigde blocken te repliceren i.p.c. het hele bestand.
En proxmox moet geinstalleerd worden op een filesystem waardoor je dus zowel local als local-zfs krijgt
[ Voor 98% gewijzigd door GioStyle op 30-10-2022 07:14 ]
Ik heb een 60GB 2,5" SSD gebruikt voor Proxmox OS, die had ik nog liggen en kost toch niets. Ik heb de NVME gebruikt voor local storage.GioStyle schreef op dinsdag 22 december 2020 @ 15:07:
Als je een 1TB nvme ssd hebt liggen voor Proxmox, hoe zouden jullie dat dan indelen? Ik dacht gewoon aan 64GB voor local en de rest voor local-zfs?
i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60
De gehele disk voor beiden. Tenzij je zeer specifieke redenen hebt om dat niet te willen (zoals de Proxmox-installatie zelf niet op ZFS).GioStyle schreef op dinsdag 22 december 2020 @ 15:07:
Als je een 1TB nvme ssd hebt liggen voor Proxmox, hoe zouden jullie dat dan indelen? Ik dacht gewoon aan 64GB voor local en de rest voor local-zfs?
Dat gaat nietGioStyle schreef op dinsdag 22 december 2020 @ 15:07:
Als je een 1TB nvme ssd hebt liggen voor Proxmox, hoe zouden jullie dat dan indelen? Ik dacht gewoon aan 64GB voor local en de rest voor local-zfs?
Gaat prima. Het is niet erg als je het niet zeker weet
1
2
3
4
5
6
7
8
9
| dir: local path /var/lib/vz content iso,vztmpl,backup zfspool: local-zfs pool data/vm content images,rootdir mountpoint /data/vm sparse 1 |
[ Voor 8% gewijzigd door CurlyMo op 22-12-2020 20:56 ]
Sinds de 2 dagen regel reageer ik hier niet meer
O nice, goed om te weten. Hoe heb ke dat gedaan als ik vragen mag ?CurlyMo schreef op dinsdag 22 december 2020 @ 20:48:
[...]
Gaat prima. Het is niet erg als je het niet zeker weet
code: /etc/pve/storage.cfg
1 2 3 4 5 6 7 8 9 dir: local path /var/lib/vz content iso,vztmpl,backup zfspool: local-zfs pool data/vm content images,rootdir mountpoint /data/vm sparse 1
Met een standaard install op mijn testcluster kreeg ik het niet voor elkaar. (Volgens de documentatie/forum)
Letterlijk wat je daar ziet. Het betreffende bestand aanpassen.powerboat schreef op dinsdag 22 december 2020 @ 22:28:
[...]
O nice, goed om te weten. Hoe heb ke dat gedaan als ik vragen mag ?![]()
Met een standaard install op mijn testcluster kreeg ik het niet voor elkaar. (Volgens de documentatie/forum)
Sinds de 2 dagen regel reageer ik hier niet meer
Oh nevermindCurlyMo schreef op dinsdag 22 december 2020 @ 22:35:
[...]
Letterlijk wat je daar ziet. Het betreffende bestand aanpassen.

Daar moet je een bootdisk hebben en disk voor data. Je kan geen aparte partities gebruiken.

[ Voor 99% gewijzigd door GioStyle op 30-10-2022 07:15 ]
Proxmox is Debian met een Ubuntu LTS kernel, dus die moet je niet apart zien. Dus proxmox installeren op de 1TB SSD en daar kan je dus ook de VM en containers opzetten. De ZFS pool importeren op de Proxmox host en via bindmounts doorzetten naar containers. Docker kan in een Debian LXC container Zenix in "Het grote Proxmox VE topic" voor minder overhead. VM kan je inderdaad migreren, maar alles met Linux zou ik in een Debian container doen. Eventueel kan je voor de Exchange een disk aanmaken op de SSD voor de VM en een disk op je ZFS pool. Door alles in containers en VM's te doen, kan je ook mooi gebruik maken van de back-up opties van Proxmox en kan je bijvoorbeeld alle backups sturen naar je ZFS pool.GioStyle schreef op zaterdag 26 december 2020 @ 15:01:
Ik heb toch nog even meningen nodig over mijn setup. Ik draai thuis momenteel het volgende:
Windows Server 2019 met Hyper-V op een 1TB nvme ssd. Op de Hyper-V host heb ik 3 VM's:
1.) Debian 10 met Docker + 6x5TB in raidz2 (disk passthrough)
2.) Windows Server 2016 Active Directory + DNS + DHCP + 1TB nvme ssd (disk passthrough)
3.) Windows Server 2016 met Exchange 2016
Ik zou graag willen overstappen naar het volgende:
Schone Debian install met daarop Proxmox VE plus daarop bovenstaande VM's.
Wat ik wil is mogelijk toch? Ik weet nog niet helemaal zeker of ik de VM's ga migreren of opnieuw ga beginnen.
Hoe kan ik het best de 1TB nvme ssd dan indelen? Ik had zelf gedacht voor 64GB voor Debian + Proxmox VE en de rest voor de VM's.
Iemand nog tips verder?
Mooier is nog 2x een SSD in een mirror met ZFS voor Proxmox, zodat je ook ZFS snapshots kan gebruiken.
[ Voor 8% gewijzigd door Zenix op 26-12-2020 15:39 ]
Stap één was even de LXC config uit /etc/pve/lxc terugzoeken in /.zfs/snapshots.
Daar blijkt echter dat de snapshots (ik heb een snapshot per uur) van de root partitie heel die lxc config folder missen?
Mijn zfs list output (ik heb een hoop vm/container datasets er uit geknipt voor het overzicht):
1
2
3
4
5
6
7
8
| # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 76.9G 30.7G 96K /rpool rpool/ROOT 12.5G 30.7G 96K /rpool/ROOT rpool/ROOT/pve-1 12.5G 30.7G 5.76G / rpool/data 23.6G 30.7G 112K /rpool/data rpool/data/subvol-100-disk-1 890M 30.7G 536M /rpool/data/subvol-100-disk-1 rpool/swap 12.5G 33.2G 4.87G - |
De output van ls -lah /etc/pve/nodes/prox/lxc:
1
2
3
4
5
6
7
| ls -lah /etc/pve/nodes/prox/lxc/ total 8.0K drwxr-xr-x 2 root www-data 0 Jun 1 2017 . drwxr-xr-x 2 root www-data 0 Jun 1 2017 .. -rw-r--r-- 1 root www-data 250 Dec 27 08:10 100.conf .... -rw-r--r-- 1 root www-data 397 Dec 27 08:10 115.conf |
Echter in mijn snapshots is de hele /etc/pve map leeg?
1
2
3
4
| # ls -lah /.zfs/snapshot/2020-11-29-080000/etc/pve/ total 9.0K drwxr-xr-x 2 root root 2 Jun 1 2017 . drwxr-xr-x 108 root root 217 Nov 10 20:47 .. |
Ik dacht misschien iets met symlinks oid, maar die /etc/pve/nodex/prox zou een normale map moeten zijn.
Zie ik iets over het hoofd?
Die config directory is een SQLite FS. Zie de inleiding uit het kopje recovery:DRAFTER86 schreef op maandag 28 december 2020 @ 12:17:
Zie ik iets over het hoofd?
https://pve.proxmox.com/w...ster_File_System_(pmxcfs)
Sinds de 2 dagen regel reageer ik hier niet meer
Wow thanks, dat is goed verborgen! Maar in de output van mount is het inderdaad te zien.CurlyMo schreef op maandag 28 december 2020 @ 12:20:
[...]
Die config directory is een SQLite FS. Zie de inleiding uit het kopje recovery:
https://pve.proxmox.com/w...ster_File_System_(pmxcfs)
Nu even uitzoeken hoe ik een oude versie kan mounten...
Ik wil daar proxmox op gaan draaien met daarin Hassio en open mediavault met docker en nextcloud en andere containers.
Ik heb een:
m2 500gb voor proxmox en vm’s
Ssd 500 gb data/ foto’s.
Wat kan ik het beste aanschaffen als back up? Dacht zelf aan een 2 tb harddisk en dan proxmox de backups op die schijf uit te laten voeren of zijn er betere opties?
Alvast bedankt voor het meedenken
Wat zoek je zelf in een backup?sven123ab schreef op maandag 28 december 2020 @ 19:08:
Wat kan ik het beste aanschaffen als back up? Dacht zelf aan een 2 tb harddisk en dan proxmox de backups op die schijf uit te laten voeren of zijn er betere opties?
Sinds de 2 dagen regel reageer ik hier niet meer
Ik wil mijn vm’s backuppen en de data die daar op staat met nextcloud daarin staan mijn foto’s die moeten gebackupt worden.
Dat lijkt me logischsven123ab schreef op maandag 28 december 2020 @ 20:22:
[...]
Ik wil mijn vm’s backuppen en de data die daar op staat met nextcloud daarin staan mijn foto’s die moeten gebackupt worden.
Welke mate van veiligheid zoek je? Een HDD altijd aangesloten is natuurlijk minder veilig (bliksem, brand, inbraak, cryptoware) dan offsite.
Sinds de 2 dagen regel reageer ik hier niet meer
Haha sorry geeft mijn niveau aan... veiligheid is wel belangrijk maar de eerste 3 punten ben ik niet zo bang voor is natuurlijk wel mogelijk... offsite moet ik denken aan clouddiensten neem ik aan... had altijd stack 1 tb maar helaas is dat niet meer gratis en betalen zie ik niet zitten of er offsite oplossing zijn gratis of voor een leuk bedrag weet ik niet. HDD is eenmalige aankoop maar wel altijd aangesloten. Kortom ben er niet uit heb je nog tips of ideeën.CurlyMo schreef op maandag 28 december 2020 @ 20:33:
[...]
Dat lijkt me logisch
Welke mate van veiligheid zoek je? Een HDD altijd aangesloten is natuurlijk minder veilig (bliksem, brand, inbraak, cryptoware) dan offsite.
Je zou ook kunnen kijken naar een simpele NAS met al dan niet een RAID setup waar je de VM's naar kan backuppen. Ietwat veiliger dan simpelweg een externe HDD eraan hangen.
Ik heb zelf ook een NUC-achtige setup (ik vond mijn 8e gen NUC te luid, dus heb een Lenovo M900 tiny ervoor in de plaats gezet), daar heb ik ook VM's op draaien op een NVME, daar draait weer (o.a.) Ubuntu server op met Docker als host. De data volumes heb ik gemapt naar een NAS, die dan weer in RAID staat. Daarnaast ben ik van plan (zit nog in de transitie vanaf een andere setup) om periodiek een VM snapshot te maken en deze te plaatsen op de NAS. Soort van dubbele veiligheid zeg maar. Ik ben nog van plan om voor mijn écht belangrijke data een offsite backup in te regelen bij mijn ouders op de NAS, de rest is vervangbaar.
i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60
Sinds de 2 dagen regel reageer ik hier niet meer
True, helaas ook wel mindere ervaringen mee gehad, maar ik draai daarnaast ook nog Duplicati, dus ik denk dat ik wel goed zitCurlyMo schreef op maandag 28 december 2020 @ 21:27:
@Sp33dFr34k De dooddoener, maar RAID != backup.
i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60
Ik merk hierbij dat de W10 VM altijd de max mem limit (8GB) gebruikt... ook al staat ie te idlen. Is dat normaal in Proxmox?
i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60
Het lijkt af te nemen als ik remote inlog op de VM, dat is het gekke. Dan gaat ie ineens rond de 5GB zitten, zowel in de VM zelf als in Proxmox. Komt niet helemaal overeen, maar wel close. De VirtIO drivers heb ik wel geïnstalleerd...dcm360 schreef op zaterdag 9 januari 2021 @ 13:35:
Geeft Windows zelf ook dat geheugengebruik aan? Mocht je dat niet gedaan hebben, is het altijd aan te raden om de VirtIO drivers en tools te installeren: https://pve.proxmox.com/w..._Guest_Agent_and_Services
i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60
Heb je ook de balloon driver geïnstalleerd en die optie aangezet in Proxmox?Sp33dFr34k schreef op zaterdag 9 januari 2021 @ 13:42:
[...]
Het lijkt af te nemen als ik remote inlog op de VM, dat is het gekke. Dan gaat ie ineens rond de 5GB zitten, zowel in de VM zelf als in Proxmox. Komt niet helemaal overeen, maar wel close. De VirtIO drivers heb ik wel geïnstalleerd...
Ik vond dit een duidelijk en goede guide https://davejansen.com/re...016-2018-2019-vm-proxmox/
Thanks voor de tip! Ik heb een vid van Techno Tim gevolgd, daarbij heb ik wel de ballooning driver geïnstalleerd en aangezet in Proxmox, maar niet als service geïnstalleerd. Dat laatste was het missende punt dus, nu zakt het geheugengebruik als ik niet connected ben op de VM (naar zo'n 3GB), als ik ingelogd ben komt het inderdaad mooi overeen met het geheugengebruik wat ik in W10 zelf zie. Top, thanks!maxxie85 schreef op zaterdag 9 januari 2021 @ 14:12:
[...]
Heb je ook de balloon driver geïnstalleerd en die optie aangezet in Proxmox?
Ik vond dit een duidelijk en goede guide https://davejansen.com/re...016-2018-2019-vm-proxmox/
EDIT: Zakt zelfs helemaal naar 1,25GB uiteindelijk
[ Voor 3% gewijzigd door Sp33dFr34k op 10-01-2021 00:08 ]
i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60
Eventueel 1x m.2 en 1x SSD, kan er ook een backup gemaakt worden naar de SSD of andersom in geval m.2 of de SSD is overleden?
[ Voor 16% gewijzigd door BliXem op 18-01-2021 22:47 ]
Geen idee, nooit geprobeerd. lijkt me wel een leuke casus: 9BliXem schreef op maandag 18 januari 2021 @ 22:07:
Ik heb een NUC thuis waarbij ik nu op een omslachtige manier enkele VM's draai. Maar ik wil dezelfde NUC omzetten naar Proxmox. Alleen is het zo dat bijna alle NUC's maar 1 m2 slot en 1 SSD slot hebben. Zou ik een mirror link (raid) kunnen opzetten van 1 M2 en 1 SSD van hetzelfde merk + aantal GB's? Iemand enig idee?
Eventueel 1x m.2 en 1x SSD, kan er ook een backup gemaakt worden naar de SSD of andersom in geval m.2 of de SSD is overleden?
Sinds de 2 dagen regel reageer ik hier niet meer
https://nakaori.net/index...der-intel-hd-grafikkarte/
"Native" grafische performance in je Windows VM
Poeh, zou niet logisch zijn dat hij in slaapstand gaat tenzij je zoiets expliciet hebt ingesteld.sven123ab schreef op woensdag 20 januari 2021 @ 19:26:
Hoi ik heb een vraag.. Mijn NUC met proxmox laat na een week niet meer kan dat komen dat de nuc in slaapstand gaat? Ik moet de NUC helemaal opnieuw opstarten om weer op de proxmox server te komen! Wie heeft de goude tip alvast bedankt.
Heb je al de syslog en dmesg bekeken?
ik had het net weer ik kom dan mijn server niet meer in en ik kijk dan bij mijn nuc en dan brand dat oranje lampje stil en wanneer ik de stekker eruit haal en erin doet gaat het oranje lampje weer knipperen en werkt mijn server weer... erg vreemd maar ook vervelend..maxxie85 schreef op woensdag 20 januari 2021 @ 19:55:
[...]
Poeh, zou niet logisch zijn dat hij in slaapstand gaat tenzij je zoiets expliciet hebt ingesteld.
Heb je al de syslog en dmesg bekeken?
Ja dus het lampje van de HDD activiteit brand non-stop?sven123ab schreef op zaterdag 23 januari 2021 @ 20:40:
[...]
ik had het net weer ik kom dan mijn server niet meer in en ik kijk dan bij mijn nuc en dan brand dat oranje lampje stil en wanneer ik de stekker eruit haal en erin doet gaat het oranje lampje weer knipperen en werkt mijn server weer... erg vreemd maar ook vervelend..
Zie hier het topic over mijn issue: Proxmox lockups door NVME drive? en mijn review waar een ogenschijnlijke fix in de comments staat: productreview: Kingston A2000 500GB review door RobertMe (ogenschijnlijke fix omdat ik de SSD intussen dus niet meer gebruik en dus niet kan verifiëren).
Jaa die heb ik! Shit heb altijd dat soort problemen word er een beetje moe van kijken hoe ik dit kan oplossen hopelijkRobertMe schreef op zaterdag 23 januari 2021 @ 22:09:
@sven123ab heb je toevallig een Kingston A2000? Ik had daar namelijk issues mee, waardoor ogenschijnlijk/achteraf op basis van anderen de SSD in een (deep) sleep stand gaat waar die niet meer uit komt.
Zie hier het topic over mijn issue: Proxmox lockups door NVME drive? en mijn review waar een ogenschijnlijke fix in de comments staat: productreview: Kingston A2000 500GB review door RobertMe (ogenschijnlijke fix omdat ik de SSD intussen dus niet meer gebruik en dus niet kan verifiëren).
Ik zie waarschijnlijk de fix heb alleen geen idee hoe ik dat moet oplossen...RobertMe schreef op zaterdag 23 januari 2021 @ 22:09:
@sven123ab heb je toevallig een Kingston A2000? Ik had daar namelijk issues mee, waardoor ogenschijnlijk/achteraf op basis van anderen de SSD in een (deep) sleep stand gaat waar die niet meer uit komt.
Zie hier het topic over mijn issue: Proxmox lockups door NVME drive? en mijn review waar een ogenschijnlijke fix in de comments staat: productreview: Kingston A2000 500GB review door RobertMe (ogenschijnlijke fix omdat ik de SSD intussen dus niet meer gebruik en dus niet kan verifiëren).
In de GRUB bootloader config kan je een parameter meegeven met het booten van de linux kernel.
Nadat je de config hebt opgeslagen, pas je ze toe met het command "update-grub"
Stappenplan:
1. connect naar de terminal van proxmox
2. Edit deze file: /etc/default/grub
(ik doe dat met nano):
nano /etc/default/grub
3. Pas de GRUB_CMDLINE_LINUX_DEFAULT variable aan zodat die regel er zo uitziet:
GRUB_CMDLINE_LINUX_DEFAULT="nvme_core.default_ps_max_latency_us=5500"
4. Voer dit commando uit:
update-grub
5. Reboot om de nieuwe settings toe te passen. Nu zou de SSD niet meer moeten verdwijnen!
Het probleem ligt in de APST S4 power state, die wordt met bovenstaande kernel parameter uitgeschakeld.
Volgens mij zit er een ontwerpfout in de A2000. Er is te weinig info bekend om het euvel precies te duiden maar wat ik ervan kan maken is dit: Die low power state zorgt er op sommige moederborden voor dat de complete communicatie stopt. Mogelijk is de signaalkwaliteit te zwak onder die omstandigheden waardoor de PCIe controller de gehele verbinding uitschakelt oid.
Maar goed, met deze hack kan je er goed omheen werken. .
"trying to acquire lock...
TASK ERROR: can't lock file '/var/lock/qemu-server/lock-101.conf' - got timeout"
Enige wat werkt is de hele server rebooten... iemand ook problemen hiermee? Het gaat overigens om een ubuntu server 20.04 VM, maar ik heb het ook al met een W10 VM gehad...
i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60
Wat ook werkt is via terminal naar: /var/lock/qemu-server/ gaan, en de desbetreffende /var/lock/qemu-server/lock-XXXXXX.conf deleten. Granted, zou zelf ook liever weten WAAROM een VM zo kut werkt.Sp33dFr34k schreef op zondag 24 januari 2021 @ 17:39:
Ik heb al voor de 3e keer een probleem met een VM, hij hangt dusdanig vast dat een VM stoppen of shutdown niet eens meer werkt, ik krijg dat deze melding:
"trying to acquire lock...
TASK ERROR: can't lock file '/var/lock/qemu-server/lock-101.conf' - got timeout"
Enige wat werkt is de hele server rebooten... iemand ook problemen hiermee? Het gaat overigens om een ubuntu server 20.04 VM, maar ik heb het ook al met een W10 VM gehad...
Ik kwam dus ook de terminal van Proxmox zelf niet meer in na de shutdown kloterij, alles om zeep...Koepert schreef op zondag 24 januari 2021 @ 17:53:
[...]
Wat ook werkt is via terminal naar: /var/lock/qemu-server/ gaan, en de desbetreffende /var/lock/qemu-server/lock-XXXXXX.conf deleten. Granted, zou zelf ook liever weten WAAROM een VM zo kut werkt.

Hopelijk gaat dit geen vaak voorkomend probleem worden, ik doe verder niet veel spannends op die VM's dus lijkt me ook sterk dat ie ergens van over de nek gaat...
i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60
Bij mij een VM die om de haverklap bij een backup gewoon uit ging en niet meer aan. Ondanks dat de backup gewoon een snapshot moest zijn. VM vervangen en opgelost.Sp33dFr34k schreef op zondag 24 januari 2021 @ 19:40:
[...]
Ik kwam dus ook de terminal van Proxmox zelf niet meer in na de shutdown kloterij, alles om zeep...![]()
Hopelijk gaat dit geen vaak voorkomend probleem worden, ik doe verder niet veel spannends op die VM's dus lijkt me ook sterk dat ie ergens van over de nek gaat...
Enige jammere, en daar mag ik niet over klagen is dat PBS ook vaak crashed, vooral als ik binnen mijn cluster alle machines achter elkaar wil backuppen.
Ik snap nu ook dat ze aangeven dat PBS stand-alone moet draaien.
Heb nog wel een LXC die ook soms ineens unresponsive wordt en dan moet ik de taak killen in de shell van die proxmox omgeving. Nu zijn het gelukkig geen virtuele machines die ik altijd aan moet hebben, maar goed .. soms wel vervelend
There are no secrets, only information you do not yet have
Officieel Debian bericht hier: https://www.debian.org/security/2021/dsa-4839
Veel beschrijvendere blog van Qualys hier: https://blog.qualys.com/v...low-in-sudo-baron-samedit
Patchen dusCVE-2021-3156: Heap-Based Buffer Overflow in Sudo (Baron Samedit)
The Qualys Research Team has discovered a heap overflow vulnerability in sudo, a near-ubiquitous utility available on major Unix-like operating systems. Any unprivileged user can gain root privileges on a vulnerable host using a default sudo configuration by exploiting this vulnerability.
Sudo is a powerful utility that’s included in most if not all Unix- and Linux-based OSes. It allows users to run programs with the security privileges of another user. The vulnerability itself has been hiding in plain sight for nearly 10 years. It was introduced in July 2011 (commit 8255ed69) and affects all legacy versions from 1.8.2 to 1.8.31p2 and all stable versions from 1.9.0 to 1.9.5p1 in their default configuration.
Successful exploitation of this vulnerability allows any unprivileged user to gain root privileges on the vulnerable host. Qualys security researchers have been able to independently verify the vulnerability and develop multiple variants of exploit and obtain full root privileges on Ubuntu 20.04 (Sudo 1.8.31), Debian 10 (Sudo 1.8.27), and Fedora 33 (Sudo 1.9.2). Other operating systems and distributions are also likely to be exploitable.
edit: nieuws: Bug in sudo-commando kon rootrechten toekennen aan iedere gebruiker
[ Voor 6% gewijzigd door Hmmbob op 27-01-2021 12:14 ]
Sometimes you need to plan for coincidence
Ik heb Proxmox draaien met 2 VMs. Home Assistant en een losse Debian image voor DSMR-reader. Beide hebben 32GB per stuk aan opslag tot hun beschikking. (LocalLVM)
Maar nu zit dat dus vol... En dan werkt Home Assistant niet meer. Ik heb een snapshot image weggegooid om ruimte te maken, maar dat lukt straks niet meer. Ik zag ook dat Home Assistant opeen 3GB wegschreef.
/f/image/lb5eq341gt74wHnVcMXw0Eod.png?f=fotoalbum_large)
Hoe kan ik ruimte vrij maken?
En hoe kan ik uberhaupt zien wat nu zoveel ruimte in neem in Proxmox? Al wat google-dingetjes geprobeert maar ik krijg de local-lvm's niet te zien in proxmox met df -h
:fill(white):strip_exif()/f/image/77gWuDtOxnhuFZkI4i4JM7D2.png?f=user_large)

Ruimte vrijmaken zul je op de VM zelf moeten doen. Staan er oude docker images die niet gebruikt worden? Heb je addons die ontzettend grote images gebruiken? En anders de disk vergroten, dat kan natuurlijk ook gewoon. Maar ik vind 32GB toch wel flink. De piek met data zou kunnen komen doordat je HA ging updaten op dat moment? Dan wordt gewoon de Docker image gedownload en die zijn best groot als ze eenmaal zijn uitgepakt op je machine.
Maar ik weet dus niet hoe ik kan zien wat nu zoveel ruimte inneemt op een VM?
Volgens mij kun je met het command lvdisplay zien welke disk images je hebt en hoe vol ze zitten.
Maar volgens HA zat je image nog helemaal niet vol, dus het lijkt me sterk dat daar een probleem door is ontstaan. Of is je local-LVM storage kleiner dan 64GB? Als daar 2 images op staan die elk 32GB groot kunnen worden moet hij die ruimte wel hebben natuurlijk. Als dat maar 20GB is en samen komen ze op 21GB uit, heb je een probleem
Heb beide VM's even df -h gedaan. dat geeft:lolgast schreef op woensdag 27 januari 2021 @ 13:37:
@Waah (Ik heb niet héél veel verstand van Proxmox)
Volgens mij kun je met het command lvdisplay zien welke disk images je hebt en hoe vol ze zitten.
Maar volgens HA zat je image nog helemaal niet vol, dus het lijkt me sterk dat daar een probleem door is ontstaan. Of is je local-LVM storage kleiner dan 64GB? Als daar 2 images op staan die elk 32GB groot kunnen worden moet hij die ruimte wel hebben natuurlijk. Als dat maar 20GB is en samen komen ze op 21GB uit, heb je een probleem
Hassio:
:fill(white):strip_exif()/f/image/Hws1IEPumzDtwj3oKeSxih5H.png?f=user_large)
Debian:
:fill(white):strip_exif()/f/image/M7djmTatFAQADLVgPIT8Dq44.png?f=user_large)
Als ik dat optel, kom ik op zo'n 21 GB aan gebruikte opslag.
De local-lvm heeft 64GB beschikbaar
/f/image/Q4TsCGtqXY0461BlP8JnXccS.png?f=fotoalbum_large)
Wat mis ik

Met vgdisplay kwam ik niet veel verder eigenlijk_JGC_ schreef op woensdag 27 januari 2021 @ 14:17:
@Waah Je gebruikt thin provisioned LVM voor opslag van VMs. Kijk eens naar vgdisplay
:fill(white):strip_exif()/f/image/OxleC8GgH1yD14saOnH08dzD.png?f=user_large)
Maar kwam zo ook op lvdisplay en de afgeleide lvs
Dan zie ik toch dat mijn Hassio Image "vol" zit.
:fill(white):strip_exif()/f/image/2fyujiKbrkL3uygHrj6RnZIw.png?f=user_large)
Ik heb een snapshot verwijderd, dus heb nu weer iets meer ruimte. Maar snap niet waarom die hassio-image zo groot is... Maar zal wel informeren in het home assistant topic.
Maar als ik het goed begrijp, je kunt niet even door zo'n volume grasduinen om te zien wat zoveel ruimte in neemt?
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Dat zou best kunnen. Ik zal er even induikenocf81 schreef op woensdag 27 januari 2021 @ 17:25:
@Waah Ik ken Hass.io niet zo goed, maar in veel gevallen is logging een bekende boosdoener voor dat soort problemen. Kan dat bij Hass.io ook het geval zijn?

Hier draaien tot nu toe linux VM's op voor het netwerk (Pihole, unifi etc) Domotica (Openhab, Logitech media server etc.) en een windows VM om diverse domotica apparatuur te kunnen configureren.
De pc bestaat uit:
Asus P11C-I, Intel i3 8100, 2x crucial mx500(ZSF raid 1), Hyperx fury 32GB, extra netwerkkaart, Yakkaroo server IPC-G1528 case.
Draait prima, maar aangezien het hele huis afhankelijk is van deze PC, wil ik wellicht nog een gaan bouwen voor redundantie.
Heeft iemand hier ervaring mee? is dat een beetje goed te doen?
Is het tevens belangrijk dat de hardware precies hetzelfde is?
Ik zou voor een reserve voeding zorgen en een UPS kopen, dan kan je de voeding direct swappen als die kapot gaat. Je SSD's zijn in mirror, dus als één stuk gaat kan je gewoon een nieuwe kopen en die de volgende dag erbij plaatsen. Gewoon het wear level goed in de gaten houden.
Ter vergelijking ik hebl zo'n 10 jaar homeservers op desktop hardware zitten draaien. Het enige wat ik heb moeten vervangen zijn schijven en een keer een fan die wat lawaai ging maken. Als je goed spul hebt dan gaat het niet snel stuk.
Dus ik wil een dedicated machine opzetten hiervoor. Ik dacht eerst aan mijn 2011 Mac Mini Server alleen is ondersteund deze machine (voor zover ik weet) geen passthrough voor de IGP, die ik nodig heb voor Plex (2635QM processor). Nu staan er genoeg 1u servers voor weinig ook hier op V&A, maar die dingen vreten over het algemeen stroom.
Ik zoek dus eigenlijk iets wat 1) goedkoop is 2) genoeg power om fatsoenlijk VM's te draaien, 3) niet vreselijk veel stroom trekt en 4) igp of pcie voor passthrough.
Hebben jullie daar een beetje suggesties voor, er vanuitgaande dat er Proxmox op moet gaan draaien?
Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs
Qua zuinigheid zou ik zeker eens hier kijken: Het grote zuinige server topic - deel 2 Daar komen ook wat Proxmox systemen langs, maar uiteindelijk maakt dat natuurlijk niet heel veel uit. Qua kant en klaar zou je natuurlijk ook voor een NUC kunnen gaan, en de ASRock DeskMini systemen zijn volgens mij ook populair op dit vlak.afterburn schreef op maandag 1 februari 2021 @ 13:56:
Vraagje waar jullie hopelijk mee kunnen helpen: ik gebruik momenteel mijn DS1815+ Synology voor containers en VM's, maar zoals jullie misschien kunnen geloven is met name het draaien van VM's op een Atom processor en 8GB geheugen niet de meest fantastische experience. Twee tot drie VM's gaat nog wel, zolang je er alleen een beetje mee speelt en er niet veel serieus mee doet.
Dus ik wil een dedicated machine opzetten hiervoor. Ik dacht eerst aan mijn 2011 Mac Mini Server alleen is ondersteund deze machine (voor zover ik weet) geen passthrough voor de IGP, die ik nodig heb voor Plex (2635QM processor). Nu staan er genoeg 1u servers voor weinig ook hier op V&A, maar die dingen vreten over het algemeen stroom.
Ik zoek dus eigenlijk iets wat 1) goedkoop is 2) genoeg power om fatsoenlijk VM's te draaien, 3) niet vreselijk veel stroom trekt en 4) igp of pcie voor passthrough.
Hebben jullie daar een beetje suggesties voor, er vanuitgaande dat er Proxmox op moet gaan draaien?
Vergeet overigens ook niet dat bij Proxmox VMs niet perse nodig zijn. Je hebt dan ook de mogelijkheid om LXC containers te draaien waarmee je alsnog een semi geisoleerde Linux omgeving hebt (die in eigen netwerk / VLAN kan draaien, met volledig init systeem, ... dus niet "gescheiden zoals Docker" maar meer "als VM"). Dat is een stuk lichter en gebruikt dus ook lang niet zoveel resources als een volledige VM.
Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs
https://www.megekko.nl/Co...lair_pp-50_p-1_d-list_cf-
@powerboat dank je, ga even kijken!
[ Voor 5% gewijzigd door afterburn op 02-02-2021 11:42 ]
Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs
Say whatafterburn schreef op dinsdag 2 februari 2021 @ 11:42:
@RobertMe lxc gaat hem niet worden helaas, wel jammer want het ziet er heel interessant uit. Had ik niet eens nieuwe hardware voor hoeven kopen want dan had ik met de mm wel uitgekund. Echter er zijn geen lxc containers beschikbaar met rhel voor zover ik kan zien en dat is mijn primaire distro. Zelf maken heb ik niet echt de tijd voor om allemaal uit te zoeken helaas.
https://www.redhat.com/sysadmin/exploring-containers-lxc
Ik heb het idee dat je docker en lxc door elkaar haalt.
Sinds de 2 dagen regel reageer ik hier niet meer
Absoluut niet. 😉 Er zijn wel docker rhel containers en je kunt rhel wel gebruiken om lxc/lxd op te draaien, maar er zijn geen lxc containers waarmee je rhel mee draait.CurlyMo schreef op dinsdag 2 februari 2021 @ 12:12:
[...]
Say what
https://www.redhat.com/sysadmin/exploring-containers-lxc
Ik heb het idee dat je docker en lxc door elkaar haalt.
Maar het lijkt alsof lxc containers maken heel erg lijkt op wat ik doe om mijn eigen wsl distro te maken op windows, dus nu ben ik heel nieuwsgierig aan het worden. Als dat zo is, dan heb ik zo rhel in een container draaien dus maar eens proberen.
Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs
Ik heb hier 2 itx plankjes van Supermico (x10sdv) deze kunnen 128GB aan DDR4 geheugen aan.powerboat schreef op maandag 1 februari 2021 @ 17:42:
Zie hier itx plankjes bij staan met 32GB of 64GB
https://www.megekko.nl/Co...lair_pp-50_p-1_d-list_cf-
Wat heb ik?
- Proxmox op een Dell Optiplex met 500GB HDD. Momenteel 1 VM.
- Externe HDD (128GB)
Snapshot van de VM OP die externe HDD maken. Dit zodat ik dagelijks/wekelijks een backup/snaphot van de VM naar deze externe disk kan schrijven.
Wat lukt er niet?
Vinden hoe ik die externe disk beschikbaar maak als storage-optie.
Gewoon de schijf mounten. Als je gaat zoeken op ''mount usb drive proxmox'' krijg je genoeg resultaten.Koepert schreef op vrijdag 5 februari 2021 @ 14:03:
Ik heb een vraag die lastiger is dan ik dacht. Althans het vinden van de oplossing.
Wat heb ik?Wat wil ik?
- Proxmox op een Dell Optiplex met 500GB HDD. Momenteel 1 VM.
- Externe HDD (128GB)
Snapshot van de VM OP die externe HDD maken. Dit zodat ik dagelijks/wekelijks een backup/snaphot van de VM naar deze externe disk kan schrijven.
Wat lukt er niet?
Vinden hoe ik die externe disk beschikbaar maak als storage-optie.
https://forum.proxmox.com...ethod-to-usb-drive.21294/
[ Voor 5% gewijzigd door Zenix op 05-02-2021 14:19 ]
Met een snapshot maak je soort van restorepoint waar je naar terug kan grijpen.Koepert schreef op vrijdag 5 februari 2021 @ 17:11:
Vervolgvraagje eigenlijk. Ik heb zojuist een snapshot gemaakt, vervolgens is het RAMgebruik van de bestaande VM behoorlijk omhoog gegaan. Nu kan dit zijn omdat het een update betreft, maar wat doet een snapshot precies? Die zet toch letterlijk een kopie van bestaande VM incl settings, meer niet? Of werkt het meer als een soort High Availability waarbij er een 2e VM op hot standby staat?
Het is geen backup, je gebruikt de snapshot om bijv. een update te testen mocht het niet werken dan kun je simpelweg een roleback doen.
Ja precies, dat was mij intentie ook. Het betreft Home Assistant, dus mijn idee was om met de back-up functie in Home Assistant dat (een backup maken)te regelen. Op het moment dat Home Assistant dan een update heeft, maak ik een snapshot van de VM, update, en ben dan klaar. Dus theoretisch kan deze ook weer direct weg bij succesvolle update. Maar het viel me dus op dat RAM spiked. Vandaar de vraag hoe een snapshot precies werkt: is dat een kopie op schijf, of een semi-actieve 2e VM.powerboat schreef op vrijdag 5 februari 2021 @ 17:23:
[...]
Met een snapshot maak je soort van restorepoint waar je naar terug kan grijpen.
Het is geen backup, je gebruikt de snapshot om bijv. een update te testen mocht het niet werken dan kun je simpelweg een roleback doen.
Ik wil nu eigenlijk gewoon op "verwijder" klikken, maar als er wel een 'link' is tussen VM en snapshot, zou dat problemen kunnen geven kan ik me voorstellen.
Is mij nooit opgevallen dat het ram gebruik omhoog schiet, wel disk gebruik (bij vmware).Koepert schreef op vrijdag 5 februari 2021 @ 17:29:
[...]
Ja precies, dat was mij intentie ook. Het betreft Home Assistant, dus mijn idee was om met de back-up functie in Home Assistant dat (een backup maken)te regelen. Op het moment dat Home Assistant dan een update heeft, maak ik een snapshot van de VM, update, en ben dan klaar. Dus theoretisch kan deze ook weer direct weg bij succesvolle update. Maar het viel me dus op dat RAM spiked. Vandaar de vraag hoe een snapshot precies werkt: is dat een kopie op schijf, of een semi-actieve 2e VM.
Ik wil nu eigenlijk gewoon op "verwijder" klikken, maar als er wel een 'link' is tussen VM en snapshot, zou dat problemen kunnen geven kan ik me voorstellen.
Op het moment dat je de snapshot verwijdert, worden de wijzigingen van na het maken van je snapshot samengevoegd met die van ervoor.
Thnx.. Snapshot weggepleurd, RAMgebruik is niet gedaald, dus blijkbaar lag het daar niet aanpowerboat schreef op vrijdag 5 februari 2021 @ 17:55:
[...]
Is mij nooit opgevallen dat het ram gebruik omhoog schiet, wel disk gebruik (bij vmware).
Op het moment dat je de snapshot verwijdert, worden de wijzigingen van na het maken van je snapshot samengevoegd met die van ervoor.
Voor nu lijkt het iig te doen wat ik verwachtte
Ik ga hier mijn servertjes thuis wat consolideren naar 1 machine. Ik wil een nuc 10 i3 gebruiken met proxmox of esxi.
Als ik daar windows 10 virtuele machine draai, kan ik die dan via hdmi "zichtbaar" maken op mijn tv ?
Dus passtrough enkel van deze virtuele machine ?
Ik kan in een standaard linix met lxc/lxd geinstalleerd een RHEL container die ik zelf gemaakt heb importeren, maar hoe doe ik dat in Proxmox op de CLI? Proxmox heeft geen lxc executable die je normaal gebruikt en zelfs als die er was, betwijfel ik eerlijk gezegd of de import dan binnen de Proxmox GUI zichtbaar zou zijn.
Weet iemand hoe je dit op de CLI doet voor Proxmox? Ik heb een tar.gz met rootfs en een metafile.tar.gz. Voor LXC/LXD is dit genoeg voor een import.
Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs
Zat te denken aan proxmox cluster (via zuinige server topic kan je een node draaien aan 5 a 8 watt per node) met eventueel glusterfs/ceph. Heb al 1 proxmox bak en plan een 2de. Een 3de is er dan al snel bij he :-)
Ceph en erasure coding lijkt me gecompliceerd. Met glusterfs is dat precies eenvoudiger dus neig naar gluster.
Samba met ctdb of windows fileserver in cluster erop en meteen een HA cluster.
Toevallig mensen die dit draaien hebben ? Zfs met freenas is natuurlijk rock solid maar blijft al je eieren in 1 mand leggen en moeilijk up te graden (telkens 6 disks erbij (raidz2 6 disk vdevs)).
[ Voor 18% gewijzigd door frv op 09-02-2021 00:31 ]
Het lijkt er op of TrueNAS zelf ook HA mogelijkheden heeft:frv schreef op dinsdag 9 februari 2021 @ 00:27:
Al jaren een tevreden freenas klant maar de single point of failure zit me dwars. NAS mobo stuk = alles down die er aan hangt.
Zat te denken aan proxmox cluster (via zuinige server topic kan je een node draaien aan 5 a 8 watt per node) met eventueel glusterfs/ceph. Heb al 1 proxmox bak en plan een 2de. Een 3de is er dan al snel bij he :-)
Ceph en erasure coding lijkt me gecompliceerd. Met glusterfs is dat precies eenvoudiger dus neig naar gluster.
Samba met ctdb of windows fileserver in cluster erop en meteen een HA cluster.
Toevallig mensen die dit draaien hebben ? Zfs met freenas is natuurlijk rock solid maar blijft al je eieren in 1 mand leggen en moeilijk up te graden (telkens 6 disks erbij (raidz2 6 disk vdevs)).
https://www.truenas.com/d...vanced/high-availability/
Persoonlijk zou ik me afvragen hoe belangrijk échte HA is. Zelf vond ik pure HA minder belangrijk dan backups, dus ben ik uiteindelijk voor 2 Pve machines gegaan waarvan 1 offsite staat.
Die sync ik met Sanoid: https://github.com/jimsalterjrs/sanoid
Op die manier loop ik nooit meer dan 6 uur achter (afhankelijk van de dataset) én ben ik ook beschermd tegen fysieke calamiteiten als diefstal en brand thuis.
Ná Scaoll. - Don’t Panic.