Acties:
  • +1 Henk 'm!

  • John245
  • Registratie: Januari 2020
  • Laatst online: 18:53
RobertMe schreef op vrijdag 29 november 2024 @ 19:07:
[...]

Hoeveel man denk je dat hier op Tweakers thuis een echte server hebben staan? ;) Ja sure, jij hebt kilometers glasvezel door het huis lopen dus zult ook wel een echte server hebben. Maar de meeste zullen dat niet hebben.

Mijn "server" met Proxmox, die ik nog eens moet transformeren tot puur nas, is een Fujitsi (tegenwoordig Kontron) bord waar "nog net" Intel AMT op zit waardoor ik nog iets remote kan (waaronder on demand aan zetten gezien die tegenwoordig voornamelijk uit staat). Mijn tegenwoordige "server" (24/7 aan) is een Chinees doosje met Intel N5105 CPU en 8GB gesoldeerd ram voor nog geen €150. Dus nouja, daar zit 0,0 van management op.
Kilometers glasvezel is overdreven. Het zal ergens tussen de 1 en 2 kilometer zijn :)

Volgens mij kunnen die servers ook veel goedkoper want tot nu toe heb ik alleen mijn netwerkpoorten gebruikt. Proxmox ook remote er opgezet.

Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8


Acties:
  • 0 Henk 'm!

  • Ruudstertje
  • Registratie: April 2021
  • Laatst online: 13-09 18:58
Ruudstertje schreef op vrijdag 29 november 2024 @ 19:08:
[quote]nero355 schreef op vrijdag 29 november 2024 @ 18:22:
[...]

Niet via webgui idd. Ssh ga ik nog even proberen.

Lijkt wel een netwerk probleem want geen enkele container is te bereiken (sabnzb/sonarr/radarr/pialert).
Dat de lampen wel aangezet worden kan dan weer kloppen omdat die door de zigbee stick worden aangezet.
SSH lijkt ook niet te werken, neem aan dat dit mijn publieke ip is en dan verbinden met poort 22?

Gebruik ssh verder vrijwel nooit.

Acties:
  • +1 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 10:44

Pantagruel

Mijn 80486 was snel,....was!

nero355 schreef op vrijdag 29 november 2024 @ 18:22:

[...]

Op dit soort moment is het fijn om iets van IPMI/iDRAC/iLO te hebben dus misschien iets om over na te denken voor je volgende build :)
Niet iets wat je direct aan de grote boze buitenwereld wilt delen, via een SSH tunnel is al een stuk veiliger.
John245 schreef op vrijdag 29 november 2024 @ 18:36:
[...]

Ik dacht dat IPMI standaard op een server zat.
Nope, voldoende hobby servers die op consumenten hardware draaien.
RobertMe schreef op vrijdag 29 november 2024 @ 19:07:
[...]

Hoeveel man denk je dat hier op Tweakers thuis een echte server hebben staan? ;) Ja sure, jij hebt kilometers glasvezel door het huis lopen dus zult ook wel een echte server hebben. Maar de meeste zullen dat niet hebben.

Mijn "server" met Proxmox, die ik nog eens moet transformeren tot puur nas, is een Fujitsi (tegenwoordig Kontron) bord waar "nog net" Intel AMT op zit waardoor ik nog iets remote kan (waaronder on demand aan zetten gezien die tegenwoordig voornamelijk uit staat). Mijn tegenwoordige "server" (24/7 aan) is een Chinees doosje met Intel N5105 CPU en 8GB gesoldeerd ram voor nog geen €150. Dus nouja, daar zit 0,0 van management op.
Er zijn voldoende tweakers alhier met server grade hardware, natuurlijk wel een breukdeel van de grote goe-gemeente. Jammer genoeg hangt er wel een meerprijs aan deze luxe, maar tja iets met hobby en centjes mogen kosten.

BTW voor een IPMI/DRAC loze server zijn wel wat boordmiddel KVM oplossingen, gooi es een blik naar PiKVM/NanoKVM/JetKVM. Helaas zijn deze ook niet goedkoop/in t ontwikkeling stadium (crowd funding).
Ruudstertje schreef op vrijdag 29 november 2024 @ 21:33:
[...]


SSH lijkt ook niet te werken, neem aan dat dit mijn publieke ip is en dan verbinden met poort 22?

Gebruik ssh verder vrijwel nooit.
Als je dit van buitenshuis wilt doen dan zul je wel wat forwarding rules in je router/firewall geregeld moeten hebben. SSH forwarding op je publieke IP is niet iets wat je thuis router standaard doet (ga er gemakshalve vanuit dat je de bog-standard modem/router combo van je ISP gebruikt.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
Ruudstertje schreef op vrijdag 29 november 2024 @ 21:33:
[...]


SSH lijkt ook niet te werken, neem aan dat dit mijn publieke ip is en dan verbinden met poort 22?

Gebruik ssh verder vrijwel nooit.
Als je de poorten niet hebt open gezet in de router dan gaat het natuurlijk sowieso niet werken.

En als je de poorten wel hebt open gezet... Zou ik persoonlijk direct die van de web UI weer "dicht" zetten. En bij SSH zorgen dat je zeker weet dat het goed is ingesteld (geen login als root mogelijk + geen password login (/alleen kunnen inloggen met een public/private key pair))

Acties:
  • 0 Henk 'm!

  • Ruudstertje
  • Registratie: April 2021
  • Laatst online: 13-09 18:58
Nee die staat idd niet open op het modem.
Nou ik laat het voor wat het is. Kijk na het weekend wel verder.

Acties:
  • +2 Henk 'm!

  • GoBieN-Be
  • Registratie: Juni 2002
  • Nu online
Toevallig zitten spelen met powertop op die proxmox server en Intel I226 netwerkkaart?

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Ruudstertje schreef op vrijdag 29 november 2024 @ 21:33:
SSH lijkt ook niet te werken, neem aan dat dit mijn publieke ip is en dan verbinden met poort 22?

Gebruik ssh verder vrijwel nooit.
Ik zat eerder te denken vanaf de NAS of één van die IP Camera's omdat je zei dat je daar wel bij kon komen :?
John245 schreef op vrijdag 29 november 2024 @ 19:52:
Kilometers glasvezel is overdreven. Het zal ergens tussen de 1 en 2 kilometer zijn :)
LOL! :D NICE!!! d:)b
Volgens mij kunnen die servers ook veel goedkoper want tot nu toe heb ik alleen mijn netwerkpoorten gebruikt. Proxmox ook remote er opgezet.
Bij echte Servers betaal je vooral voor de extra service eromheen, zoals het 10 jaar later nog steeds meuk ervoor kunnen kopen en zo :)

Voor de rest zit er bijvoorbeeld vaak een videokaart op uit het kruik tijdperk van ATi/Matrox of nog slechter dus daar hoef je het niet in te zoeken...
Pantagruel schreef op vrijdag 29 november 2024 @ 21:46:
BTW voor een IPMI/DRAC loze server zijn wel wat boordmiddel KVM oplossingen, gooi es een blik naar PiKVM/NanoKVM/JetKVM. Helaas zijn deze ook niet goedkoop/in t ontwikkeling stadium (crowd funding).
Paar leuke linkjes zou fijn zijn :)
Ruudstertje schreef op vrijdag 29 november 2024 @ 22:29:
Nee die staat idd niet open op het modem.
Nou ik laat het voor wat het is. Kijk na het weekend wel verder.
Hoe kom je nu eigenlijk bij je NAS en IP Camera's :?

Ik hoop iets van OpenVPN/Wireguard toestand, want ook die openzetten richting het grote boze Internet zou ik niet zomaar doen !! ;)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 10:44

Pantagruel

Mijn 80486 was snel,....was!

nero355 schreef op vrijdag 29 november 2024 @ 23:33:
[...]

Paar leuke linkjes zou fijn zijn :)
Kom op zeg, een beetje tweaker weet de search te gebruiken ;) , Google/Ecosia much?

https://pikvm.org/
https://jetkvm.com/
https://github.com/sipeed/NanoKVM

[ Voor 41% gewijzigd door Pantagruel op 29-11-2024 23:50 ]

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Pantagruel schreef op vrijdag 29 november 2024 @ 23:47:
Kom op zeg, een beetje tweaker weet de search te gebruiken ;) , Google/Ecosia much?
Je zei zelf :
Pantagruel schreef op vrijdag 29 november 2024 @ 21:46:
Helaas zijn deze ook niet goedkoop/in t ontwikkeling stadium (crowd funding).
Dan zie ik liever linkjes vanuit jouw kant i.p.v. dat ik moet zoeken en misschien niet eens zo gauw de officiële websites kan vinden, want die kunnen er net zo goed niet zijn in dat stadium B)
Thnx! hé! ;) d:)b :9B :(:)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 11:18

orvintax

www.fab1an.dev

RobertMe schreef op vrijdag 29 november 2024 @ 19:07:
[...]

Hoeveel man denk je dat hier op Tweakers thuis een echte server hebben staan? ;) Ja sure, jij hebt kilometers glasvezel door het huis lopen dus zult ook wel een echte server hebben. Maar de meeste zullen dat niet hebben.

Mijn "server" met Proxmox, die ik nog eens moet transformeren tot puur nas, is een Fujitsi (tegenwoordig Kontron) bord waar "nog net" Intel AMT op zit waardoor ik nog iets remote kan (waaronder on demand aan zetten gezien die tegenwoordig voornamelijk uit staat). Mijn tegenwoordige "server" (24/7 aan) is een Chinees doosje met Intel N5105 CPU en 8GB gesoldeerd ram voor nog geen €150. Dus nouja, daar zit 0,0 van management op.
Offtopic maar ik ben hier eigenlijk wel benieuwd naar. Als energie efficientie niet hoog in het vaandel staat en je wat opslagmogelijkheden nodig hebt denk ik dat je hier toch snel bij uitkomt. Zelf heb ik een Dell PowerEdge T420 staan, heeft me ook iets van €200 gekost. Ding heeft een Intel Xeon E5-2470 v2, 32GB ECC RAM, 8 drive bays en natuurlijk IPMI. :P

https://dontasktoask.com/


Acties:
  • +2 Henk 'm!

  • Jerie
  • Registratie: April 2007
  • Niet online
orvintax schreef op zaterdag 30 november 2024 @ 15:09:
[...]

Offtopic maar ik ben hier eigenlijk wel benieuwd naar. Als energie efficientie niet hoog in het vaandel staat en je wat opslagmogelijkheden nodig hebt denk ik dat je hier toch snel bij uitkomt. Zelf heb ik een Dell PowerEdge T420 staan, heeft me ook iets van €200 gekost. Ding heeft een Intel Xeon E5-2470 v2, 32GB ECC RAM, 8 drive bays en natuurlijk IPMI. :P
Ik ben juist afgestapt van IPMI omdat het nodeloos stroom vreet en thuis.. is het als het goed is niet nodig. Ik overweeg een JetKVM dat handig kan zijn om incidenteel in te (kunnen) zetten. Maar buiten dat heb ik juist de iLO en BliKVM uit mijn systemen verwijderd.

De Xeon met ECC (HP MicroServer 10 Plus) is inmiddels ook een ordinaire backup server geworden.

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


Acties:
  • +2 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
orvintax schreef op zaterdag 30 november 2024 @ 15:09:
[...]

Offtopic maar ik ben hier eigenlijk wel benieuwd naar. Als energie efficientie niet hoog in het vaandel staat en je wat opslagmogelijkheden nodig hebt denk ik dat je hier toch snel bij uitkomt. Zelf heb ik een Dell PowerEdge T420 staan, heeft me ook iets van €200 gekost. Ding heeft een Intel Xeon E5-2470 v2, 32GB ECC RAM, 8 drive bays en natuurlijk IPMI. :P
Ik heb toen met het oog op energieverbruik gekozen voor het Fujitsi bord met een i3-9100. Daarop zit ook ECC support (dat bord, en de i3 als "hoogste" met ECC support). Zit ook 32GB in. Maarja, met 3 disks (tegenwoordig 1x 14TB en 1x 18TB WD Elements shucked (5400rpm) en 1x Toshiba 20TB (7200rpm) kom ik toch gewoon ook "gewoon" op 40W uit.

Misschien dat ik nog wat ga shufflen en de HDDs naar een oud systeem gaan (zonder ECC dan) en ik kijk om de Fujitsi zuinig te krijgen om een full blown systeem te hebben i.p.v. de toch wat kreupele N5105 (geen AVX support bv dat een "vereiste" is voor ZFS native encryption, PCIe heeft maar weinig lanes op de N5105 waardoor de NVME bv maar op x2 draait). Maarja, dan geef ik ECC op de storage op en performance zal ik dan waarschijnlijk alleen winnen aan extra instructies etc en niet aan meer cores / veel snellere kloksnelheid / ....

Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 11:18

orvintax

www.fab1an.dev

RobertMe schreef op zaterdag 30 november 2024 @ 15:36:
[...]

Ik heb toen met het oog op energieverbruik gekozen voor het Fujitsi bord met een i3-9100. Daarop zit ook ECC support (dat bord, en de i3 als "hoogste" met ECC support). Zit ook 32GB in. Maarja, met 3 disks (tegenwoordig 1x 14TB en 1x 18TB WD Elements shucked (5400rpm) en 1x Toshiba 20TB (7200rpm) kom ik toch gewoon ook "gewoon" op 40W uit.

Misschien dat ik nog wat ga shufflen en de HDDs naar een oud systeem gaan (zonder ECC dan) en ik kijk om de Fujitsi zuinig te krijgen om een full blown systeem te hebben i.p.v. de toch wat kreupele N5105 (geen AVX support bv dat een "vereiste" is voor ZFS native encryption, PCIe heeft maar weinig lanes op de N5105 waardoor de NVME bv maar op x2 draait). Maarja, dan geef ik ECC op de storage op en performance zal ik dan waarschijnlijk alleen winnen aan extra instructies etc en niet aan meer cores / veel snellere kloksnelheid / ....
Ja mijn verbruik zit rond de 85w. Dit is de dus met de PowerEdge T420 en 8 HDD disks + 2 SATA SSDs. Ooit lijkt het me wel mooi om een zuinige server te maken. Want die CPU staat 99% van de tijd bijna niks te doen, dus vind het wel zonde. Maar goed dat wordt flink wat uitzoekwerk om alle vakken aan te tikken.

https://dontasktoask.com/


Acties:
  • +1 Henk 'm!

  • rjong5
  • Registratie: Juni 2003
  • Laatst online: 19:45

rjong5

?

Ik heb vandeweek proxmox geinstalleerd op mijn nieuwe beelink EQ14 ( N150 , 16 gb en 500 gb ssd)

Ter vervanging van een dell optiplex 5040.

Idle verbruik op 8watt en onder normale load circa 15watt.

Ben er blij mee want de optiplex verbruikte zo'n 50 watt continu

Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Frigate setup vraagje hier (crosspost vanuit een Frigate topic), ik wil een PCIe Google Coral doorgeven aan een LXC op mijn Proxmox machine.

Heeft iemand hier ervaring mee? Zoja, ik heb een beetje zitten zoeken en ik vind 380 verschillende manieren, variërend van 25 stappen tot minimaal, zoals onderstaande... is deze nog actueel voordat ik eraan begin?

https://gist.github.com/s...02f581b55612068be35886109

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • +1 Henk 'm!

  • rjong5
  • Registratie: Juni 2003
  • Laatst online: 19:45

rjong5

?

Als iemand nog interesse heeft overigens ( en niet om energie efficientie geeft)

Ik heb nog een stapel dl360 gen7 en 8 die stof lopen te happen.

Enkel ipmi overigs verbruikt maar een paar watt als de server uit staat

Acties:
  • +2 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
orvintax schreef op zaterdag 30 november 2024 @ 17:19:
[...]

Ja mijn verbruik zit rond de 85w. Dit is de dus met de PowerEdge T420 en 8 HDD disks + 2 SATA SSDs. Ooit lijkt het me wel mooi om een zuinige server te maken. Want die CPU staat 99% van de tijd bijna niks te doen, dus vind het wel zonde. Maar goed dat wordt flink wat uitzoekwerk om alle vakken aan te tikken.
Daarom heb ik een kleine 2 jaar terug dat Chinese doosje met N5105 CPU gekocht. Alleen... blijkt intussen dus dat: 1. ik meer er mee ben gaan doen dan initieel gepland en daardoor de 8GB gesoldeerd RAM te krap is; 2. de CPU wat beperkingen heeft (geen AVX dan waardoor ZFS native encryption vol op de CPU leunt en niet eens 1Gbit/s dicht kan trekken en er zo weinig PCIe lanes zijn dat een NVME drive ook al op halve krachten draait); 3. ik intussen wellicht toch naar 2,5Gbit/s netwerk zou willen gaan en dat alleen uitvoerbaar zou zijn met een USB dongle.
Intussen begint het dan toch wat te kriebelen om maar weer over te stappen naar een "normaal" systeem (nu dan Kontron bord, met een i3 of i5).

Maar dit systeem is er toen dan ook gekomen onder het motto van "die grote verbruikt toch best wel heel veel". Vervolgens wellicht nog wat meer dan initieel gepland over gezet waardoor die grote bij wijze van helemaal niet maar aan hoefde buiten backups (maar backups gaan ook naar de kleine) en zijn er nog wat services bij gekomen, waardoor de hardware toch echt te krap is en dan wat "onverwachte" zaken in de CPU waardoor die ook niet helemaal "lekker" is. Overigens zit AVX support wel op de opvolgers N97 / N100 (Alder Lake N). En AVX is verder letterlijk al 10+ jaar oud en zit ook al zo lang op de "normale" Intel processoren. Alleen die low end Athom like CPUs zit het niet op.

Edit:
Ter referentie: dit Chinese ding gebruikt 8W gemeten aan het stopcontact waar eerst nog een UPS bij komt waar ook de grote op insteekt (en uit staat). Overhead UPS zal een Watt of 3, 4 zijn. Overhead van de grote die uit staat maar wel Intel AMT heeft ingeschakeld (waardoor ik remote webpageina kan openen om het ding op te starten bv) is verwaarloosbaar.

En @rjong5, "een paar Watt (voor IPMI, als systeem uit staat)" is dan nog steeds uhm, een paar Watt meer dan bv Intel AMT mij nu kost. (als in: letterlijk elke Watt is er er een meer dan AMT kost). Uiteraard is IPMI dan weer wel "meer", maar vraag is of je dat echt nodig hebt. En ook over AMT kan ik iets met een serial console richting AMT. Sure, het is geen "volledige video". Maar voor een console based server is het best wel genoeg als je een console over AMT kunt openen. Als in "het is hetzelfde" zeg maar, of het nu over de console van AMT gaat of via een monitor aan het scherm.

[ Voor 20% gewijzigd door RobertMe op 30-11-2024 18:12 ]


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

rjong5 schreef op zaterdag 30 november 2024 @ 17:54:
Als iemand nog interesse heeft overigens ( en niet om energie efficientie geeft)

Ik heb nog een stapel dl360 gen7 en 8 die stof lopen te happen.

Enkel ipmi overigs verbruikt maar een paar watt als de server uit staat
Gooi ze in https://tweakers.net/gallery/86419/aanbod/ ;)
RobertMe schreef op zaterdag 30 november 2024 @ 18:09:
Overigens zit AVX support wel op de opvolgers N97 / N100 (Alder Lake N).

En AVX is verder letterlijk al 10+ jaar oud en zit ook al zo lang op de "normale" Intel processoren. Alleen die low end Athom like CPUs zit het niet op.
Op het moment dat je naar de Atom en Celeron/Pentium modellen gaat kijken dan wordt het allemaal best wel een puzzeltje qua supported features en moet je inderdaad goed uit je doppen kijken qua AVX/VT-X/VT-D/ECC Support/enz. als je verwacht daarmee wat te gaan doen in de toekomst :)

En als je dan ook nog eens een losse CPU met een bepaald moederbord gaat combineren dan moet je ook goed uitkijken of dat moederbord alles wel ondersteunt en of daar geen bugs in zitten en dergelijke !!

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
nero355 schreef op zaterdag 30 november 2024 @ 18:28:
[...]

Op het moment dat je naar de Atom en Celeron/Pentium modellen gaat kijken dan wordt het allemaal best wel een puzzeltje qua supported features en moet je inderdaad goed uit je doppen kijken qua AVX/VT-X/VT-D/ECC Support/enz. als je verwacht daarmee wat te gaan doen in de toekomst :)
Het is nu ook niet dat je het altijd weet. Het is niet dat ik wist dat ik AVX nodig had. Maar blijkbaar is het wel een verschrikkelijk handige instructieset om te hebben als je iets met encryptie gaat doen (niet alleen ZFS native encryption wordt er een stuk sneller van, Luks heeft dezelfde beperking, en ik meen dat Samba ook alleen met AVX overweg kan. Terwijl... SSE ook heel goed (/net zo goed?) werkt, en ook op de Athom achtige zit. Alleen maakt blijkbaar geen enkele encryptie implementatie er gebruik van).
V.w.b. PCIe had ik ook niet zo in de materie gezeten. Maar volgens mij geeft Intel dat ook netjes aan, dat er maar 4 of 8 lanes ondersteund zijn (op PCIe 3, volgens mij kan die op lagere snelheid en met "splitsen" wel wat meer lanes aan, maar gaan dan dus ten koste van snelheid).

En 8GB RAM had ik dan gewoon dom bemeten. En 2 jaar geleden was ik nog niet met 2,5Gbit/s bezig en was het plan ook nog niet om regelmatiger media er naartoe te sturen. Intussen zou 2,5Gbit/s wel leuk zijn.

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

RobertMe schreef op zaterdag 30 november 2024 @ 18:44:
Het is nu ook niet dat je het altijd weet.
Dat is ook weer zo, maar als je OpenZFS gaat gebruiken en waarschijnlijk ook OpenVPN/Wireguard dan zijn AVX en AES-NI toch wel verdomd handig om te hebben als het goed is :)
de Athom achtigen
Dude...

Die dingen heten Atom :P
V.w.b. PCIe had ik ook niet zo in de materie gezeten.
Maar volgens mij geeft Intel dat ook netjes aan, dat er maar 4 of 8 lanes ondersteund zijn (op PCIe 3, volgens mij kan die op lagere snelheid en met "splitsen" wel wat meer lanes aan, maar gaan dan dus ten koste van snelheid).
Dat is sowieso een shit show bij Intel en als je daar geen gezeik mee wilt dan moet je ook maar gewoon zoiets overwegen :
orvintax schreef op zaterdag 30 november 2024 @ 15:09:
Ding heeft een Intel Xeon E5-2470 v2, 32GB ECC RAM, 8 drive bays en natuurlijk IPMI. :P
Shitload een PCIe Lanes en gaaaan met die banaan !!! :Y) 8) :*) :D oOo

Alleen heeft Intel zelfs HEDT/Workstation/Server CPU's kreupel zitten maken vanaf de Intel i7 7000 generatie ergens en moest je maar liefst minimaal € 1000 uitgeven om weer 40/44 PCIe Lanes te hebben in je CPU -O-

Dus ook daar : Goed opletten geblazen !!! :-(
En 8GB RAM had ik dan gewoon dom bemeten.
Voor alleen een Router wel prima eigenlijk, maar je ging meer ermee doen dus tja... Shit happens! :)

Er is vast wel iemand die het kastje als pfSense/OPNsense bakkie wil hebben ;)
En 2 jaar geleden was ik nog niet met 2,5Gbit/s bezig en was het plan ook nog niet om regelmatiger media er naartoe te sturen.
Intussen zou 2,5Gbit/s wel leuk zijn.
Las laatst dat er een model Huawei ONT is dat minimaal een 2,5 Gbps NIC vereist gek genoeg dus dat is blijkbaar ook opeens een ding geworden 8)7

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +2 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
nero355 schreef op zaterdag 30 november 2024 @ 19:02:
[...]

Dat is ook weer zo, maar als je OpenZFS gaat gebruiken en waarschijnlijk ook OpenVPN/Wireguard dan zijn AVX en AES-NI toch wel verdomd handig om te hebben als het goed is :)
Wireguard had ik "net" toevallig gekeken, en WG gebruikt compleet andere crypto. Uberhaupt al geen AES dus en daardoor ook geen AES-NI nodig. En vervolgens wordt er een crypto stuk uit de kernel gebruikt dat al SSE en AVX support had. En de WG dev heeft vervolgens ook nog maar AVX2 & AVX-512 support toegevoegd.
En bij ZFS ligt er al 1,5 jaar een WIP pull request die een SSE implementatie toevoegt. Maar die is dus nooit afgerond. Draai die intussen wel al maar maanden op mijn router, maar op mijn andere doosje vind ik het tricky omdat daar ook "echte" data op staat waar ik geen corruptie op wil riskeren door een "test" versie.
[...]

Dude...

Die dingen heten Atom :P
Athom bestaat ook :p nieuws: Athom wint kort geding merkinbreuk van Chinese Athom Tech en AliExpress
[...]

Dat is sowieso een shit show bij Intel en als je daar geen gezeik mee wilt dan moet je ook maar gewoon zoiets overwegen :

[...]

Shitload een PCIe Lanes en gaaaan met die banaan !!! :Y) 8) :*) :D oOo

Alleen heeft Intel zelfs HEDT/Workstation/Server CPU's kreupel zitten maken vanaf de Intel i7 7000 generatie ergens en moest je maar liefst minimaal € 1000 uitgeven om weer 40/44 PCIe Lanes te hebben in je CPU -O-

Dus ook daar : Goed opletten geblazen !!! :-(
Nah. 8 is weinig. Maar 40 is wel weer heel veel. 16 is waarschijnlijk vaak ook al voldoende. (Zolang je geen x16 GPU plaatst ;)).
[...]

Voor alleen een Router wel prima eigenlijk, maar je ging meer ermee doen dus tja... Shit happens! :)
Dit gaat niet om mijn router. Heb dus 2 N5105 systemen. De router zit gewoon SODIMM op met 2 slots, en had nog 2x 8GB liggen. Maar na installatie heb ik 1 er weer uit gehaald. Nergens voor nodig.
Er is vast wel iemand die het kastje als pfSense/OPNsense bakkie wil hebben ;)
Nah. Deze is niet bruikbaar als router, 1x Gigabit ethernet, actief gekoeld, .... Als ik deze vervang gaat die waarschijnlijk naar familie. Waar nu een OrangePi ligt puur voor backup, maar vast ook wel iets serverigs kan draaien.

Acties:
  • 0 Henk 'm!

  • Ruudstertje
  • Registratie: April 2021
  • Laatst online: 13-09 18:58
Ruudstertje schreef op vrijdag 29 november 2024 @ 22:29:
Nee die staat idd niet open op het modem.
Nou ik laat het voor wat het is. Kijk na het weekend wel verder.
Nou zojuist weer thuis aangekomen. Zaterdag mn vader de computer laten rebooten en het werkte allemaal
weer tot gisteravond.... Rond 22:44 doet niks het meer. Vandaag 12:05 de boel weer gerstart.

Onderstaande log wordt ik niet wijzer van, misschien iemand van jullie hier wel.

EDIT: Wat mij na het plaatsen van de log wel opvalt is de temperatuur van een schijf, ik kan me voorstellen dat die schijf dan uitschakelt, kan ik dit nog ergens anders beter uit de logs halen?:

code:
1
Dec 01 22:26:43 pve smartd[938]: Device: /dev/sdc [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 115 to 117


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
Dec 02 12:05:10 pve kernel: BIOS-provided physical RAM map:
Dec 02 12:05:10 pve kernel:   zhaoxin   Shanghai  
Dec 02 12:05:10 pve kernel:   Centaur CentaurHauls
Dec 02 12:05:10 pve kernel:   Hygon HygonGenuine
Dec 02 12:05:10 pve kernel:   AMD AuthenticAMD
Dec 02 12:05:10 pve kernel:   Intel GenuineIntel
Dec 02 12:05:10 pve kernel: KERNEL supported cpus:
Dec 02 12:05:10 pve kernel: Command line: BOOT_IMAGE=/boot/vmlinuz-6.8.12-3-pve root=/dev/mapper/pve-root ro quiet amd_iomnu=on
Dec 02 12:05:10 pve kernel: Linux version 6.8.12-3-pve (build@proxmox) (gcc (Debian 12.2.0-14) 12.2.0, GNU ld (GNU Binutils for Debian) 2.40) #1 SMP PREEMPT_DYNAMIC PMX 6.8.12-3 (2024-10-23T11:41Z) ()
-- Boot 84722d87809c46f0ac243c54e01f9949 --
Dec 01 22:40:13 pve kernel: eth0: left promiscuous mode
Dec 01 22:40:02 pve kernel: eth0: entered promiscuous mode
Dec 01 22:35:12 pve kernel: eth0: left promiscuous mode
Dec 01 22:35:01 pve kernel: eth0: entered promiscuous mode
Dec 01 22:30:12 pve kernel: eth0: left promiscuous mode
Dec 01 22:30:01 pve kernel: eth0: entered promiscuous mode
Dec 01 22:26:43 pve smartd[938]: Device: /dev/sdc [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 115 to 117
Dec 01 22:25:12 pve kernel: eth0: left promiscuous mode
Dec 01 22:25:01 pve kernel: eth0: entered promiscuous mode
Dec 01 22:20:12 pve kernel: eth0: left promiscuous mode
Dec 01 22:20:01 pve kernel: eth0: entered promiscuous mode
Dec 01 22:17:01 pve CRON[1334851]: pam_unix(cron:session): session closed for user root
Dec 01 22:17:01 pve CRON[1334852]: (root) CMD (cd / && run-parts --report /etc/cron.hourly)
Dec 01 22:17:01 pve CRON[1334851]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0)
Dec 01 22:15:13 pve kernel: eth0: left promiscuous mode
Dec 01 22:15:01 pve kernel: eth0: entered promiscuous mode
Dec 01 22:10:12 pve kernel: eth0: left promiscuous mode
Dec 01 22:10:01 pve kernel: eth0: entered promiscuous mode
Dec 01 22:05:12 pve kernel: eth0: left promiscuous mode
Dec 01 22:05:01 pve kernel: eth0: entered promiscuous mode
Dec 01 22:00:12 pve kernel: eth0: left promiscuous mode
Dec 01 22:00:01 pve kernel: eth0: entered promiscuous mode
Dec 01 21:55:12 pve kernel: eth0: left promiscuous mode
Dec 01 21:55:01 pve kernel: eth0: entered promiscuous mode
Dec 01 21:50:12 pve kernel: eth0: left promiscuous mode
Dec 01 21:50:01 pve kernel: eth0: entered promiscuous mode
Dec 01 21:45:13 pve kernel: eth0: left promiscuous mode
Dec 01 21:45:01 pve kernel: eth0: entered promiscuous mode
Dec 01 21:40:12 pve kernel: eth0: left promiscuous mode
Dec 01 21:40:01 pve kernel: eth0: entered promiscuous mode
Dec 01 21:35:12 pve kernel: eth0: left promiscuous mode
Dec 01 21:35:01 pve kernel: eth0: entered promiscuous mode
Dec 01 21:30:13 pve kernel: eth0: left promiscuous mode
Dec 01 21:30:02 pve kernel: eth0: entered promiscuous mode
Dec 01 21:26:43 pve smartd[938]: Device: /dev/sdc [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 114 to 115
Dec 01 21:25:13 pve kernel: eth0: left promiscuous mode
Dec 01 21:25:02 pve kernel: eth0: entered promiscuous mode
Dec 01 21:20:12 pve kernel: eth0: left promiscuous mode
Dec 01 21:20:01 pve kernel: eth0: entered promiscuous mode
Dec 01 21:17:01 pve CRON[1297840]: pam_unix(cron:session): session closed for user root
Dec 01 21:17:01 pve CRON[1297841]: (root) CMD (cd / && run-parts --report /etc/cron.hourly)
Dec 01 21:17:01 pve CRON[1297840]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0)
Dec 01 21:15:12 pve kernel: eth0: left promiscuous mode
Dec 01 21:15:01 pve kernel: eth0: entered promiscuous mode
Dec 01 21:10:12 pve kernel: eth0: left promiscuous mode
Dec 01 21:10:01 pve kernel: eth0: entered promiscuous mode

[ Voor 3% gewijzigd door Ruudstertje op 02-12-2024 14:00 ]


Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Nu online

Quad

Doof

Het enige wat gerapporteerd wordt is de SMART waarde van de disk in de host. Deze loopt wat op.

Het zijn niet de daadwerkelijke waardes, namelijk 114 op schaal van 0-255, maar kan zijn dat dit voor de SSD/HDD wel te warm is.

Is Proxmox geïnstalleerd op een SSD of HDD? Het wijst erop dat hij letterlijk vastloopt. Ben wel benieuwd welk type opslag.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • 0 Henk 'm!

  • Ruudstertje
  • Registratie: April 2021
  • Laatst online: 13-09 18:58
Quad schreef op maandag 2 december 2024 @ 13:55:
Het enige wat gerapporteerd wordt is de SMART waarde van de disk in de host. Deze loopt wat op.

Het zijn niet de daadwerkelijke waardes, namelijk 114 op schaal van 0-255, maar kan zijn dat dit voor de SSD/HDD wel te warm is.

Is Proxmox geïnstalleerd op een SSD of HDD? Het wijst erop dat hij letterlijk vastloopt. Ben wel benieuwd welk type opslag.
Ik heb proxmox op de SSD geïnstalleerd. Verder heb ik er 2 HDD's in geplaatst. 1 voor opslag van media en de ander voor nu als mediaserver. Als de temperatuur het probleem is is het de 500gb HDD, ik probeer nu alleen te achterhalen wat op welke schijf staat.

Acties:
  • 0 Henk 'm!

  • Ruudstertje
  • Registratie: April 2021
  • Laatst online: 13-09 18:58
Ik heb kunnen identificeren welke schijf (mogelijk) te warm word en voor de problemen zorgt. Ik heb na het afsluiten van de server de schijf losgekoppeld en de boel weer opgestart.

Nu even afwachten of dit het probleem was.

Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Nu online

Quad

Doof

Als het niet de OS disk is. Dan zal het niet het issue zijn.

Wat zijn de SMART waardes waar Proxmox op geïnstalleerd is? Zal de SDA zijn.

Is er nog beeld wanneer de server is vastgelopen? Of is de server dan uit?

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • +3 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 18:49

zeroday

There is no alternative!

Ruudstertje schreef op maandag 2 december 2024 @ 14:03:
[...]


Ik heb proxmox op de SSD geïnstalleerd. Verder heb ik er 2 HDD's in geplaatst. 1 voor opslag van media en de ander voor nu als mediaserver. Als de temperatuur het probleem is is het de 500gb HDD, ik probeer nu alleen te achterhalen wat op welke schijf staat.
ik gooi deze er ook maar even in:

toen ik een 2e hands NUC kocht was deze rete instabiel met Proxmox.
Ik had toen al wat problemen moeten oplossen omdat ik er een had waarbij de cmos batterij leeg was
aar dat bleek dus niet de veroorzaker

Om de haverklap had ik hele rare problemen die ik niet 1-2-3 kon verklaren. Ik heb toen maar even SNMP geinstalleerd, aangezet en de server een tijdje gemonitored .. Toen zag ik ineens vreemde thresholds op de CPU ..

Dus toen maar even de NUC los en gekeken of er iets mis was met de fan (nee), dus nog verder .. en toen gekeken of er koelpasta op de CPU zat .. (zeer weinig) .. ik heb toen koelpasta erop gedaan .. ding weer dichtgeschroefd .. binnen de BIOS ook nog even gekeken of er niets vreemds stond dat ie over de temperatuur kon vallen ..

Alle problemen opgelost (waarbij het lijkt dat de koelpasta een tijd nodig had om echt te gaan werken)

Afbeeldingslocatie: https://tweakers.net/i/MZmyLvGdRBbflhvpcnSaEAwrBQQ=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/nlbnyN75RErXOYvs4Zq5AzBi.png?f=user_large

Dus soms moet je gewoon stap voor stap wat dingen proberen ..

There are no secrets, only information you do not yet have


Acties:
  • +1 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

zeroday schreef op maandag 2 december 2024 @ 14:53:
toen ik een 2e hands NUC kocht was deze rete instabiel met Proxmox.
Ik had toen al wat problemen moeten oplossen omdat ik er een had waarbij de cmos batterij leeg was
aar dat bleek dus niet de veroorzaker.
Maar zorgde een lege CMOS batterij nou wel of niet voor allerlei andere problemen :?

Zou namelijk in principe niet mogen gebeuren...
Om de haverklap had ik hele rare problemen die ik niet 1-2-3 kon verklaren. Ik heb toen maar even SNMP geinstalleerd, aangezet en de server een tijdje gemonitored .. Toen zag ik ineens vreemde thresholds op de CPU ..
Wat heb je toen precies gedaan/Hoe heb je dat uitgelezen ?

Zou ik namelijk echt nooit op gekomen zijn omdat ik over het algemeen weinig tot niks met SNMP doe :D

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 18:49

zeroday

There is no alternative!

nero355 schreef op maandag 2 december 2024 @ 21:56:
[...]

Maar zorgde een lege CMOS batterij nou wel of niet voor allerlei andere problemen :?
Zou namelijk in principe niet mogen gebeuren...
Klopt .. zou je ook niet verwachten. Enerzijds was het probleem dat het een tijdje duurde voordat hij echt
wilde starten. Dus dan drukte ik start en zag ik geen HDD led flashen. Wachtte ik een paar minuten dan ineens deed ie het .. Dus gewoon een bagger 2e hands NUC gekocht ..

Ik had proxmox zonder batterij geinstalleerd en daarna de CMOS batterij vervangen
hierna kreeg ik problemen om in te loggen. Promox draaide, maar inloggen: ho maar.
En och .. het opnieuw installeren was/is zo gebeurd en hij was toch leeg ;)
Wat heb je toen precies gedaan/Hoe heb je dat uitgelezen ?
Zou ik namelijk echt nooit op gekomen zijn omdat ik over het algemeen weinig tot niks met SNMP doe :D
Ik heb standaard LibreNMS als vm draaien en vind grafiekjes altijd leuk. Dus eerste experiment was om SNMP te installeren en daarmee kreeg ik ook sensoren met temperatuur .. en dan vooral met de CPU daar was ik blij mee op de NUC .. (wil niet zeggen dat dat gaat werken met elke andere server .. )

Dus toen ik die hoge temperaturen van de CPU zag, toen ging het kwartje vallen waarom hij af en toe ineens uitviel ..

En toen heb ik maar wat koelpasta wat ik nog had liggen gebruikt. Tezamen met wat instellingen van de temp in de NUC BIOS leek dat te helpen want sinds die tijd heb ik geen issues meer ;)

Dus een ruk geleverde 2e hands NUC maar uiteindelijk wel tevreden ;)
4 NUC's in Cluster en een NUC als PBS ;)

There are no secrets, only information you do not yet have


Acties:
  • +1 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

zeroday schreef op maandag 2 december 2024 @ 22:35:
Klopt .. zou je ook niet verwachten. Enerzijds was het probleem dat het een tijdje duurde voordat hij echt
wilde starten. Dus dan drukte ik start en zag ik geen HDD led flashen. Wachtte ik een paar minuten dan ineens deed ie het .. Dus gewoon een bagger 2e hands NUC gekocht ..

Ik had proxmox zonder batterij geinstalleerd en daarna de CMOS batterij vervangen
hierna kreeg ik problemen om in te loggen. Promox draaide, maar inloggen: ho maar.
En och .. het opnieuw installeren was/is zo gebeurd en hij was toch leeg ;)
Bizar zeg... -O-
Ik heb standaard LibreNMS als vm draaien en vind grafiekjes altijd leuk. Dus eerste experiment was om SNMP te installeren en daarmee kreeg ik ook sensoren met temperatuur .. en dan vooral met de CPU daar was ik blij mee op de NUC .. (wil niet zeggen dat dat gaat werken met elke andere server .. )
Moet ik dan ook maar eens een keer mee gaan experimenteren :)
Dus een ruk geleverde 2e hands NUC maar uiteindelijk wel tevreden ;)
4 NUC's in Cluster en een NUC als PBS ;)
NICE!!! :*)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 13-09 16:45
Ik heb hier een week een cluster draaien met 3 nuc's.
Draait goed en eindelijk lekker rustig op zolder :)
Maar nu viel me vanavond toevallig iets op.

Afbeeldingslocatie: https://tweakers.net/i/7GNxQxz1QkBk4g5EupVGXQmV78Y=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/jli9bIsRUcnQgrz3aR7NpQKf.png?f=user_large

Dit is bij de CPU Memory Serverload netwerk allemaal hetzelfde.
Het was op elke node maar niet allemaal dezelfde tijd. (wel ongeveer).
Niks gemerkt van VM's of nodes die offline waren. (worden gemonitord met uptime kuma).
Enige wat ik in de log zie rond die tijd is dat hij verbinding kwijt was met een proxmox backup server op een vps.
Zou dat kunnen verklaren waarom er die gekke gaten zitten in de grafische logs ?

Acties:
  • 0 Henk 'm!

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 09:41
ComTech schreef op vrijdag 6 december 2024 @ 23:15:
Ik heb hier een week een cluster draaien met 3 nuc's.
Draait goed en eindelijk lekker rustig op zolder :)
Maar nu viel me vanavond toevallig iets op.

[Afbeelding]

Dit is bij de CPU Memory Serverload netwerk allemaal hetzelfde.
Het was op elke node maar niet allemaal dezelfde tijd. (wel ongeveer).
Niks gemerkt van VM's of nodes die offline waren. (worden gemonitord met uptime kuma).
Enige wat ik in de log zie rond die tijd is dat hij verbinding kwijt was met een proxmox backup server op een vps.
Zou dat kunnen verklaren waarom er die gekke gaten zitten in de grafische logs ?
staat er nog wat interssants in de syslog op het moment dat dit voorkomt?

A wise man's life is based around fuck you


Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 11:18

orvintax

www.fab1an.dev

ComTech schreef op vrijdag 6 december 2024 @ 23:15:
Ik heb hier een week een cluster draaien met 3 nuc's.
Draait goed en eindelijk lekker rustig op zolder :)
Maar nu viel me vanavond toevallig iets op.

[Afbeelding]

Dit is bij de CPU Memory Serverload netwerk allemaal hetzelfde.
Het was op elke node maar niet allemaal dezelfde tijd. (wel ongeveer).
Niks gemerkt van VM's of nodes die offline waren. (worden gemonitord met uptime kuma).
Enige wat ik in de log zie rond die tijd is dat hij verbinding kwijt was met een proxmox backup server op een vps.
Zou dat kunnen verklaren waarom er die gekke gaten zitten in de grafische logs ?
Zitten de VM's en de cluster op dezelfde network interface? Als in vaak, volgensmij wordt dat ook aangeraden, draait de cluster specifiek op een andere interface.

https://dontasktoask.com/


Acties:
  • +1 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 13-09 16:45
orvintax schreef op zaterdag 7 december 2024 @ 09:24:
[...]

Zitten de VM's en de cluster op dezelfde network interface? Als in vaak, volgensmij wordt dat ook aangeraden, draait de cluster specifiek op een andere interface.
Ja er zit maar 1 interface in elke nuc.
Zwelgje schreef op zaterdag 7 december 2024 @ 06:06:
[...]


staat er nog wat interssants in de syslog op het moment dat dit voorkomt?
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
Dec 07 01:38:29 pve1 pvestatd[965]: Local-Pbs: error fetching datastores - 500 Can't connect to 192.168.178.157:8007 (Connection timed out)
Dec 07 01:38:31 pve1 kernel: e1000e 0000:00:1f.6 eno1: NIC Link is Up 1000 Mbps Full Duplex, Flow Control: None
Dec 07 01:38:31 pve1 kernel: vmbr0: port 1(eno1) entered blocking state
Dec 07 01:38:31 pve1 kernel: vmbr0: port 1(eno1) entered forwarding state

Dec 07 01:38:21 pve1 corosync[925]: [KNET ] link: host: 3 link: 0 is down
Dec 07 01:38:21 pve1 corosync[925]: [KNET ] link: host: 2 link: 0 is down
Dec 07 01:38:21 pve1 corosync[925]: [KNET ] host: host: 3 (passive) best link: 0 (pri: 1)
Dec 07 01:38:21 pve1 corosync[925]: [KNET ] host: host: 3 has no active links
Dec 07 01:38:21 pve1 corosync[925]: [KNET ] host: host: 2 (passive) best link: 0 (pri: 1)
Dec 07 01:38:21 pve1 corosync[925]: [KNET ] host: host: 2 has no active links
Dec 07 01:38:22 pve1 corosync[925]: [TOTEM ] Token has not been received in 2737 ms
Dec 07 01:38:22 pve1 kernel: e1000e 0000:00:1f.6 eno1: Detected Hardware Unit Hang: TDH


in 2 van de 3 nuc's zit een intel nic en daar zit een bug in.
In alle 3 de nuc's zit een intel nic en daar zit een bug in.
https://forum.proxmox.com...ardware-unit-hang.106001/
Heb dit toegepast en ga het even in de gaten houden.

Acties:
  • 0 Henk 'm!

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 09:41
ComTech schreef op zaterdag 7 december 2024 @ 10:06:
[...]


Ja er zit maar 1 interface in elke nuc.


[...]


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
Dec 07 01:38:29 pve1 pvestatd[965]: Local-Pbs: error fetching datastores - 500 Can't connect to 192.168.178.157:8007 (Connection timed out)
Dec 07 01:38:31 pve1 kernel: e1000e 0000:00:1f.6 eno1: NIC Link is Up 1000 Mbps Full Duplex, Flow Control: None
Dec 07 01:38:31 pve1 kernel: vmbr0: port 1(eno1) entered blocking state
Dec 07 01:38:31 pve1 kernel: vmbr0: port 1(eno1) entered forwarding state

Dec 07 01:38:21 pve1 corosync[925]: [KNET ] link: host: 3 link: 0 is down
Dec 07 01:38:21 pve1 corosync[925]: [KNET ] link: host: 2 link: 0 is down
Dec 07 01:38:21 pve1 corosync[925]: [KNET ] host: host: 3 (passive) best link: 0 (pri: 1)
Dec 07 01:38:21 pve1 corosync[925]: [KNET ] host: host: 3 has no active links
Dec 07 01:38:21 pve1 corosync[925]: [KNET ] host: host: 2 (passive) best link: 0 (pri: 1)
Dec 07 01:38:21 pve1 corosync[925]: [KNET ] host: host: 2 has no active links
Dec 07 01:38:22 pve1 corosync[925]: [TOTEM ] Token has not been received in 2737 ms
Dec 07 01:38:22 pve1 kernel: e1000e 0000:00:1f.6 eno1: Detected Hardware Unit Hang: TDH


in 2 van de 3 nuc's zit een intel nic en daar zit een bug in.
In alle 3 de nuc's zit een intel nic en daar zit een bug in.
https://forum.proxmox.com...ardware-unit-hang.106001/
Heb dit toegepast en ga het even in de gaten houden.
yes het bekende problem, idem met mijn Intel NUC thuis die heeft dat ook

de andere machines hebben een Realtek NIC (jaja) maar nooit issues 8)

A wise man's life is based around fuck you


Acties:
  • +1 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 13-09 16:45
Even terugkomend op deze gaten in de grafieken.

Afbeeldingslocatie: https://tweakers.net/i/7GNxQxz1QkBk4g5EupVGXQmV78Y=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/jli9bIsRUcnQgrz3aR7NpQKf.png?f=user_large

Ik heb een Proxmox Backup server op een remote lokatie en deze is de laatste tijd geregeld offline.
Dat zie ik dus in de logs van van proxmox en dan krijg ik dus deze rare gaten in de grafieken.
Heb die proxmox backup server gisteren verwijderd en geen gaten meer in de grafieken.
Heb deze proxmox backup server aan een andere proxmox nuc (remote bij familie die ik beheer) toegevoegd en nu zie ik daar de rare gaten in de grafieken.
Waarom die gaten snap ik dus niet maar het is wel duidelijk wat de oorzaak is.

Acties:
  • 0 Henk 'm!

  • Beekforel
  • Registratie: November 2001
  • Laatst online: 19:49

Beekforel

Is eigenlijk geen vis

Wanneer ik een LXC maak (Paperless in dit geval, obv https://community-scripts.../scripts?id=paperless-ngx) doe ik een aantal post-configuratiestappen:
- ik zet het IP adres static
- ik maak een user aan in de lxc (bijvoorbeeld henk)
- ik maak een mountpoint aan naar een locatie op de host
- ik voeg wat lxc.idmap dingen toe:
code:
1
2
3
4
5
6
lxc.idmap: u 0 100000 1000
lxc.idmap: g 0 100000 1000
lxc.idmap: u 1000 1000 1
lxc.idmap: g 1000 1000 1
lxc.idmap: u 1001 101001 64535
lxc.idmap: g 1001 101001 64535


Nou gaat dit best prima, ik kan overal (vanuit meerdere LXC's) lekker als henk aan files werken etc. Maar ik loop er nu tegenaan dat de config file van Paperless niet meer te editten is want:

Bash:
1
2
root@paperless-ngx:~# ls -l /opt/paperless/paperless.conf 
-rw-r--r-- 1 nobody nogroup 3106 Dec 14 23:47 /opt/paperless/paperless.conf


Wanneer ik de lxc.idmap entries uit de config file haal is alles weer in orde.

Dus ik zal wel iets niet goed doen, maar wat dan en hoe corrigeer ik dit?

Acties:
  • 0 Henk 'm!

  • tomdh76
  • Registratie: Maart 2015
  • Laatst online: 11:54
Beekforel schreef op zondag 15 december 2024 @ 00:17:
Wanneer ik een LXC maak (Paperless in dit geval, obv https://community-scripts.../scripts?id=paperless-ngx) doe ik een aantal post-configuratiestappen:
- ik zet het IP adres static
- ik maak een user aan in de lxc (bijvoorbeeld henk)
- ik maak een mountpoint aan naar een locatie op de host
- ik voeg wat lxc.idmap dingen toe:
code:
1
2
3
4
5
6
lxc.idmap: u 0 100000 1000
lxc.idmap: g 0 100000 1000
lxc.idmap: u 1000 1000 1
lxc.idmap: g 1000 1000 1
lxc.idmap: u 1001 101001 64535
lxc.idmap: g 1001 101001 64535


Nou gaat dit best prima, ik kan overal (vanuit meerdere LXC's) lekker als henk aan files werken etc. Maar ik loop er nu tegenaan dat de config file van Paperless niet meer te editten is want:

Bash:
1
2
root@paperless-ngx:~# ls -l /opt/paperless/paperless.conf 
-rw-r--r-- 1 nobody nogroup 3106 Dec 14 23:47 /opt/paperless/paperless.conf


Wanneer ik de lxc.idmap entries uit de config file haal is alles weer in orde.

Dus ik zal wel iets niet goed doen, maar wat dan en hoe corrigeer ik dit?
ik neem aan dat je dit doet om een unpriviliged container te runnen en netwerk shares te benaderen als user henk. Ik deed dit ook maar liep ook tegen problemen aan dat de user die de processen runde anders was dan zo'n netwerk user.

Uiteindelijk heb ik dat hele id map gebeuren verlaten en gebruik nu deze tutorial:

https://forum.proxmox.com...mount-cifs-shares.101795/

werkt een stuk fijner

Acties:
  • 0 Henk 'm!

  • Beekforel
  • Registratie: November 2001
  • Laatst online: 19:49

Beekforel

Is eigenlijk geen vis

tomdh76 schreef op zondag 15 december 2024 @ 11:29:
[...]


ik neem aan dat je dit doet om een unpriviliged container te runnen en netwerk shares te benaderen als user henk. Ik deed dit ook maar liep ook tegen problemen aan dat de user die de processen runde anders was dan zo'n netwerk user.

Uiteindelijk heb ik dat hele id map gebeuren verlaten en gebruik nu deze tutorial:

https://forum.proxmox.com...mount-cifs-shares.101795/

werkt een stuk fijner
Klopt inderdaad. Ik zal dit testen, bedankt.

Acties:
  • 0 Henk 'm!

  • -Casper
  • Registratie: Juni 2012
  • Laatst online: 13-09 21:46
Ik heb een proxmox setup draaien met een LXC die een reverse proxy draait. Nu heb ik net een Fritzbox geïnstalleerd en blijkbaar accepteert die het niet om port forwarding in te stellen naar een alias IP omdat de netwerkkaart gedeeld wordt.

Is er een oplossing vanuit proxmox om hier omheen te werken? Ik ben wel in staat om op het IP van de proxmox host poorten te forwarden, dus wellicht is het mogelijk om de LXC op het IP van de proxmox host te laten werken?

Ik sta uiteraard open voor alle suggesties.

Acties:
  • 0 Henk 'm!

  • commentator
  • Registratie: Mei 2004
  • Laatst online: 09:45
-Casper schreef op zondag 15 december 2024 @ 16:05:
Ik heb een proxmox setup draaien met een LXC die een reverse proxy draait. Nu heb ik net een Fritzbox geïnstalleerd en blijkbaar accepteert die het niet om port forwarding in te stellen naar een alias IP omdat de netwerkkaart gedeeld wordt.

Is er een oplossing vanuit proxmox om hier omheen te werken? Ik ben wel in staat om op het IP van de proxmox host poorten te forwarden, dus wellicht is het mogelijk om de LXC op het IP van de proxmox host te laten werken?

Ik sta uiteraard open voor alle suggesties.
die lxc heeft toch een eigen ip en een poort open? Dan kun je daar toch gewoon naar forwarden ingewikkelder is het volgens mij niet

Acties:
  • 0 Henk 'm!

  • -Casper
  • Registratie: Juni 2012
  • Laatst online: 13-09 21:46
commentator schreef op zondag 15 december 2024 @ 20:57:
[...]

die lxc heeft toch een eigen ip en een poort open? Dan kun je daar toch gewoon naar forwarden ingewikkelder is het volgens mij niet
Zo werkte het inderdaad op de connectbox van Ziggo wel. Ik gebruik nu een Fritzbox en die blijkt problemen te hebben met het openzetten van poorten op "alias ips". Dus ben nu aan t kijken of ik dat nog kan oplossen via een andere manier dan een andere router.

Acties:
  • 0 Henk 'm!

  • RailHenk87
  • Registratie: September 2018
  • Laatst online: 18:51
Lijkt me eerder een Fritzbox probleem, maar heb je de stappen hier al gevolgd? Volgens die instructies kan je prima een IP ingeven.

https://nl.avm.de/service...e-FRITZ-Box-configureren/

Zou me verbazen mocht deze functionaliteit ontbreken.

[ Voor 26% gewijzigd door RailHenk87 op 15-12-2024 21:25 ]


Acties:
  • +1 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Nu online

Cyphax

Moderator LNX
Gaat de container met het mac-adres van de host naar buiten of met z'n eigen mac?

Saved by the buoyancy of citrus


Acties:
  • +1 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

In de standaard bridged configuratie gedraagt de ethernetpoort van de host zich als een poort van een switch, en zal verkeer van/naar de LXC met het MAC-adres gekoppeld aan de LXC gaan. Het IP-adres gekoppeld aan een LXC is daardoor niet een alias op de ethernet-controller van de host.

Als het niet zo werkt, is de vraag vooral hoe de netwerkconfiguratie op de Proxmox-host ingericht is.

Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 05:02
Is het vanuit PVE mogelijk om aan het einde van het draaien van backups (die naar PBS gestuurd worden) een script af te trappen welke PBS een shutdown geeft?
WOL kan ik wel vanuit homeassistant sturen maar shutdown is natuurlijk niet altijd hetzelfde moment. En mag best 30min na het afrondden zijn maar als het sneller kan scheelt weer stroom ;)

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 17:48
The-Source schreef op maandag 16 december 2024 @ 16:19:
Is het vanuit PVE mogelijk om aan het einde van het draaien van backups (die naar PBS gestuurd worden) een script af te trappen welke PBS een shutdown geeft?
WOL kan ik wel vanuit homeassistant sturen maar shutdown is natuurlijk niet altijd hetzelfde moment. En mag best 30min na het afrondden zijn maar als het sneller kan scheelt weer stroom ;)
Hoe heb je PBS opgetuigd en gestart?

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 05:02
Airw0lf schreef op maandag 16 december 2024 @ 16:36:
[...]


Hoe heb je PBS opgetuigd en gestart?
Simpel pc'tje met de PBS software erop en PVE pushed de backups naar PBS.
PC zelf gaat prima aan met WOL dus dat is de uitdaging niet. PBS software is dus op bare-metal zogezegd.

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Het zou mogelijk moeten zijn om PVE een webhook-notificatie te laten sturen zodra de backup afgerond is. Dan heb je op dat punt iets nodig om de webhook mee te ontvangen en het script om PBS af te sluiten uit te voeren. Misschien kan HA dat? (webhooks heb ik nog steeds niets zelf mee gedaan, en HA heb ik ook geen ervaring mee verder)

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 17:48
The-Source schreef op maandag 16 december 2024 @ 17:01:
[...]

Simpel pc'tje met de PBS software erop en PVE pushed de backups naar PBS.
PC zelf gaat prima aan met WOL dus dat is de uitdaging niet. PBS software is dus op bare-metal zogezegd.
Ok - en weet je ook hoe lang een backup duurt?

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 05:02
Langste backup ronde maar 2.5 minuut.
Maar je moet ook de pbs tijd geven om de depuplication / verify jobs te kunnen afronden.
Dus voor het gemak gezegd en uur aan lijkt mij voldoende als ik de verify job aan zou passen dat deze in het aan staan slot zou zetten.
Overigens draait verify maar 2x per week een GC en prune wel vaker. Dus puur alleen focus op backup tijd is niet voldoende.

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 17:48
The-Source schreef op maandag 16 december 2024 @ 19:20:
Langste backup ronde maar 2.5 minuut.
Maar je moet ook de pbs tijd geven om de depuplication / verify jobs te kunnen afronden.
Dus voor het gemak gezegd en uur aan lijkt mij voldoende als ik de verify job aan zou passen dat deze in het aan staan slot zou zetten.
Overigens draait verify maar 2x per week een GC en prune wel vaker. Dus puur alleen focus op backup tijd is niet voldoende.
Wat ongelukkig verwoord - ik doelde op de totale doorlooptijd.
Dus inclusief verificatie.

Bij mij is dat tot nu toe minder als 3 uur.

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 05:02
@Airw0lf
Ik heb geen groot aantal backups en relatief statische data.
Laatste GC was 4s en laatste verify net geen 4m en verify is over alle backups (4x lxc, 4x vm)
Dus het duurt zeker niet zo lang bij mij, is maar 75GB met depuplication factor van 12,75

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • tomdh76
  • Registratie: Maart 2015
  • Laatst online: 11:54
Ik heb last van spontane crashes in Proxmox die ik niet goed snap. Ik zie in de logs niets gek behalve misschien na een reboot:

hub 10-0:1.0: config failed, hub doesn't have any ports! (err -19)

Willen jullie (met een stabiele proxmox) eens kijken of je deze error ook direct hebben na een reboot ? (via journalctl -p err) in de gewone logs via de wegbui zie ik ook hele betogen die me niets zeggen zoals:

Dec 16 21:33:37 proxmox systemd[126973]: Closed dirmngr.socket - GnuPG network certificate management daemon.
Dec 16 21:33:37 proxmox systemd[126973]: Closed gpg-agent-browser.socket - GnuPG cryptographic agent and passphrase cache (access for web browsers).
Dec 16 21:33:37 proxmox systemd[126973]: Closed gpg-agent-extra.socket - GnuPG cryptographic agent and passphrase cache (restricted).
Dec 16 21:33:37 proxmox systemd[126973]: Closed gpg-agent-ssh.socket - GnuPG cryptographic agent (ssh-agent emulation).
Dec 16 21:33:37 proxmox systemd[126973]: Closed gpg-agent.socket - GnuPG cryptographic agent and passphrase cache.
Dec 16 21:33:37 proxmox systemd[126973]: Removed slice app.slice - User Application Slice.
Dec 16 21:33:37 proxmox systemd[126973]: Reached target shutdown.target - Shutdown.
Dec 16 21:33:37 proxmox systemd[126973]: Finished systemd-exit.service - Exit the Session.
Dec 16 21:33:37 proxmox systemd[126973]: Reached target exit.target - Exit the Session.
Dec 16 21:33:37 proxmox systemd[1]: user@0.service: Deactivated successfully.
Dec 16 21:33:37 proxmox systemd[1]: Stopped user@0.service - User Manager for UID 0.
Dec 16 21:33:37 proxmox systemd[1]: Stopping user-runtime-dir@0.service - User Runtime Directory /run/user/0...
Dec 16 21:33:37 proxmox systemd[1]: run-user-0.mount: Deactivated successfully.
Dec 16 21:33:37 proxmox systemd[1]: user-runtime-dir@0.service: Deactivated successfully.
Dec 16 21:33:37 proxmox systemd[1]: Stopped user-runtime-dir@0.service - User Runtime Directory /run/user/0.
Dec 16 21:33:37 proxmox systemd[1]: Removed slice user-0.slice - User Slice of UID 0.

maar of dat echt errors zijn...


edit: het lijkt een hardware issue.

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 17:48
The-Source schreef op maandag 16 december 2024 @ 20:08:
@Airw0lf
Ik heb geen groot aantal backups en relatief statische data.
Laatste GC was 4s en laatste verify net geen 4m en verify is over alle backups (4x lxc, 4x vm)
Dus het duurt zeker niet zo lang bij mij, is maar 75GB met depuplication factor van 12,75
Afhankelijk van de bios instellingen van je PBS machientje zou je een shutdown en startup kunnen schedulen via een cronjob.

Stel de backup start dagelijks om 22:00 uur en de complete doorlooptijd is ongeveer een uur. Dan lijkt me 21:30 uur een mooite starttijd voor je PBS machinetje - heeft ie een half uurtje om tot leven te komen en zijn dagelijkse huishouding te regelen.
Met een doorlooptijd van een uur lijkt me 23:30 uur een mooie stoptijd - is er nog wat ruimte voor uitloop.

Verpakt in een cronjob wordt het dan:
30 21 * * sun-sat sudo rtcwake -v -m off -l --date +22h >> /var/log/shutdown-and-wakeup.log

De resultaten zijn dus terug te zien in /var/log/shutdown-and-wakeup.log

[ Voor 7% gewijzigd door Airw0lf op 16-12-2024 22:06 ]

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • L0g0ff
  • Registratie: April 2001
  • Laatst online: 13-09 19:31

L0g0ff

omg

Zijn er ook Tweakers die proxmox in een enterprise omgeving draaien? Belangrijk is 24/7 uptime (van de vm's die draaien uiteraard), high performance, HA, DRS en het moet super stabiel zijn. Niet alleen het draaien van de hosts moet stabiel zijn maar ook de updates en upgrades. Ik weet dat er geen telefonische support is (rechtstreeks) maar volgens mij zijn er wel tussen partijen die dit eventueel kunnen regelen.

Wij draaien op heel veel plaatsen nutanix (pracht van een product met bakken aan features) maar dat is elke keer weer support cases inschieten na een upgrade omdat er weer iets is ongevallen.

Ik wil eigenlijk gewoon de stabiliteit wat ik van VMware gewend was. Ik ken alleen niemand die proxmox heeft draaien in een enterprise productie omgeving.

Op Reddit heb ik wel wat comments gevonden die 1000'en vm's hadden draaien op proxmox. Maar dat waren ook maar een handjevol comments.

Blog.wapnet.nl KompassOS.nl


Acties:
  • +3 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 05:02
@L0g0ff
Paar maanden geleden op de proxmox dag geweest die door Tuxis was georganiseerd. Wellicht is dat een partij om wat informatie in te winnen.

[ Voor 4% gewijzigd door The-Source op 17-12-2024 09:14 ]

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
L0g0ff schreef op dinsdag 17 december 2024 @ 08:23:
Zijn er ook Tweakers die proxmox in een enterprise omgeving draaien? Belangrijk is 24/7 uptime (van de vm's die draaien uiteraard), high performance, HA, DRS en het moet super stabiel zijn. Niet alleen het draaien van de hosts moet stabiel zijn maar ook de updates en upgrades. Ik weet dat er geen telefonische support is (rechtstreeks) maar volgens mij zijn er wel tussen partijen die dit eventueel kunnen regelen.

Wij draaien op heel veel plaatsen nutanix (pracht van een product met bakken aan features) maar dat is elke keer weer support cases inschieten na een upgrade omdat er weer iets is ongevallen.

Ik wil eigenlijk gewoon de stabiliteit wat ik van VMware gewend was. Ik ken alleen niemand die proxmox heeft draaien in een enterprise productie omgeving.

Op Reddit heb ik wel wat comments gevonden die 1000'en vm's hadden draaien op proxmox. Maar dat waren ook maar een handjevol comments.
Bij mijn weten draait Contabo ook op Proxmox.

Acties:
  • +1 Henk 'm!

  • L0g0ff
  • Registratie: April 2001
  • Laatst online: 13-09 19:31

L0g0ff

omg

The-Source schreef op dinsdag 17 december 2024 @ 09:14:
@L0g0ff
Paar maanden geleden op de proxmox dag geweest die door Tuxis was georganiseerd. Wellicht is dat een partij om wat informatie in te winnen.
Bedankt ik zal de volgende proxmox dag eens in de gaten houden :)

Blog.wapnet.nl KompassOS.nl


Acties:
  • +2 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 17:00
L0g0ff schreef op dinsdag 17 december 2024 @ 08:23:
Zijn er ook Tweakers die proxmox in een enterprise omgeving draaien? Belangrijk is 24/7 uptime (van de vm's die draaien uiteraard), high performance, HA, DRS en het moet super stabiel zijn. Niet alleen het draaien van de hosts moet stabiel zijn maar ook de updates en upgrades. Ik weet dat er geen telefonische support is (rechtstreeks) maar volgens mij zijn er wel tussen partijen die dit eventueel kunnen regelen.

Wij draaien op heel veel plaatsen nutanix (pracht van een product met bakken aan features) maar dat is elke keer weer support cases inschieten na een upgrade omdat er weer iets is ongevallen.

Ik wil eigenlijk gewoon de stabiliteit wat ik van VMware gewend was. Ik ken alleen niemand die proxmox heeft draaien in een enterprise productie omgeving.

Op Reddit heb ik wel wat comments gevonden die 1000'en vm's hadden draaien op proxmox. Maar dat waren ook maar een handjevol comments.
Wij hebben 2 clusters draaien in ons bedrijf sinds 2019 (moment dat ik van werkgever ben overgestapt:+). Sinds die tijd nergens last van gehad ook kwa updates niet.

Mocht je een keer willen sparren, stuur me maar een DM ;)

Acties:
  • 0 Henk 'm!

  • GoBieN-Be
  • Registratie: Juni 2002
  • Nu online
Ik heb op het bedrijf waar ik werk nu een Proxmox geconfigureerd als (single) host voor monitoring en IT-management VM's.
De 2 productie servers draaien nu nog op vSphere ESXi 7, maar wellicht in de toekomst Proxmox.

Veeam B&R ondersteunt nu Proxmox, dus dat is geen struikelblok meer.
Wel nog niet feature-parity met back-up van vSphere hosts.

Acties:
  • 0 Henk 'm!

  • Beekforel
  • Registratie: November 2001
  • Laatst online: 19:49

Beekforel

Is eigenlijk geen vis

tomdh76 schreef op zondag 15 december 2024 @ 11:29:
[...]


ik neem aan dat je dit doet om een unpriviliged container te runnen en netwerk shares te benaderen als user henk. Ik deed dit ook maar liep ook tegen problemen aan dat de user die de processen runde anders was dan zo'n netwerk user.

Uiteindelijk heb ik dat hele id map gebeuren verlaten en gebruik nu deze tutorial:

https://forum.proxmox.com...mount-cifs-shares.101795/

werkt een stuk fijner
Ik heb deze methode getest maar dit gaat niet op in mijn setup.

Ik heb een USB disk aan m'n host hangen waarop ik de data stal. Deze disk heb ik als "Directory" gekoppeld in de host, hij mount dan onder /mnt/pve/usb01 op de host. Die maak ik aan als mountpoint op de lxc.

Ik vond deze Reddit https://www.reddit.com/r/...bodynogroup_in/?rdt=37444 maar twijfel of dat precies hetzelfde is. Verder vind ik vooral mensen die het oplossen door de LXC priviliged te maken maar dat wou ik eigenlijk voorkomen.

Het gaat bij m'n 23 andere LXC's prima trouwens, alleen bij deze loopt het in de soep.

Acties:
  • +1 Henk 'm!

  • wishmaster1986
  • Registratie: April 2004
  • Laatst online: 15:46
The-Source schreef op maandag 16 december 2024 @ 16:19:
Is het vanuit PVE mogelijk om aan het einde van het draaien van backups (die naar PBS gestuurd worden) een script af te trappen welke PBS een shutdown geeft?
WOL kan ik wel vanuit homeassistant sturen maar shutdown is natuurlijk niet altijd hetzelfde moment. En mag best 30min na het afrondden zijn maar als het sneller kan scheelt weer stroom ;)
Ik zelf heb een script die runt op het einde van een backup job op de PVE VM host en daarmee via SSH een shutdown commando doet op de PVE backup host. Aanzetten van de backup host gaat d.m.v. Ansible die de server via Dell iDRAC een power on geeft. De backup host is trouwens een normale PVE host waar ook nog een virtuele Synology opdraait voor de Office 365 backups. Proxmox PBS heb als extra package geinstalleerd en dat werkt prima.

Vrijdag later in de nacht (03:00) gaat de server aan en heeft dan de tijd tot de volgende run van dagelijkse backup (00:03) voor garbage collection en verifieren van backups en gaat d.m.v. het script daarna normaal uit.

Het werkt eigenlijk best goed maar nu webhooks beschikbaar zijn zodra ik op de 8.3 zit ga ik het aanpassen naar met webhooks.

/etc/vzdump.conf
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
# vzdump default settings

#tmpdir: DIR
#dumpdir: DIR
#storage: STORAGE_ID
#mode: snapshot|suspend|stop
#bwlimit: KBPS
#performance: [max-workers=N][,pbs-entries-max=N]
#ionice: PRI
#lockwait: MINUTES
#stopwait: MINUTES
#stdexcludes: BOOLEAN
#mailto: ADDRESSLIST
#prune-backups: keep-INTERVAL=N[,...]
#script: FILENAME
#exclude-path: PATHLIST
#pigz: N
#notes-template: {{guestname}}
#pbs-change-detection-mode: legacy|data|metadata
script: /usr/local/bin/vzdump-hook-script-new.pl <----- dit is het script die aangeroepen wordt op het einde van een backup job.


/usr/local/bin/vzdump-hook-script-new.pl
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
#!/usr/bin/perl -w

# Example hook script for vzdump (--script option)
# This can also be added as a line in /etc/vzdump.conf
# e.g. 'script: /usr/local/bin/vzdump-hook-script.pl'


use strict;

print "HOOK: " . join (' ', @ARGV) . "\n";

my $phase = shift;

if ($phase eq 'job-init' ||
    $phase eq 'job-start' ||
    $phase eq 'job-end'  ||
    $phase eq 'job-abort') {

    # undef for Proxmox Backup Server storages
    # undef in phase 'job-init' except when --dumpdir is used directly
    my $dumpdir = $ENV{DUMPDIR};

    # undef when --dumpdir is used directly
    my $storeid = $ENV{STOREID};

    print "HOOK-ENV: ";
    print "dumpdir=$dumpdir;" if defined($dumpdir);
    print "storeid=$storeid;" if defined($storeid);
    print "\n";

    # example: wake up remote storage node and enable storage
    if ($phase eq 'job-init') {
        #print "Powering on x.x.x.x via iDRAC"   <--- Log entry aanmaken
        #system("ssh pve-02@x.x.x.x 'racadm serveraction powerup'");  <--- nu een comment omdat server aanzetten via Ansible gaat
        #sleep(180);
        #system ("/sbin/pvesm set $storeid --disable 0") == 0 ||
        #    die "enabling storage $storeid failed";
    }

    # do what you want

        if ($phase eq 'job-end') {
        print "Backup job end, shutdown x.x.x.xl";   <---- Log entry aanmaken
        system("ssh root\@x.x.x.x 'shutdown -P'");   <---- Virtuele Synology shutdown command
        sleep(90);
        system("ssh root\@x.x.x.x 'shutdown -P'");    <----- SSH shutdown command naar PVE backup host
        #system ("rclone delete --config /root/.rclone.conf --min-age 1d -v -v remote:coby-backups/dump") == 0 ||
        #       die "Deleting old backups failed";
        }


} elsif ($phase eq 'backup-start' ||
         $phase eq 'backup-end' ||
         $phase eq 'backup-abort' ||
         $phase eq 'log-end' ||
         $phase eq 'pre-stop' ||
         $phase eq 'pre-restart' ||
         $phase eq 'post-restart') {

    my $mode = shift; # stop/suspend/snapshot

    my $vmid = shift;

    my $vmtype = $ENV{VMTYPE}; # lxc/qemu

    # undef for Proxmox Backup Server storages
    my $dumpdir = $ENV{DUMPDIR};

    # undef when --dumpdir is used directly
    my $storeid = $ENV{STOREID};

    my $hostname = $ENV{HOSTNAME};

    # target is only available in phase 'backup-end'
    my $target = $ENV{TARGET};

    # logfile is only available in phase 'log-end'
    # undef for Proxmox Backup Server storages
    my $logfile = $ENV{LOGFILE};

    print "HOOK-ENV: ";
    for my $var (qw(vmtype dumpdir storeid hostname target logfile)) {
        print "$var=$ENV{uc($var)};" if defined($ENV{uc($var)});
    }
    print "\n";

    # example: copy resulting backup file to another host using scp
    if ($phase eq 'backup-end') {
        #system ("scp $target backup-host:/backup-dir") == 0 ||
        #    die "copy tar file to backup-host failed";
        #       system ("rsync -avhP --remove-source-files $target /mnt/rsyncnet/coby-backups/dump/") == 0 ||
        #       die "move tar file to backup-host failed";
    }

    # example: copy resulting log file to another host using scp
    if ($phase eq 'log-end') {
        #system ("scp $logfile backup-host:/backup-dir") == 0 ||
        #    die "copy log file to backup-host failed";
        #       system ("rsync -avhP --remove-source-files $logfile /mnt/rsyncnet/coby-backups/dump/") == 0 ||
        #               die "copy log file to backup-host failed";
    }


} else {

    die "got unknown phase '$phase'";

}

exit (0);

Acties:
  • +1 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 18:49

zeroday

There is no alternative!

Nou vanochtend drama hier in mijn clustertje ..

geen idee wat er gebeurd was maar 1 server offline, wel te pingen maar niets meer bereikbaar overal ?
dus die maar gereboot .. dat leek te werken en bleek er 1 LXC gelocked te zijn ..

Was ik daarmee klaar. ging een 2e in het cluster onderuit. ging een beetje heen en weer ping-pongen met zijn netwerk offline/online .. en ook daar na een goede reboot .. ook opgelost ..

en dan ook nog eens een NAS met TrueNAS core die in zijn bootpool over z'n nek was gegaan ..

Ik denk dat er ergens een stroomdipje vanacht geweest moet zijn of zo want anders kan ik die drie dingen op verschillende hardware niet rijmen ..

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • tomdh76
  • Registratie: Maart 2015
  • Laatst online: 11:54
Ik heb gisteren weer veel geleerd over een goede backup strategie van mijn proxmox server die toch niet optimaal was... Sinds een paar maanden een nieuwe server gebouwd die langzaam aan kapot ging en naar het nu lijkt door een kapot moederbord dan wel CPU. Op mijn proxmox heb ik ook OPNsense dus internet deed het een dag niet (boze kids..). Backups waren geregeld via Proxmox backup server. Gelukkig had ik mijn oude server nog dus daar snel proxmox op geinstalleerd. Maar... backups niet te bereiken omdat er geen router en internet is.. Dus KPN box geinstalleerd waarbij ik zelfs het glasvezel kastje weer moest installeren omdat normaal gewoon de glasvezel via een sfp mijn switch in ging met de juiste VLAN. Toen bleek het internet van de KPN box ook niet direct te bereiken vanaf mijn proxmox box. Dit begreep ik niet omdat ze allebei in het zelfde netwerk zaten maar misschien dat de unifi switch het verkeer niet kon routeren, het is wel een layer 3 switch? Dus proxmox box rechtstreeks aansluiten op KPN box en toen OPNsense backup kunnen downloaden. Kostte een avond...

Dus geleerd;

OPNSense VM backup op een usb drive ...:-)

Ik heb ook nog een edgerouter 4 liggen dus ik ga ook maar kijken of ik die zodanig kan instellen dat bij kapot gaan van mijn proxmox box met opnsense ik die kan aanzetten zodat alles gelijk weer werkt...

Acties:
  • +2 Henk 'm!

  • John245
  • Registratie: Januari 2020
  • Laatst online: 18:53
tomdh76 schreef op woensdag 18 december 2024 @ 20:35:
Ik heb gisteren weer veel geleerd over een goede backup strategie van mijn proxmox server die toch niet optimaal was... Sinds een paar maanden een nieuwe server gebouwd die langzaam aan kapot ging en naar het nu lijkt door een kapot moederbord dan wel CPU. Op mijn proxmox heb ik ook OPNsense dus internet deed het een dag niet (boze kids..). Backups waren geregeld via Proxmox backup server. Gelukkig had ik mijn oude server nog dus daar snel proxmox op geinstalleerd. Maar... backups niet te bereiken omdat er geen router en internet is.. Dus KPN box geinstalleerd waarbij ik zelfs het glasvezel kastje weer moest installeren omdat normaal gewoon de glasvezel via een sfp mijn switch in ging met de juiste VLAN. Toen bleek het internet van de KPN box ook niet direct te bereiken vanaf mijn proxmox box. Dit begreep ik niet omdat ze allebei in het zelfde netwerk zaten maar misschien dat de unifi switch het verkeer niet kon routeren, het is wel een layer 3 switch? Dus proxmox box rechtstreeks aansluiten op KPN box en toen OPNsense backup kunnen downloaden. Kostte een avond...

Dus geleerd;

OPNSense VM backup op een usb drive ...:-)

Ik heb ook nog een edgerouter 4 liggen dus ik ga ook maar kijken of ik die zodanig kan instellen dat bij kapot gaan van mijn proxmox box met opnsense ik die kan aanzetten zodat alles gelijk weer werkt...
En al de disaster scenario's jaarlijks testen :)

Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8


  • DjoeC
  • Registratie: November 2018
  • Laatst online: 16:29
John245 schreef op woensdag 18 december 2024 @ 20:37:
[...]

En al de disaster scenario's jaarlijks testen :)
Inclusief een fysieke restore ;)

  • John245
  • Registratie: Januari 2020
  • Laatst online: 18:53
DjoeC schreef op donderdag 19 december 2024 @ 12:27:
[...]

Inclusief een fysieke restore ;)
Ja dat hoort er natuurlijk bij.

Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8


  • DjoeC
  • Registratie: November 2018
  • Laatst online: 16:29
John245 schreef op donderdag 19 december 2024 @ 12:28:
[...]

Ja dat hoort er natuurlijk bij.
Maar wordt uit "angst" vaak niet gedaan want als het fout gaat......

  • tomdh76
  • Registratie: Maart 2015
  • Laatst online: 11:54
DjoeC schreef op donderdag 19 december 2024 @ 12:31:
[...]

Maar wordt uit "angst" vaak niet gedaan want als het fout gaat......
ik zou het wel willen, maar wordt wel een dure grap om van alles twee apparaten (denk dat je servers, switches etc bedoelt?) in huis te hebben...

Acties:
  • +2 Henk 'm!

  • DjoeC
  • Registratie: November 2018
  • Laatst online: 16:29
tomdh76 schreef op donderdag 19 december 2024 @ 13:35:
[...]


ik zou het wel willen, maar wordt wel een dure grap om van alles twee apparaten (denk dat je servers, switches etc bedoelt?) in huis te hebben...
Het hangt van je spullenboel af natuurlijk. Ik begin met backups draaien EN recoveren bij de vanilla installatie zodat ik zeker weet dat deze weer op te brengen is. Die versie bewaar ik ook vrij lang (basis voor veel). Daarna regelmatig G-F-S backups en zeker in het begin regelmatig op de originele server een complete restore uitvoeren. Dan maar "even" uit de lucht. Als je in een thuis situatie niet "even" zonder server kunt lijkt me dat je naast mogelijke recovery nog andere uitdagingen op te lossen hebt.

Mijn recovery duurt ongeveer 30 minuten doorloop terug naar 10:00 op dag X.

In een produktieomgeving (dan denk ik giga) geldt eigenlijk hetzelfde maar anders ingericht. Ik weet hoe een organisatie reageert als "een foutje" er voor zorgt dat miljoenen transacties niet verwerkt kunnen worden (deadlines) en duizenden werknemers niet kunnen werken. Maar zo'n omgeving heeft vaak een daarop toegesneden hard en software omgeving.

Acties:
  • 0 Henk 'm!

  • HowsMyApple
  • Registratie: November 2010
  • Laatst online: 14:34
Eerste keer dat ik mij meld in dit topic als redelijke Proxmox beginner.

Ik draai nu een klein jaar een stabiel Proxmox servertje op een Dell Optiplex 3060. Heb er wat containers op draaien (Nginx, Adguard, Influxdb, Grafana, Jellyfin) en 2 VM's (Home Assistant OS en Ubuntu).

Recentelijk de standaard 250gb ssd vervangen voor een van 2TB omdat ik van plan was om foto's te gaan backuppen. Nu lees ik dat het verstandiger is om je promox installatie en containers/vm's op een aparte schijf te hebben dan je daadwerkelijke storage.

Ik heb alleen geen idee wat nu de meest logische manier zijn om m'n storage in te gaan richten. Meest logische lijkt dan zoiets:

SSD #1 250gb:
- Proxmox
- Containers ? (Waarbij in theorie alleen Jellyfin bij SSD #2 hoeft te kunnen)
- VM's ? (En hoe zorg ik dan dat Immich, welke op de Ubuntu VM draait, de boel op SSD #2 op mag slaan?)

SSD #2 2TB:
- Foto's
- Video's

Waar laat ik de backups van m'n VM's en containers?


--------
En wordt de grotere "opslag ssd" idealiter ook voorzien van partitions om te zorgen dat Immich en Jellyfin+ elkaar niet in de weg gaan zitten?

Hopelijk kan iemand me een duwtje in de juiste richting geven.

Acties:
  • 0 Henk 'm!

  • m.eddy
  • Registratie: Juni 2007
  • Laatst online: 19:15
HowsMyApple schreef op vrijdag 20 december 2024 @ 11:37:
Eerste keer dat ik mij meld in dit topic als redelijke Proxmox beginner.

Ik draai nu een klein jaar een stabiel Proxmox servertje op een Dell Optiplex 3060. Heb er wat containers op draaien (Nginx, Adguard, Influxdb, Grafana, Jellyfin) en 2 VM's (Home Assistant OS en Ubuntu).

Recentelijk de standaard 250gb ssd vervangen voor een van 2TB omdat ik van plan was om foto's te gaan backuppen. Nu lees ik dat het verstandiger is om je promox installatie en containers/vm's op een aparte schijf te hebben dan je daadwerkelijke storage.

Ik heb alleen geen idee wat nu de meest logische manier zijn om m'n storage in te gaan richten. Meest logische lijkt dan zoiets:

SSD #1 250gb:
- Proxmox
- Containers ? (Waarbij in theorie alleen Jellyfin bij SSD #2 hoeft te kunnen)
- VM's ? (En hoe zorg ik dan dat Immich, welke op de Ubuntu VM draait, de boel op SSD #2 op mag slaan?)

SSD #2 2TB:
- Foto's
- Video's

Waar laat ik de backups van m'n VM's en containers?


--------
En wordt de grotere "opslag ssd" idealiter ook voorzien van partitions om te zorgen dat Immich en Jellyfin+ elkaar niet in de weg gaan zitten?

Hopelijk kan iemand me een duwtje in de juiste richting geven.
Je zou de opslag Ssd aan een Nas VM (bv OMV) kunnen toekennen. Binnen die OMV de opslag dan delen op het netwerk.
Kost een extra VM maar op deze manier ligt de deling van de shares in de Nas software, die ervoor gemaakt is.

Andere optie is om de opslag Ssd gewoon te mounten op proxmox en dan met mountpoints te werken. Daar heb ik geen ervaring mee.

Acties:
  • +5 Henk 'm!

  • ResuCigam
  • Registratie: Maart 2005
  • Laatst online: 18:46

ResuCigam

BOFH

Goed nieuws voor de zakelijke Proxmox gebruikers: Management software voor meerdere hosts! Weliswaar nog in alpha stadium en meerdere dingen die niet werken of 'leeg' zijn maar nu al bruikbaar: Proxmox datacenter manager first alpha release _/-\o_

We do what we must because we can.


Acties:
  • +1 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 05:02
wishmaster1986 schreef op dinsdag 17 december 2024 @ 23:27:
[...]
* Lang voorbeeld hoe PBS shutdown na backup
Nog bedankt voor de input.
Uit eindelijk toch een andere route genomen.
via cronjob
code:
1
0 5 * * * rtcwake -m off -t $(date +%s -d '03:53')

Laat ik mijn server elke dag om 5 uur uit gaan en dus net voor 4 uur weer aan.
Heb al mijn full verify en GC/ prune jobs op doorlooptijd dubbel checked. Full-verify is in 8 minuten klaar.
Prune en GC binnen een minuut en schema's zo aangepast dat deze kort na backup ronden uitgevoerd worden en in het uurtje dat server nu online is 2x GC job wordt uitgevoerd.
Nu even afwachten hoe het gaat en nog bedenken hoe ik wanneer de server uitstaat toch nog wat details kan krijgen.
Proxmox VE laat in de data store ook wel usage zien maar is ook leeg wanneer de PBS uitstaat. Voor nu in ieder geval bijna 23uur 18 a 25watt besparing :)
HowsMyApple schreef op vrijdag 20 december 2024 @ 11:37:
Eerste keer dat ik mij meld in dit topic als redelijke Proxmox beginner.

Ik draai nu een klein jaar een stabiel Proxmox servertje op een Dell Optiplex 3060. Heb er wat containers op draaien (Nginx, Adguard, Influxdb, Grafana, Jellyfin) en 2 VM's (Home Assistant OS en Ubuntu).

Recentelijk de standaard 250gb ssd vervangen voor een van 2TB omdat ik van plan was om foto's te gaan backuppen. Nu lees ik dat het verstandiger is om je promox installatie en containers/vm's op een aparte schijf te hebben dan je daadwerkelijke storage.

Ik heb alleen geen idee wat nu de meest logische manier zijn om m'n storage in te gaan richten. Meest logische lijkt dan zoiets:

SSD #1 250gb:
- Proxmox
- Containers ? (Waarbij in theorie alleen Jellyfin bij SSD #2 hoeft te kunnen)
- VM's ? (En hoe zorg ik dan dat Immich, welke op de Ubuntu VM draait, de boel op SSD #2 op mag slaan?)

SSD #2 2TB:
- Foto's
- Video's

Waar laat ik de backups van m'n VM's en containers?


--------
En wordt de grotere "opslag ssd" idealiter ook voorzien van partitions om te zorgen dat Immich en Jellyfin+ elkaar niet in de weg gaan zitten?

Hopelijk kan iemand me een duwtje in de juiste richting geven.
In ieder geval zorgen dat je data die je voor foto's / videos in je VM gebruikt een eigen disk zijn binnen de VM/ lxc.
Zo ja in ieder geval kiezen of deze in VM backup ronden meegenomen moet worden (of juist niet).
Ik backup mijn VM zelf veel vaker dat de bijna statische data die in als foto/ video heb opgeslagen.
Mijn opzet is: 1x TB nvme als PVE boot, VM drive en Backups *1
En heb daarnaast ZFS pool van spinning disks voor de foto video backup en andere data dingen die in de TB's lopen
Uit deze ZFS pool heb ik dan ook "Drive" gemount aan OMV van 20TB voor storage.
Uit dezelfde ZFS pool ook een 20TB storagenode StorJ gemaakt om wat euro's te ontvangen voor een systeem welke toch aanstaan ;)

*1 alleen kort durende backups blijven op nvme, langdurig gaat naar Proxmox backup server.

[ Voor 52% gewijzigd door The-Source op 21-12-2024 12:16 ]

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Nu online

Quad

Doof

ResuCigam schreef op zaterdag 21 december 2024 @ 09:07:
Goed nieuws voor de zakelijke Proxmox gebruikers: Management software voor meerdere hosts! Weliswaar nog in alpha stadium en meerdere dingen die niet werken of 'leeg' zijn maar nu al bruikbaar: Proxmox datacenter manager first alpha release _/-\o_
Ziet er goed uit, ik ben benieuwd wat hier nog meer uit gaan komen.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • 0 Henk 'm!

  • Jerie
  • Registratie: April 2007
  • Niet online
The-Source schreef op zaterdag 21 december 2024 @ 12:06:
[...]

Nog bedankt voor de input.
Uit eindelijk toch een andere route genomen.
via cronjob
code:
1
0 5 * * * rtcwake -m off -t $(date +%s -d '03:53')

Laat ik mijn server elke dag om 5 uur uit gaan en dus net voor 4 uur weer aan.
Heb al mijn full verify en GC/ prune jobs op doorlooptijd dubbel checked. Full-verify is in 8 minuten klaar.
Prune en GC binnen een minuut en schema's zo aangepast dat deze kort na backup ronden uitgevoerd worden en in het uurtje dat server nu online is 2x GC job wordt uitgevoerd.
Nu even afwachten hoe het gaat en nog bedenken hoe ik wanneer de server uitstaat toch nog wat details kan krijgen.
Proxmox VE laat in de data store ook wel usage zien maar is ook leeg wanneer de PBS uitstaat. Voor nu in ieder geval bijna 23uur 18 a 25watt besparing :)
[...]

In ieder geval zorgen dat je data die je voor foto's / videos in je VM gebruikt een eigen disk zijn binnen de VM/ lxc.
Zo ja in ieder geval kiezen of deze in VM backup ronden meegenomen moet worden (of juist niet).
Ik backup mijn VM zelf veel vaker dat de bijna statische data die in als foto/ video heb opgeslagen.
Mijn opzet is: 1x TB nvme als PVE boot, VM drive en Backups *1
En heb daarnaast ZFS pool van spinning disks voor de foto video backup en andere data dingen die in de TB's lopen
Uit deze ZFS pool heb ik dan ook "Drive" gemount aan OMV van 20TB voor storage.
Uit dezelfde ZFS pool ook een 20TB storagenode StorJ gemaakt om wat euro's te ontvangen voor een systeem welke toch aanstaan ;)

*1 alleen kort durende backups blijven op nvme, langdurig gaat naar Proxmox backup server.
M.i. moet je dit helemaal niet willen schatten. Je zou moeten kunnen zeggen dat na backup jobs rtcwake uitgevoerd moet worden. Dat kan gewoon door bij de cron toe te voegen:
code:
1
; rtcwake [..]
Je zou ook suspend to disk kunnen doen.

Ik ga dit ook zo instellen maar dan 1x in de week in de late ochtend. Want zonnepanelen moeten worden gebruikt.

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

ResuCigam schreef op zaterdag 21 december 2024 @ 09:07:
Goed nieuws voor de zakelijke Proxmox gebruikers: Management software voor meerdere hosts! Weliswaar nog in alpha stadium en meerdere dingen die niet werken of 'leeg' zijn maar nu al bruikbaar: Proxmox datacenter manager first alpha release _/-\o_
Ah, nice. Op de Proxmox-dag was al even langsgekomen dat dit er aan zat te komen, en ik zat er al wel een beetje naar uit te kijken. Grappig genoeg is mijn interesse dan weer niet vanaf de zakelijke kant (de paar clusters die ik draai mogen op zich wel los van elkaar blijven), maar privé: ik heb wel meerdere hosts, maar omdat het niet zo interessant is om die in een cluster te mikken is een centraal overzicht juist wel handig.

Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 18:49

zeroday

There is no alternative!

ResuCigam schreef op zaterdag 21 december 2024 @ 09:07:
Goed nieuws voor de zakelijke Proxmox gebruikers: Management software voor meerdere hosts! Weliswaar nog in alpha stadium en meerdere dingen die niet werken of 'leeg' zijn maar nu al bruikbaar: Proxmox datacenter manager first alpha release _/-\o_
Kewl .. Ben hem al aan het installeren .. ;) eens kijken of dat wat is <grin> maar met maar 1 cluster .. och, niet echt nodig.

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • tjanssen
  • Registratie: Augustus 2012
  • Niet online
Ik heb een bestaande LVM disk naar een andere Proxmox server verplaatst. Onder disks zie ik de schijf gewoon staan. Mijn nieuwe server gebruikt ZFS, en mijn oude schijf staat nu onder local-zfs:

Afbeeldingslocatie: https://tweakers.net/i/bD0uvgasN9CTnFbMaBHDzx7Eyro=/800x/filters:strip_exif()/f/image/exC9XYHtzkK8EvpEYNplWwTT.png?f=fotoalbum_large

Ook heb ik een bestaande LXC van de oude naar de nieuwe server gezet. Deze verwijst nu ook naar de nieuwe disk:

Afbeeldingslocatie: https://tweakers.net/i/nt41z2jnwMckdCyiOfOYtB_VADY=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/7VticcLEaxmEBqZxfI6PuyXc.png?f=user_large

Als ik nu de container start, dan is het mount echter niet mijn bestaande (6 TB) disk:

code:
1
2
3
Filesystem                    Size  Used Avail Use% Mounted on
rpool/data/subvol-101-disk-0   32G   13G   20G  41% /
rpool/data/subvol-101-disk-1  830G  128K  830G   1% /media/frigate


Wat zie ik over het hoofd?

Edit: opgelost. Onder Datacenter moest ik de storage nog toevoegen. Hij doet het weer!

[ Voor 13% gewijzigd door tjanssen op 22-12-2024 15:17 ]


Acties:
  • +1 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 05:02
Jerie schreef op zaterdag 21 december 2024 @ 17:07:
[...]


M.i. moet je dit helemaal niet willen schatten. Je zou moeten kunnen zeggen dat na backup jobs rtcwake uitgevoerd moet worden. Dat kan gewoon door bij de cron toe te voegen:
code:
1
; rtcwake [..]
Je zou ook suspend to disk kunnen doen.

Ik ga dit ook zo instellen maar dan 1x in de week in de late ochtend. Want zonnepanelen moeten worden gebruikt.
vannacht werkte het in ieder geval niet.
Maar dat kwam zeer waarschijnlijk omdat ik naar fullpath van rtcwake moet verwijzen. Dit even zojuist getest met extra regel. /usr/sbin/rtcwake en dat ging naar wens. Nu eens kijken of het morgen ochtend ook zo is.

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • poing
  • Registratie: Juli 2001
  • Niet online
MvL schreef op maandag 28 november 2016 @ 20:51:
[...]


Ik heb het nog een keer geprobeerd en nu werkt het wel allemaal goed!

Hoe gebruiken jullie NZBGet in een LXC container en dan bedoel ik hebben jullie netwerk shares gemaakt in de container om bij de bestanden te komen of downloaden jullie naar remote NFS shares?
Je kan de LXC container ook een map van de host geven, daar kan je vanop de host aan of delen met andere LXC containers. Op de host (proxmox): pct set 101 (container id) -mp0 /mnt/hostdirectory,mp=/containerdirectory

Je kan eventueel een LXC Samba container maken.

[ Voor 3% gewijzigd door poing op 23-12-2024 15:54 ]


Acties:
  • 0 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 13-09 16:45
Ik heb een cluster van 3 nuc's maar wil eigenlijk weer terug naar 1.
Het is een beetje overkill voor wat ik ermee doe.
Hoe kan ik de andere 2 nucs verwijderen zonder een herinstallatie van proxmox op de overblijvende nuc?
Ik heb node 3 al verwijderd met
code:
1
pvecm delnode pve3

Hij blijft echter wel in de lijst staan niet meer met een rood x maar zonder.
Als ik nu node2 uitzet krijg ik allemaal rare dingen, kan geen backup taken meer verwijderen en zie allemaal errors in de log over corosync etc.
Lang verhaal maar wat is nu de beste methode om weer terug te gaan naar een single node zonder herinstallatie?

Acties:
  • 0 Henk 'm!

  • Hann1BaL
  • Registratie: September 2003
  • Laatst online: 13-09 11:34

Hann1BaL

Do you stay for dinner?Clarice

Ik bouw nu een home server met proxmox en had nog zuinige hardware liggen. Voor storage heb ik 2 externe USB schijven aangesloten in dezelfde behuizing. Ik weet dat dit tegen het advies is, maar ik draai dan ook geen bedrijfsproductie omgeving.

Nu heb ik in Proxmox een mirror ZFS gemaakt met de 2x 12TB schijven.
Na een reboot is de ZPOOL degraded omdat 1 schijf niet gevonden wordt.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
root@proxmox:/dev# zdb -l /dev/sdb1
------------------------------------
LABEL 0
------------------------------------
    version: 5000
    name: 'vault'
    state: 0
    txg: 4
    pool_guid: 14505936232021095927
    errata: 0
    hostid: 770316131
    hostname: 'proxmox'
    top_guid: 3581203195361312083
    guid: 15991694944140653943
    vdev_children: 1
    vdev_tree:
        type: 'mirror'
        id: 0
        guid: 3581203195361312083
        metaslab_array: 65
        metaslab_shift: 34
        ashift: 12
        asize: 12000123420672
        is_log: 0
        create_txg: 4
        children[0]:
            type: 'disk'
            id: 0
            guid: 17460533056810209626
            path: '/dev/sdc1'
            devid: 'usb-ST12000V_N0008-2YS101_00000000496E-0:0-part1'
            phys_path: 'pci-0000:00:14.0-usb-0:8:1.0-scsi-0:0:0:0'
            whole_disk: 1
            create_txg: 4
        children[1]:
            type: 'disk'
            id: 1
            guid: 15991694944140653943
            path: '/dev/sdd1'
            devid: 'usb-ST12000V_N0008-2YS101_00000000496E-0:0-part1'
            phys_path: 'pci-0000:00:14.0-usb-0:7:1.0-scsi-0:0:0:0'
            whole_disk: 1
            create_txg: 4
    features_for_read:
        com.delphix:hole_birth
        com.delphix:embedded_data
        com.klarasystems:vdev_zaps_v2
    labels = 0 1 2 3
root@proxmox:/dev# zdb -l /dev/sdc1
------------------------------------
LABEL 0
------------------------------------
    version: 5000
    name: 'vault'
    state: 0
    txg: 111259
    pool_guid: 14505936232021095927
    errata: 0
    hostid: 770316131
    hostname: 'proxmox'
    top_guid: 3581203195361312083
    guid: 17460533056810209626
    vdev_children: 1
    vdev_tree:
        type: 'mirror'
        id: 0
        guid: 3581203195361312083
        metaslab_array: 65
        metaslab_shift: 34
        ashift: 12
        asize: 12000123420672
        is_log: 0
        create_txg: 4
        children[0]:
            type: 'disk'
            id: 0
            guid: 17460533056810209626
            path: '/dev/disk/by-id/usb-ST12000V_N0008-2YS101_00000000496E-0:0-part1'
            devid: 'usb-ST12000V_N0008-2YS101_00000000496E-0:0-part1'
            phys_path: 'pci-0000:00:14.0-usb-0:8:1.0-scsi-0:0:0:0'
            whole_disk: 1
            create_txg: 4
        children[1]:
            type: 'disk'
            id: 1
            guid: 15991694944140653943
            path: '/dev/sdd1'
            devid: 'usb-ST12000V_N0008-2YS101_00000000496E-0:0-part1'
            phys_path: 'pci-0000:00:14.0-usb-0:7:1.0-scsi-0:0:0:0'
            whole_disk: 1
            not_present: 1
            DTL: 12
            create_txg: 4
    features_for_read:
        com.delphix:hole_birth
        com.delphix:embedded_data
        com.klarasystems:vdev_zaps_v2
    labels = 0 1 2 3


Het gaat dan vooral om deze schijf die niet meer wordt gevonden:
guid: 15991694944140653943
path: '/dev/sdd1'


Het path is na een reboot alleen /dev/sdb1 geworden, maar ik weet niet hoe ik dat vertel aan de ZPOOL
Er is nu nog geen groot probleem behalve dat ik heel veel data heb gekopieerd maar dat kan ik weer doen.

Ik weet niet goed hoe ik het nu moet aanpakken.
Een lelijke oplossing kan in ieder geval zijn om 1 van de 2 schijven in een andere behuizing te stoppen zodat device ID niet meer hetzelfde is.

(IVM ruimte is het kopen van een andere kast en nieuwe hardware onwenselijk. micro form factor met externe schijven heb ik een mooie plek voor. Nogmaals, ik weet dat de aanbeveling is dit niet te doen.)

Acties:
  • +1 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 05:02
@Hann1BaL
Ik zie dat je bij child 1 geen disk/by-id/ in je path hebt staan.
Mijn vermoede is dat het pad /dev/sdd1 niet beschikbaar is maar je dev/by-id wel.
Maar ben geen zpool expert ;)

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • Hann1BaL
  • Registratie: September 2003
  • Laatst online: 13-09 11:34

Hann1BaL

Do you stay for dinner?Clarice

The-Source schreef op dinsdag 24 december 2024 @ 11:49:
@Hann1BaL
Ik zie dat je bij child 1 geen disk/by-id/ in je path hebt staan.
Mijn vermoede is dat het pad /dev/sdd1 niet beschikbaar is maar je dev/by-id wel.
Maar ben geen zpool expert ;)
Enig idee hoe ik dat verander?

Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
Hann1BaL schreef op dinsdag 24 december 2024 @ 17:06:
[...]

Enig idee hoe ik dat verander?
Exporteren en opnieuw importeren, mogelijk dat het daarmee vanzelf goed gaat. Anders moet je handmatig de map opgeven waar die moet zoeken, meen met -d. Maar daarvoor kun je het beste de man pages van export en import er op naslaan.

Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 05:02
Hann1BaL schreef op dinsdag 24 december 2024 @ 17:06:
[...]

Enig idee hoe ik dat verander?
Wederom geen expert, maar een ls doen in de map en als je maar 2 disks op usb hebt zitten dan is het id welke je nu nog niet hebt ;)
Maar of het zo simpel kan zijn durf ik niet te zeggen

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


  • Jerie
  • Registratie: April 2007
  • Niet online
The-Source schreef op zondag 22 december 2024 @ 15:44:
[...]

vannacht werkte het in ieder geval niet.
Maar dat kwam zeer waarschijnlijk omdat ik naar fullpath van rtcwake moet verwijzen. Dit even zojuist getest met extra regel. /usr/sbin/rtcwake en dat ging naar wens. Nu eens kijken of het morgen ochtend ook zo is.
Ik heb inmiddels dit:

0 8 * * 0 /usr/local/bin/powerdown_till_next_weekend.sh >/dev/null 2>&1

Inhoud /usr/local/bin/powerdown_till_next_weekend.sh (zou eigenlijk in sbin moeten denk ik zo :P):

#!/bin/sh
/bin/echo pve | /usr/sbin/rtcwake -m off -t $(date -d "next saturday 11 PM" +%s)

Ik gebruik ook molly-guard, vandaar de echo.

De volledige paths zijn in het shell script niet nodig, is nog omdat deze eerst in crontab stond.

In crontab zelf moet je % escapen met bijvoorbeeld \

En ik blijf voorlopig nog even bij 's nachts backup doen want mijn vrouw vindt een van de fans een teringherrie maken (wat ook wel klopt maar met een headset op merk je het niet, plus hij is helaas nodig).

Helaas gebruikt deze server ook 7 W terwijl hij uit staat. Terwijl iLO uit staat *shrug* (met was het 11 W).

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 05:02
@Jerie ik heb mijn cron ook moeten aanpassen naar een script om het werkend te krijgen. Heb niet gecontroleerd hoeveel stroom het nu echt bespaard maar het is altijd meer dan niets.
Moet alleen nog denken hoe ik updates ga doen maar periodiek server zelf aan drukken en daarna de updates draaien is ook weinig moeite.

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 13-09 16:45
Wie kan mij verder op weg helpen?
Ik heb een LXC container welke een mountpoint heeft naar een NFS share op de proxmox host.
Die NFS share draait op truenas welke een user heeft met ID 1001 en groep met GID 1000
Heb in die LXC dezelfde user en groep aangemaakt dacht dat is makkelijker.
In de config van de LXC dit toegevoegd maar de LXC start niet op.
code:
1
2
3
4
5
6
lxc.idmap: u 0 100000 1000
lxc.idmap: g 0 100000 1000
lxc.idmap: u 1000 1000 1
lxc.idmap: g 1000 1000 1
lxc.idmap: u 1001 101000 64535
lxc.idmap: g 1001 101000 64535


Maar krijg dan helaas de volgende foutmelding:
code:
1
2
3
4
()
lxc_map_ids: 245 newuidmap failed to write mapping "newuidmap: uid range [1000-1001) -> [1000-1001) not allowed": newuidmap 2787344 0 100000 1000 1000 1000 1 1001 101000 64535
lxc_spawn: 1795 Failed to set up id mapping.
TASK ERROR: startup for container '109' failed

Acties:
  • 0 Henk 'm!

  • Beekforel
  • Registratie: November 2001
  • Laatst online: 19:49

Beekforel

Is eigenlijk geen vis

Je zegt id 1001 maar je mapped 1000? Bestaat er wel een user 1000 aan beide kanten?

[ Voor 11% gewijzigd door Beekforel op 27-12-2024 21:07 ]


Acties:
  • 0 Henk 'm!

  • HowsMyApple
  • Registratie: November 2010
  • Laatst online: 14:34
m.eddy schreef op vrijdag 20 december 2024 @ 14:19:
[...]


Je zou de opslag Ssd aan een Nas VM (bv OMV) kunnen toekennen. Binnen die OMV de opslag dan delen op het netwerk.
Kost een extra VM maar op deze manier ligt de deling van de shares in de Nas software, die ervoor gemaakt is.

Andere optie is om de opslag Ssd gewoon te mounten op proxmox en dan met mountpoints te werken. Daar heb ik geen ervaring mee.
Ik heb je advies om OpenMediaVault te gebruiken gevolgd, en dat draait nu prima.
In proxmox bij "storage" de nieuwe ssd als "Directory" toegevoegd. En dmv in OMV file systems en shared folders in te regelen kan ik nu van overal binnen m'n netwerk de twee gedeelde mappen zien.

De ene map heb ik via "pct set xxx -mp0 mountshared,mp=mountlocal" prima aan mijn jellyfin container kunnen mounten.
Echter wil ik de andere folder vanuit een Ubuntu VM benaderen. Dat wil me helaas totaal niet lukken. Iemand een suggestie?

Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 18:49

zeroday

There is no alternative!

ComTech schreef op maandag 23 december 2024 @ 19:27:
Ik heb een cluster van 3 nuc's maar wil eigenlijk weer terug naar 1.
Het is een beetje overkill voor wat ik ermee doe.
Hoe kan ik de andere 2 nucs verwijderen zonder een herinstallatie van proxmox op de overblijvende nuc?
Ik heb node 3 al verwijderd met
code:
1
pvecm delnode pve3

Hij blijft echter wel in de lijst staan niet meer met een rood x maar zonder.
Als ik nu node2 uitzet krijg ik allemaal rare dingen, kan geen backup taken meer verwijderen en zie allemaal errors in de log over corosync etc.
Lang verhaal maar wat is nu de beste methode om weer terug te gaan naar een single node zonder herinstallatie?
Lol .. en ik voeg maar NUCjes toe ;)

/etc/pve/corosync.conf daar even kijken wat erin staat eventueel geheel verwijderen
met bovenstaande commando verwijder je inderdaad nodes

maar de referenties ook verwijderen:
rm -rf /etc/pve/nodes/<nodename>

-rf is altijd link dus zorg er wel voor dat je in de juiste folder staat ;)

nadat je alles verwijderd hebt wat met je verwijderde nodes te maken heeft ..

corosync uitzetten
systemctl stop pve-cluster corosync
systemctl start pve-cluster

Dat zou het zo'n beetje moeten zijn.

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 13-09 16:45
Beekforel schreef op vrijdag 27 december 2024 @ 21:07:
Je zegt id 1001 maar je mapped 1000? Bestaat er wel een user 1000 aan beide kanten?
Beetje late reactie maar had vanavond weer even tijd om verder te prutsen.
Helaas ook als ik 1001 map werkt het niet, de lxc start met dezelfde foutmelding niet op.
zeroday schreef op maandag 30 december 2024 @ 12:19:
[...]

Lol .. en ik voeg maar NUCjes toe ;)
Dat had ik dus ook gedaan maar toch overbodig, ik draai ook al een truenas server en alles bij elkaar wordt het stroomverbruik best hoog.

Ondertussen heb ik de nuc opnieuw geinstalleerd dus hij is uit het cluster. ;)

Acties:
  • +1 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 18:49

zeroday

There is no alternative!

[b]ComTech in "Het grote Proxmox VE topic"ComTech schreef op maandag 30 december 2024 @i.Stijn

Dat had ik dus ook gedaan maar toch overbodig, ik draai ook al een truenas server en alles bij elkaar wordt het stroomverbruik best hoog.

Ondertussen heb ik de nuc opnieuw geinstalleerd dus hij is uit het cluster. ;)
Tsja.. ik had ooit 5 HP Microservers gen8 aan staan met 3x Proxmox en 2x Truenas ..
dat is nu veranderd .. in 3x HP Microserver gen8 en een aantal NUC's ..
tis een hobby wat geld mag kosten en door de zonnepanelen valt dat minder op ;)

There are no secrets, only information you do not yet have


Acties:
  • +4 Henk 'm!

  • HowsMyApple
  • Registratie: November 2010
  • Laatst online: 14:34
HowsMyApple schreef op maandag 30 december 2024 @ 11:27:
[...]


Ik heb je advies om OpenMediaVault te gebruiken gevolgd, en dat draait nu prima.
In proxmox bij "storage" de nieuwe ssd als "Directory" toegevoegd. En dmv in OMV file systems en shared folders in te regelen kan ik nu van overal binnen m'n netwerk de twee gedeelde mappen zien.

De ene map heb ik via "pct set xxx -mp0 mountshared,mp=mountlocal" prima aan mijn jellyfin container kunnen mounten.
Echter wil ik de andere folder vanuit een Ubuntu VM benaderen. Dat wil me helaas totaal niet lukken. Iemand een suggestie?
Een zelfquote met de oplossing, mocht iemand hier later via de search terechtkomen. Dit is hoe ik een ssd heb kunnen mounten naar een Ubuntu VM om deze te kunnen gebruiken in Immich:


Om de folder beschikbaar te maken voor bijvoorbeeld Immich:
code:
1
sudo mount -t cifs //192.168.1.10/testshared /mnt/photos_storage -o user=proxmox


//192.168.1.10/testshared is de gesharede folder vanuit OpenMediaVault
/mnt/photos_storage is de zelfgemaakte folder op de Ubuntu VM
De user proxmox is gedefinieerd in OpenMediaVault

Bovenstaande werkt blijkbaar eenmalig, als je wil dat bij elke reboot de schijf weer gemount wordt moet deze worden toegevoegd aan /etc/fstab:
code:
1
sudo nano /etc/fstab


Paste daar het volgende:
code:
1
//192.168.1.10/testshared /mnt/photos_storage cifs credentials=/etc/samba/credentials,file_mode=0777,dir_mode=0777,nounix 0 0


Om de credentials veiliger op te slaan:
code:
1
sudo nano /etc/samba/credentials


Paste daar het voglden:

username=proxmox
password=YOUR_PASSWORD

Bestand “beveiligen”:
code:
1
sudo chmod 600 /etc/samba/credentials

Acties:
  • 0 Henk 'm!

  • vonkkie
  • Registratie: Januari 2014
  • Laatst online: 08-09 19:14
vraag ik heb sinds 3 dagen nu proxmox draaien ipv esxi
heb hier nu 3 vm,s opgemaakt en datw erkt perfect
er draaien er nu 2 beide 16gb max
op de afbeedlingen zie je dat ze beid nioet de complete 16 gb gebruiken maar proxmox geeft aan dat er 96 van de 128 gb wordt gebruikt hoe kan dit of heb ik iets fout gedaan ?


Afbeeldingslocatie: https://tweakers.net/i/-O-M4oDQXt5zGKZGGxQawxGCmhs=/800x/filters:strip_exif()/f/image/Qz7jJaMVvkiC2nfBZZQBvI81.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/e_j7K2hnxFymQPc0QckToLQtQBA=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/z2QjXjHo6j9rJB9YWeazKzxW.png?f=user_large

Afbeeldingslocatie: https://tweakers.net/i/ZNzNJkcqlB5svpVsRUDjGNcxyUs=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/7iip2sLa5r8nNxu8PgUX6Pn5.png?f=user_large

Acties:
  • 0 Henk 'm!

  • geenwindows
  • Registratie: November 2015
  • Niet online
vonkkie schreef op donderdag 2 januari 2025 @ 14:40:
vraag ik heb sinds 3 dagen nu proxmox draaien ipv esxi
heb hier nu 3 vm,s opgemaakt en datw erkt perfect
er draaien er nu 2 beide 16gb max
op de afbeedlingen zie je dat ze beid nioet de complete 16 gb gebruiken maar proxmox geeft aan dat er 96 van de 128 gb wordt gebruikt hoe kan dit of heb ik iets fout gedaan ?
...
gebruik je ZFS? zo ja, dan kan dat, ZFS ARC ;)

Fan van: Unraid, ProxMox, Pi-hole, PlexMediaServer, OPNsense. Meer een gluurder dan een reaguurder.


Acties:
  • 0 Henk 'm!

  • vonkkie
  • Registratie: Januari 2014
  • Laatst online: 08-09 19:14
geenwindows schreef op donderdag 2 januari 2025 @ 15:19:
[...]


gebruik je ZFS? zo ja, dan kan dat, ZFS ARC ;)
Hoe weet ik dat ?
Pagina: 1 ... 51 ... 61 Laatste