ZFS (tot aan) de helft van het geheugen laten gebruiken als cache is toch maximaal de resources benutten? Je kan het geheugen ook niet gebruiken, maar dan benut je het niet...Stephen Falken schreef op woensdag 23 oktober 2024 @ 14:13:
[...]
ik zou op een homebakje met local storage niet eens overwegen om ZFS in te zetten en al helemaal niet als ik maar 64gb ram had en een zooi containers die ram nodig zijn (of VM's) dan wil je maximaal je resources benutten.
Dat kan makkelijk, vooral als je zoveel mogelijk in containers doet (met behulp van https://tteck.github.io/Proxmox/). Dan heb je misschien wel wat RAM over voor een VM, al zou het op dat vlak wel een aanrader zijn om je RAM te verdubbelen. Dat kan vast wel binnen je budget.Ruudstertje schreef op woensdag 23 oktober 2024 @ 14:36:
Hallo,
Ik heb een oude game pc die ik wil ombouwen naar server voor het draaien van Proxmox.
Via proxmox wil ik software draaien als Pi-Hole, sabnzbd, Sonarr, Radarr, Emby en Nextcloud. Als het qua hardware mogelijk is wil ik ook ubuntu desktop als VM instaleren.
Heb nu een qnap NAS die als mediaserver vol begint te raken vandaar dat het idee om de oude pc wil ombouwen tot proxmox/Media server, zodat ik de NAS kan houden voor foto's en documenten.
Hardware heb ik het minste verstand van vandaar mijn vraag of ik met onderstaande hardware wat kan. Ik heb op een kleine investering (~150) na er nu eerst verder geen geld voor over.
De hardware:
Moederbord: MSI B450 Tomahawk MAX
Processor: AMD Ryzen 5 3600
Geheugen: Corsair Vengeance LPX 2x 8 GB
Videokaart: Gegevens niet bij de hand op dit moment
Alvast bedankt!
Edit 1:
Heb home assistant op een HP t620 draaien, deze wil ik zo mogelijk ook verplaatsen naar de nieuwe proxmox server
Saved by the buoyancy of citrus
ja klopt, maar er zijn efficiëntere filesystems om te te gebruiken op je thuisomgeving.dcm360 schreef op woensdag 23 oktober 2024 @ 15:54:
[...]
ZFS (tot aan) de helft van het geheugen laten gebruiken als cache is toch maximaal de resources benutten? Je kan het geheugen ook niet gebruiken, maar dan benut je het niet...
mijn OPNsense bakje draait lekker op UFS ipv ZFS, scheelt weer ram wat ik kan gebruiken voor andere zaken
Linux still eats your RAM.Stephen Falken schreef op woensdag 23 oktober 2024 @ 16:59:
[...]
ja klopt, maar er zijn efficiëntere filesystems om te te gebruiken op je thuisomgeving.
Het enige verschil is dat de build in file cache apart geteld wordt (en daardoor free vs available). Dat ZFS zijn eigen cache heeft betekent niet dat die ineens gigabytes aan meer RAM moet gebruiken. Alleen dat je het ziet als gebruikt RAM en het "niet beschikbaar zou zijn". Alleen geeft ZFS het ook vrij, net zoals alle software die meer RAM gebruikt dan nodig het vrij geeft als dat nodig is.
En vervolgens is ZFS' cache ook nog eens beter/efficiënter, doordat die niet alleen kijkt naar meest recent gebruik maar ook frequentie van gebruik.
ZFS op een router heeft dan ook 0,0 nut, uberhaupt. Je hoeft niet te snapshotten want je kunt prima een backup van de confih maken en restoren als nodig. En filesystem checksumming etc is dan ook minder van belang (want je kunt zo een backup terug zetten).mijn OPNsense bakje draait lekker op UFS ipv ZFS, scheelt weer ram wat ik kan gebruiken voor andere zaken
Dan ben ik wel benieuwd welke dat zijn. En als het even kan dan ook wel met moderne features, want FAT kan misschien wel efficiënt zijn, maar niet werkbaar.Stephen Falken schreef op woensdag 23 oktober 2024 @ 16:59:
[...]
ja klopt, maar er zijn efficiëntere filesystems om te te gebruiken op je thuisomgeving.
Geknoei in de marge. De paar pfSense-VM's met ZFS die ik heb draaien krijgen slechts 1GB RAM, en laten net als de VM's met UFS het grootste deel van het RAM ongebruikt. De VM's met ZFS hebben nog genoeg RAM vrij om hun hele root-FS op in te kunnen laden als ze het zouden willen...mijn OPNsense bakje draait lekker op UFS ipv ZFS, scheelt weer ram wat ik kan gebruiken voor andere zaken
Alles behalve FATdcm360 schreef op woensdag 23 oktober 2024 @ 18:15:
[...]
Dan ben ik wel benieuwd welke dat zijn. En als het even kan dan ook wel met moderne features, want FAT kan misschien wel efficiënt zijn, maar niet werkbaar.
voor een basic homelab met local storage moet je het gewoon lekker default houden (in het geval van proxmox) , das prima en voldoet in veel gevallen en is 'geavanceerd' genoeg.
default krijg je met OPNsense ZFS voor de kiezen sinds een paar releases terug, ik hou het lekker op UFS. gerommel in de marge met met die kleine configs die veel mensen hebben is elke beetje ram wat je kan besparen gewoon leuke winst.
maar ik snap je punt
Maar wel UFS, wat een filesystem van dezelfde generatie is
Tja, het kan voldoen, maar je mist wel de voordelen van ZFS waaronder geïntegreerd volume management, wat juist voor virtualisatie handig is.voor een basic homelab met local storage moet je het gewoon lekker default houden (in het geval van proxmox) , das prima en voldoet in veel gevallen en is 'geavanceerd' genoeg.
Nouja, we begonnen ergens in de discussie met 'maar 64GB RAM', ga je dan tot het uiterste om enkele tientallen MB's te besparen?default krijg je met OPNsense ZFS voor de kiezen sinds een paar releases terug, ik hou het lekker op UFS. gerommel in de marge met met die kleine configs die veel mensen hebben is elke beetje ram wat je kan besparen gewoon leuke winst.
maar ik snap je punt
Hier ook Proxmox. Ik zou het gewoon uitbreiden naar 128 om te beginnen. Zelf heb ik:dcm360 schreef op woensdag 23 oktober 2024 @ 21:22:
[...]
Nouja, we begonnen ergens in de discussie met 'maar 64GB RAM', ga je dan tot het uiterste om enkele tientallen MB's te besparen?
:strip_exif()/f/image/YAmkkAXQPXGzUnwPMBDGAeVo.png?f=user_large)
Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8
Je hoeft toch geen zfs deduplication te gebruiken. Gewoon minder ram laten gebruiken.
Ennnnnnnnnn laat losssssssss.... https://github.com/jrz/container-shell (instant container met chroot op current directory)
Je zou het niet verwachten in het grote Proxmox VE topic
Klinkt leuk, als ik het ergens voor zou kunnen gebruiken (en als het zou passen, in het geval van 256GB)... Ook met ZFS dat vrolijk de helft van het geheugen gebruikt (en dat nog zou kunnen vrijgeven dus), heb ik nog ruimte zat. Ook helemaal het punt niet natuurlijk, dat was meer in de richting dat als je last hebt van te hoge memory pressure met 64GB RAM, dat de paar MB's die ZFS op een firewall-appliance pakt nog niet de plaats is waar je het beste kan snoeien.Ik zou het gewoon uitbreiden naar 128 om te beginnen. Zelf heb ik:
[Afbeelding]
Nee daar zou ik ook niet op bezuinigen. Ik kan mijn geheugen uitbreiden tot 2 TB. Geen idee waarvoor ik dat ooit nodig zou hebben.dcm360 schreef op woensdag 23 oktober 2024 @ 22:29:
[...]
Je zou het niet verwachten in het grote Proxmox VE topic
[...]
Klinkt leuk, als ik het ergens voor zou kunnen gebruiken (en als het zou passen, in het geval van 256GB)... Ook met ZFS dat vrolijk de helft van het geheugen gebruikt (en dat nog zou kunnen vrijgeven dus), heb ik nog ruimte zat. Ook helemaal het punt niet natuurlijk, dat was meer in de richting dat als je last hebt van te hoge memory pressure met 64GB RAM, dat de paar MB's die ZFS op een firewall-appliance pakt nog niet de plaats is waar je het beste kan snoeien.
Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8
Dank voor alle reacties.
Voorheen had ik een proxmox server met 32 gb op ext4 met precies dezelfde containers behalve een windows vm. Nu ik een nieuwe server ging bouwen waar ik windows vm op wilde hebben dacht ik met 64 gb genoeg te hebben en dat lijkt dus ook wel maar de 'rode balk' van de memory en swap had ik bij de 32 gb server nog nooit.
Op de nieuwe server maar ZFS gebruikt omdat ik overal zag dat dit aangeraden werd. Merk verder geen verschil in ZFS en ext4 maar de snapshot functie leek me wel handig.
Ik denk dat ik het maar even aan kijk, ben het wel eens met de stelling; als je het geheugen hebt waarom zou je het dan niet gebruiken. Wat me wel opvalt is dat sommige containers heel weinig gebruiken (bijvoorbeeld 58 mb voor sabnzb op dit moment) maar als ik dan de resource verlaag bijvoorbeeld van 2Gb naar 1 Gb) dan zie ik dat niet terug in het totale gebruik op de host. Die blijft dan hangen op de eerdere waarde. Moet ik nog iets anders doen om dat geheugen vrij te geven (liefst geen reboot van de host)?
Voorheen had ik een proxmox server met 32 gb op ext4 met precies dezelfde containers behalve een windows vm. Nu ik een nieuwe server ging bouwen waar ik windows vm op wilde hebben dacht ik met 64 gb genoeg te hebben en dat lijkt dus ook wel maar de 'rode balk' van de memory en swap had ik bij de 32 gb server nog nooit.
Op de nieuwe server maar ZFS gebruikt omdat ik overal zag dat dit aangeraden werd. Merk verder geen verschil in ZFS en ext4 maar de snapshot functie leek me wel handig.
Ik denk dat ik het maar even aan kijk, ben het wel eens met de stelling; als je het geheugen hebt waarom zou je het dan niet gebruiken. Wat me wel opvalt is dat sommige containers heel weinig gebruiken (bijvoorbeeld 58 mb voor sabnzb op dit moment) maar als ik dan de resource verlaag bijvoorbeeld van 2Gb naar 1 Gb) dan zie ik dat niet terug in het totale gebruik op de host. Die blijft dan hangen op de eerdere waarde. Moet ik nog iets anders doen om dat geheugen vrij te geven (liefst geen reboot van de host)?
Het zijn containerstomdh76 schreef op donderdag 24 oktober 2024 @ 07:23:
Wat me wel opvalt is dat sommige containers heel weinig gebruiken (bijvoorbeeld 58 mb voor sabnzb op dit moment) maar als ik dan de resource verlaag bijvoorbeeld van 2Gb naar 1 Gb) dan zie ik dat niet terug in het totale gebruik op de host. Die blijft dan hangen op de eerdere waarde. Moet ik nog iets anders doen om dat geheugen vrij te geven (liefst geen reboot van de host)?
Mja - maar als ballooning aan staat wordt dit niet gebruikte geheugen toch teruggegeven aan de host?RobertMe schreef op donderdag 24 oktober 2024 @ 07:41:
[...]
Dit i.t.t. VMs waarvoor wel het volledige deel aan RAM "in gebruik" zal zijn, ook al is dat gedeeltelijk gevuld met 0-en (bij wijze van spreken, als zijnde "dit geheugen is van de VM en niet gebruikt).
Wat maakt dat een VM v.w.b. geheugengebruik (min-of-meer) hetzelfde werkt als een (LXC-)container?
Wel moet je dan voor Windows een driver installeren - iets wat Linux standaard aan boord heeft.
Bron: https://pve.proxmox.com/wiki/Dynamic_Memory_Management
[ Voor 13% gewijzigd door Airw0lf op 24-10-2024 08:14 ]
makes it run like clockwork
Maar als ik dan de container memory resource van bijvoorbeeld 4gb naar 1gb zet dan zou toch het totale geheugen gebruik van de proxmox host lager moeten worden?RobertMe schreef op donderdag 24 oktober 2024 @ 07:41:
[...]
Het zijn containersDus die gebruiken semi rechtstreeks het geheugen van de host. Het is dus niet volledig geclaimd, maar wel gereserveerd voor de container. En als het niet gebruikt wordt dan wordt het niet gebruikt. Dit i.t.t. VMs waarvoor wel het volledige deel aan RAM "in gebruik" zal zijn, ook al is dat gedeeltelijk gevuld met 0-en (bij wijze van spreken, als zijnde "dit geheugen is van de VM en niet gebruikt).
Ja dat ballooning had ik ook iets over gezien maar ik wil een windows VM voor games en ik begreep dat als je dan een virtio driver gaat installeren dat veel games niet te spelen zijn omdat er dan 'ontdekt' wordt dat het een virtuele windows is en dan krijg een je een ban omdat het als cheat wordt gezienAirw0lf schreef op donderdag 24 oktober 2024 @ 08:12:
[...]
Mja - maar als ballooning aan staat wordt dit niet gebruikte geheugen toch teruggegeven aan de host?
Wat maakt dat een VM v.w.b. geheugengebruik (min-of-meer) hetzelfde werkt als een (LXC-)container?
Wel moet je dan voor Windows een driver installeren - iets wat Linux standaard aan boord heeft.
Bron: https://pve.proxmox.com/wiki/Dynamic_Memory_Management
Heb je nog andere containers/VM's die een grafische kaart nodig hebben?tomdh76 schreef op donderdag 24 oktober 2024 @ 08:47:
[...]
Ja dat ballooning had ik ook iets over gezien maar ik wil een windows VM voor games en ik begreep dat als je dan een virtio driver gaat installeren dat veel games niet te spelen zijn omdat er dan 'ontdekt' wordt dat het een virtuele windows is en dan krijg een je een ban omdat het als cheat wordt gezien
Als dat de enige is lijkt het me praktischer om een zuinig servertje te bouwen zonder grafische kaart. Of een CPU met iGPU. Met daarnaast "iets" om mee te gamen. Dit met het idee dat de gaming prestaties onder Proxmox toch al niet al te best gaan zijn vanwege alle andere VM's en containers die draaien.
makes it run like clockwork
Niet ongerust, maar ik zou wel eea even nakijken ..tomdh76 schreef op woensdag 23 oktober 2024 @ 12:22:
Ik heb een nieuwe server opgezet met 64 gb ecc ram en een zfs pool. Nu zie ik dat mijn geheugen vrijwel altijd rood is als ik alle containers aan heb. Ik heb wat arr containers, opnsense vm, home assistant vm, en een windows vm.
[Afbeelding]
Alles werkt verder prima. Zouden jullie hier ongerust van worden en extra 32 gb? kopen of zo maar laten?
ik heb ook tig LXC's draaien op een NUCs met 32GB ..
totaal aantal GB aan memory aan machines toegewezen is 42GB, dus ik ga 10GB over mijn memory
Echter .. mijn totale gebruik op mijn machines is 18GB ..
waarvan door de windows machine er 10GB worden gebruikt van de 16 die hij kan gebruiken ..
Heb je bijv. voor je windows machine wel de verschillende tools in gebruik (QEMU toools (/ Guest tools?)
Hierdoor zou het kunnen dat de machine memory vrij geeft wat hij niet gebruikt (Ballooning?)
There are no secrets, only information you do not yet have
is natuurlijk een optie maar zoveel game ik ook niet, en de spellen die ik speel zijn volgens mij ook niet heel geheugenintensief.Airw0lf schreef op donderdag 24 oktober 2024 @ 08:56:
[...]
Heb je nog andere containers/VM's die een grafische kaart nodig hebben?
Als dat de enige is lijkt het me praktischer om een zuinig servertje te bouwen zonder grafische kaart. Of een CPU met iGPU. Met daarnaast "iets" om mee te gamen. Dit met het idee dat de gaming prestaties onder Proxmox toch al niet al te best gaan zijn vanwege alle andere VM's en containers die draaien.
Ja ook over die qemu staat in deze tutorial die ik heb gevolgd:zeroday schreef op donderdag 24 oktober 2024 @ 09:50:
[...]
Niet ongerust, maar ik zou wel eea even nakijken ..
ik heb ook tig LXC's draaien op een NUCs met 32GB ..
totaal aantal GB aan memory aan machines toegewezen is 42GB, dus ik ga 10GB over mijn memory
Echter .. mijn totale gebruik op mijn machines is 18GB ..
waarvan door de windows machine er 10GB worden gebruikt van de 16 die hij kan gebruiken ..
Heb je bijv. voor je windows machine wel de verschillende tools in gebruik (QEMU toools (/ Guest tools?)
Hierdoor zou het kunnen dat de machine memory vrij geeft wat hij niet gebruikt (Ballooning?)
https://forum.proxmox.com...aming-setup-guide.137718/
dat je die niet moet gebruiken vanwege anti cheat
ah .. ok .. ja ik speel geen games, maar dan snap ik nu wel dat je ongebruikte memory niet vrijgegeven wordttomdh76 schreef op donderdag 24 oktober 2024 @ 11:55:
[...]
Ja ook over die qemu staat in deze tutorial die ik heb gevolgd:
https://forum.proxmox.com...aming-setup-guide.137718/
dat je die niet moet gebruiken vanwege anti cheat
Dus zolang je er geen andere VM's bij zet is er weinig aan de hand
Dat is een van de redenen dat ik nu 4 NUC's heb draaien in een cluster zodat ik wat kan spelen met de
CPU's en memory.
There are no secrets, only information you do not yet have
Installing a new Proxmox on a Minisforum MS-01 and could use some advise. I need it to run a few things HA, Pihole etc, but it also will replace my NAS.
The system will be delivered with a 1Tb SSD, but I wonder if it would be better to get a smaller SDD for Promox and the virtual machines and keep the 1Tb to be used with Unraid.
Does that make sense?
@Mathijs Kok Volgens mij kun jij prima Nederlands, graag op GoT dan ook in het Nederlands je reacties plaatsen.
The system will be delivered with a 1Tb SSD, but I wonder if it would be better to get a smaller SDD for Promox and the virtual machines and keep the 1Tb to be used with Unraid.
Does that make sense?
@Mathijs Kok Volgens mij kun jij prima Nederlands, graag op GoT dan ook in het Nederlands je reacties plaatsen.
[ Voor 15% gewijzigd door _Dune_ op 01-11-2024 12:18 ]
@Mathijs Kok Je kan gewoon NL, toch? 
Waarom zou je een kleinere SSD voor VM's gebruiken? Sowieso geef je wel heel weinig informatie over je use case.
Kun je niet beter een eigen topic openen met een degelijke adviesvraag?
1Tb = 125GB. Ik neem aan dat je 1TB bedoelt.Mathijs Kok schreef op donderdag 24 oktober 2024 @ 14:11:
Een nieuwe Proxmox installeren op een Minisforum MS-01 en ik kan wat advies gebruiken. Ik wil er een paar dingen op draaien zoals Home Assistant, Pi-hole, enz., maar het zal ook mijn NAS vervangen.
Het systeem wordt geleverd met een 1Tb SSD, maar ik vraag me af of het beter zou zijn om een kleinere SSD te gebruiken voor Proxmox en de virtuele machines, en de 1Tb SSD te reserveren voor gebruik met Unraid.
Klinkt dat logisch?
Waarom zou je een kleinere SSD voor VM's gebruiken? Sowieso geef je wel heel weinig informatie over je use case.
Kun je niet beter een eigen topic openen met een degelijke adviesvraag?
"Technological advancements don't feel fun anymore because of the motivations behind so many of them." Bron
Ik wil even advies vragen voor ik mij vast bijt in dit topic. Ik heb een Synology DS214+ met twee schijven in Raid staan. Die zijn aardig vol aan het raken en ik heb al tijden niet meer kunnen updaten doordat er vanalles continue verandert. Mijn synology draait helaas geen docker.
De synology wordt gebruikt als mediaserver en draait Sonarr en Radarr.
Het idee was een Intel NUC5i3RYK (i3-5010U met 16gb RAM) te gebruiken als server voor proxomox. Hier wil ik dan dockers installeren met Radarr, Sonarr, NZBGet en misschien nog meer?
Ik ben ook aan het stoeien met home assistant dus die wil ik er ook op draaien
Het idee is dan om de mediafiles die door docker gedownload worden op de NUC op te slaan op de synoloy. Misschien is het beter dat NZBget op de synology draait en radarr continainer op de NUC via de synology gaat downloaden.
Is dit haalbaar voor een leek op deze NUC?
De synology wordt gebruikt als mediaserver en draait Sonarr en Radarr.
Het idee was een Intel NUC5i3RYK (i3-5010U met 16gb RAM) te gebruiken als server voor proxomox. Hier wil ik dan dockers installeren met Radarr, Sonarr, NZBGet en misschien nog meer?
Ik ben ook aan het stoeien met home assistant dus die wil ik er ook op draaien
Het idee is dan om de mediafiles die door docker gedownload worden op de NUC op te slaan op de synoloy. Misschien is het beter dat NZBget op de synology draait en radarr continainer op de NUC via de synology gaat downloaden.
Is dit haalbaar voor een leek op deze NUC?
Mwhoah ..Denneke,,! schreef op vrijdag 25 oktober 2024 @ 11:10:
Ik wil even advies vragen voor ik mij vast bijt in dit topic. Ik heb een Synology DS214+ met twee schijven in Raid staan. Die zijn aardig vol aan het raken en ik heb al tijden niet meer kunnen updaten doordat er vanalles continue verandert. Mijn synology draait helaas geen docker.
De synology wordt gebruikt als mediaserver en draait Sonarr en Radarr.
Het idee was een Intel NUC5i3RYK (i3-5010U met 16gb RAM) te gebruiken als server voor proxomox. Hier wil ik dan dockers installeren met Radarr, Sonarr, NZBGet en misschien nog meer?
Ik ben ook aan het stoeien met home assistant dus die wil ik er ook op draaien
Het idee is dan om de mediafiles die door docker gedownload worden op de NUC op te slaan op de synoloy. Misschien is het beter dat NZBget op de synology draait en radarr continainer op de NUC via de synology gaat downloaden.
Is dit haalbaar voor een leek op deze NUC?
het kan .. maar het houd niet over ..
ik heb een i3-7100U naast een i5 en 2x een i7 .. als NUC in een cluster
en dan heb ik ook nog een i5-8259U voor PBS .. (die ik me nu ik herinner in het cluster moet zetten
en dan die i3 als PBS backup moet gaan laten gebruiken .. )
Ik heb bijna niets op de i3 draaien omdat ik al merk dat het gewoonweg niet echt performed.
nu valt het wel mee wat je wil draaien, maar als je nzbget ook nog wil laten unparren en unrarren ..
dan kan het wel eens tegenvallen.
There are no secrets, only information you do not yet have
Zekers! je kan via NFS of ISCSI een datastore aanmaken op Proxmox en daar je spullen op stallen. Dit werkt opzich prima.Denneke,,! schreef op vrijdag 25 oktober 2024 @ 11:10:
Ik wil even advies vragen voor ik mij vast bijt in dit topic. Ik heb een Synology DS214+ met twee schijven in Raid staan. Die zijn aardig vol aan het raken en ik heb al tijden niet meer kunnen updaten doordat er vanalles continue verandert. Mijn synology draait helaas geen docker.
De synology wordt gebruikt als mediaserver en draait Sonarr en Radarr.
Het idee was een Intel NUC5i3RYK (i3-5010U met 16gb RAM) te gebruiken als server voor proxomox. Hier wil ik dan dockers installeren met Radarr, Sonarr, NZBGet en misschien nog meer?
Ik ben ook aan het stoeien met home assistant dus die wil ik er ook op draaien
Het idee is dan om de mediafiles die door docker gedownload worden op de NUC op te slaan op de synoloy. Misschien is het beter dat NZBget op de synology draait en radarr continainer op de NUC via de synology gaat downloaden.
Is dit haalbaar voor een leek op deze NUC?
Na mijn eerdere bericht heb ik op mijn test laptop Nextcloud geïnstalleerd. Ik vind het er echter niet zo heel mooi uit zien en daardoor twijfel ik ook aan de stabiliteit.
Daarbij zag ik dat de foto map ook bij alle bestanden staan.
Ik vind dat niet zo een veilig idee. Als je een keer niet oplet verwijder je zo de foto's.
Nu weet ik eigenlijk niet goed hoe ik verder moet gaan.
Zal ik de opslag van documenten en foto's niet toch maar op de Synology houden,
of foto's via photoprism doen bijvoorbeeld.
Ik heb ook naar TrueNas gekeken maar ik kon niet vinden of die ook synchroniseert.
Hebben jullie nog een alternatief waar ik naar kan kijken?
Daarbij zag ik dat de foto map ook bij alle bestanden staan.
Ik vind dat niet zo een veilig idee. Als je een keer niet oplet verwijder je zo de foto's.
Nu weet ik eigenlijk niet goed hoe ik verder moet gaan.
Zal ik de opslag van documenten en foto's niet toch maar op de Synology houden,
of foto's via photoprism doen bijvoorbeeld.
Ik heb ook naar TrueNas gekeken maar ik kon niet vinden of die ook synchroniseert.
Hebben jullie nog een alternatief waar ik naar kan kijken?
Proxmox inmiddels draaien en met behulp de scripts ging het installeren van Sonarr, Radarr en Sabnzbd super makelijk!Cyphax schreef op woensdag 23 oktober 2024 @ 16:18:
[...]
Dat kan makkelijk, vooral als je zoveel mogelijk in containers doet (met behulp van https://tteck.github.io/Proxmox/). Dan heb je misschien wel wat RAM over voor een VM, al zou het op dat vlak wel een aanrader zijn om je RAM te verdubbelen. Dat kan vast wel binnen je budget.
Heb proxmox en containers/apps geïnstalleerd op de SSD. Ik ben nu alleen aan het stoeien met de mappen, ik wil de media die ik download op een 1TB Hdd opslaan. Hoe krijg ik dit voor elkaar? Hoe koppel ik die aan de afzonderlijke programmas?
En ik zat te denken, is het misschien eenvoudiger om bijvoorbeeld Ubuntu VM te installeren en daaronder de eerder genoemde apps? In dst geval zit ik nog steeds met de vraag, hoe vind ik de mappen op die Hdd?
Geheugen uitbreiden ga ik ook doen, kost inderdaad niet veel.
@Jovink538 het idee bij gebruik van containers is dat je de applicatielaag verwijderd maar dat configuratie en data blijft staan.
Dus dat raak je dan niet kwijt.
@Ruudstertje je moet zorgen dat de containers voor de data naar dezelfde paden kijken op de host.
Bijv /mnt/nas/data/media:/data.
Binnen het linkerpad plaats je dan bijv de mappen tv, movies enz..
Maar dat is dan al meer inhoudelijk en niet meer gerelateerd aan Proxmox.
Dus dat raak je dan niet kwijt.
@Ruudstertje je moet zorgen dat de containers voor de data naar dezelfde paden kijken op de host.
Bijv /mnt/nas/data/media:/data.
Binnen het linkerpad plaats je dan bijv de mappen tv, movies enz..
Maar dat is dan al meer inhoudelijk en niet meer gerelateerd aan Proxmox.
Alles went behalve een Twent.
⏩ PVOutput☀️
Ligt er een beetje aan hoe zwaar je het allemaal gaat gebruiken. Maar je moet hier wel een heel eind mee komen.Ruudstertje schreef op woensdag 23 oktober 2024 @ 14:36:
Hallo,
Ik heb een oude game pc die ik wil ombouwen naar server voor het draaien van Proxmox.
Via proxmox wil ik software draaien als Pi-Hole, sabnzbd, Sonarr, Radarr, Emby en Nextcloud. Als het qua hardware mogelijk is wil ik ook ubuntu desktop als VM instaleren.
Heb nu een qnap NAS die als mediaserver vol begint te raken vandaar dat het idee om de oude pc wil ombouwen tot proxmox/Media server, zodat ik de NAS kan houden voor foto's en documenten.
Hardware heb ik het minste verstand van vandaar mijn vraag of ik met onderstaande hardware wat kan. Ik heb op een kleine investering (~150) na er nu eerst verder geen geld voor over.
De hardware:
Moederbord: MSI B450 Tomahawk MAX
Processor: AMD Ryzen 5 3600
Geheugen: Corsair Vengeance LPX 2x 8 GB
Videokaart: Gegevens niet bij de hand op dit moment
Alvast bedankt!
Edit 1:
Heb home assistant op een HP t620 draaien, deze wil ik zo mogelijk ook verplaatsen naar de nieuwe proxmox server
Je kunt een directory van de host mounten in een lxc-container via een bind mount. Die kun je via de web interface toevoegen. Het kan even klooien zijn op het gebied van permissies maar zolang je het niet te ingewikkeld maakt allemaal gaat dat wel goed.Ruudstertje schreef op zaterdag 26 oktober 2024 @ 10:39:
[...]
Proxmox inmiddels draaien en met behulp de scripts ging het installeren van Sonarr, Radarr en Sabnzbd super makelijk!
Heb proxmox en containers/apps geïnstalleerd op de SSD. Ik ben nu alleen aan het stoeien met de mappen, ik wil de media die ik download op een 1TB Hdd opslaan. Hoe krijg ik dit voor elkaar? Hoe koppel ik die aan de afzonderlijke programmas?
En ik zat te denken, is het misschien eenvoudiger om bijvoorbeeld Ubuntu VM te installeren en daaronder de eerder genoemde apps? In dst geval zit ik nog steeds met de vraag, hoe vind ik de mappen op die Hdd?
Geheugen uitbreiden ga ik ook doen, kost inderdaad niet veel.
Ik heb mijn storage-drives gewoon op de host gemount onder /mnt/fileserver ergens, en daar staat alles in. De Nextcloud-container heeft een bind mount naar /mnt/fileserver/nextcloud, de Jellyfin-container krijgt media-directories via enkele mounts, en proxmox backup server (wel een aanrader) schrijft backups ook naar een plek binnen /mnt/fileserver zodat ik alleen die lokatie eigenlijk maar hoef te backuppen naar de nas in de meterkast om het belangrijkste wel geborgd te hebben.
Saved by the buoyancy of citrus
Ik heb mijn proxmox server gecloned van een 1TB M2 disk naar 2TB M2 disk. Het is alweer een tijd geleden en ik ben er helemaal uit. Als ik in dit topic of op google ga zoeken naar Proxmox en Resize disk dan komt ik er niet uit. Kan iemand mij op weg helpen of mij uitleggen in welke situatie ik mij bevind?
/f/image/Rgi7t38OPCDqhvVdf8sNDQ2n.png?f=fotoalbum_large)
/f/image/0RGJzHBrPc2teKjUYSsJWpCh.png?f=fotoalbum_large)
/f/image/jlptWXNsGFutkblt5QQ4E3wO.png?f=fotoalbum_large)
/f/image/Rgi7t38OPCDqhvVdf8sNDQ2n.png?f=fotoalbum_large)
/f/image/0RGJzHBrPc2teKjUYSsJWpCh.png?f=fotoalbum_large)
/f/image/jlptWXNsGFutkblt5QQ4E3wO.png?f=fotoalbum_large)
/f/image/s5HXh8c1MCGLlXHgPJYy1506.png?f=fotoalbum_large)
WP: WH-MDC05J3E5,WH-MDC07J3E5, WPB: Atlantic Explore v4, PV: Solaredge (6,8kW) en SMA (4,3kW), 2 x Heishamon OT v3.1, Rpi v5, Rpi v4, 2 x Rpi v3, ESP32, Domoticz, EV: Nissan Leaf, ESS: Deye, Luyuan, 32kWh
@Aziona apt install parted
parted /dev/nvme0n1
resizepart 3
100%
quit
Daarna met pvresize en vgresize aan de slag om LVM te vergroten.
parted /dev/nvme0n1
resizepart 3
100%
quit
Daarna met pvresize en vgresize aan de slag om LVM te vergroten.
Heb even zitten zoeken maar kon het niet direct vinden.
Hoe kan ik in PVE modules zoals stats en logging in- en uitschakelen?
Hoe kan ik in PVE modules zoals stats en logging in- en uitschakelen?
Wie du mir, so ich dir.
Ik heb dit aangepakt door een LXC te maken waarop ik Cockpit draai. Die beheert dan alle shares, en krijgt hogere prioriteit dan de andere VMs en LXCs dus die start altijd ervoor op, en sluit pas erna af bij reboots.tomdh76 schreef op dinsdag 1 oktober 2024 @ 22:40:
Weet iemand hoe ik een NFS mount kan laten starten als proxmox start?
Bij een reboot moet ik nu elke keer mount -a in de shell typen. Het zijn mounts die naar een synology share verwijzen en die staat altijd aan.
Maar ik denk dat het probleem is dat het proxmox ip in een ander subnet zit dan de synology shares. En mijn OPNsense VM staat ook op proxmox dus die kan nog niet routeren als hij nog niet opgestart is ?
Ik ga binnenkort mijn Proxmox server (homelab) herinstalleren, systeem draait op een enkele NVMe SSD. (Er zit helaas maar één m.2 slot op het moederbord.)
De SSD wordt vervangen met een Intel Optane 905P van 1.5TB, dus vandaar de reinstall. Ook zijn er nog twee HDD's van 4TB, bedoeld voor netwerk opslag. Wil deze met een NAS VM gaan ontsluiten (zie punt 3 voor onderbouwing)
Ik heb nog een aantal vragen en overwegingen die ik even voor wil leggen, voor ik aan dit project begin:
1. Opslaan ISO en templates op NAS VM, of disk parititonering bij installatie wijzigen?
Bij het installeren kon ik de laatste keer niet het formaat van locale Proxmox partitie wijzigen. Deze kreeg de standaard grootte van 100gb. Dit is wat weinig voor Proxmox zelf + alle ISO files en templates.
Is dit tijdens de installatie nog aan te passen, met een verborgen instelling in de installer? Anders zal ik achteraf met gparted o.i.d. aan de slag moeten om dit te wijzigen.
Wat wellicht ook nog een optie is, is om de ISO files en templates op te slaan op de NAS VM, scheelt weer kostbare NVMe schijfruimte.
Alleen werkt het wel lekker als de NAS VM pas achter start? (Die ISO's e.d. zijn niet nodig bij het booten van Proxmox, dus zou functioneel gezien geen probleem moeten zijn.)
2. Deduplicatie in Proxmox, voor de VM's op de NVMe SSD
Ik had vroeger Windows Server met Hyper-v en deduplicatie draaien. Dat werkte ideaal, deduplicatie vond op de achtergrond achteraf plaats en had geen impact.
Aangezien ik meerdere VM's heb met hetzelfde OS, is deduplicatie natuurlijk een mooie oplossing voor een hypervisor. Hoe kan ik dit op Proxmox het beste implementeren?
Ik las het e.a. over ZFS en deduplicatie. Heb in mijn vorige Proxmox installatie bewust niet voor ZFS gekozen i.v.m. mogelijke performance impact en omdat dit de boel onnodig ingewikkeld maakt. Ook nu ik mij hier opnieuw in verdiep, lees ik veel negatieve berichten over het gebruik van ZFS deduplicatie.
Echter ik heb 128GB RAM, en momenteel <32GB in gebruik. Ook is de CPU load en write load momenteel laag.
3. NAS VM
Momenteel lijkt mij de beste oplossing om hiervoor een Windows Server VM te gebruiken met storage pools, hierin kan ik de NVMe SSD als write cache gebruiken (die dan in Proxmox wel nog op ZFS draait) en passthrough van de SATA controller voor de twee HDD's. De HDD's gaan in de storage space en worden ingesteld met mirroring. Daarbij kan ik ook hier de deduplicatie van Windows gebruiken.
Reden voor deze opzet is dat ik de schijven later nog kan wisselen, terwijl dit bij TrueNAS of een ander ZFS gebaseerd systeem minder flexibel is, omdat dit in identieke paren moet gebeuren. Open Vault heb ik ook overwogen, maar daar zit geen deduplicatie in.
Als hier betere oplossingen voor zijn, dan hoor ik dat graag
De SSD wordt vervangen met een Intel Optane 905P van 1.5TB, dus vandaar de reinstall. Ook zijn er nog twee HDD's van 4TB, bedoeld voor netwerk opslag. Wil deze met een NAS VM gaan ontsluiten (zie punt 3 voor onderbouwing)
Ik heb nog een aantal vragen en overwegingen die ik even voor wil leggen, voor ik aan dit project begin:
1. Opslaan ISO en templates op NAS VM, of disk parititonering bij installatie wijzigen?
Bij het installeren kon ik de laatste keer niet het formaat van locale Proxmox partitie wijzigen. Deze kreeg de standaard grootte van 100gb. Dit is wat weinig voor Proxmox zelf + alle ISO files en templates.
Is dit tijdens de installatie nog aan te passen, met een verborgen instelling in de installer? Anders zal ik achteraf met gparted o.i.d. aan de slag moeten om dit te wijzigen.
Wat wellicht ook nog een optie is, is om de ISO files en templates op te slaan op de NAS VM, scheelt weer kostbare NVMe schijfruimte.
Alleen werkt het wel lekker als de NAS VM pas achter start? (Die ISO's e.d. zijn niet nodig bij het booten van Proxmox, dus zou functioneel gezien geen probleem moeten zijn.)
2. Deduplicatie in Proxmox, voor de VM's op de NVMe SSD
Ik had vroeger Windows Server met Hyper-v en deduplicatie draaien. Dat werkte ideaal, deduplicatie vond op de achtergrond achteraf plaats en had geen impact.
Aangezien ik meerdere VM's heb met hetzelfde OS, is deduplicatie natuurlijk een mooie oplossing voor een hypervisor. Hoe kan ik dit op Proxmox het beste implementeren?
Ik las het e.a. over ZFS en deduplicatie. Heb in mijn vorige Proxmox installatie bewust niet voor ZFS gekozen i.v.m. mogelijke performance impact en omdat dit de boel onnodig ingewikkeld maakt. Ook nu ik mij hier opnieuw in verdiep, lees ik veel negatieve berichten over het gebruik van ZFS deduplicatie.
Echter ik heb 128GB RAM, en momenteel <32GB in gebruik. Ook is de CPU load en write load momenteel laag.
3. NAS VM
Momenteel lijkt mij de beste oplossing om hiervoor een Windows Server VM te gebruiken met storage pools, hierin kan ik de NVMe SSD als write cache gebruiken (die dan in Proxmox wel nog op ZFS draait) en passthrough van de SATA controller voor de twee HDD's. De HDD's gaan in de storage space en worden ingesteld met mirroring. Daarbij kan ik ook hier de deduplicatie van Windows gebruiken.
Reden voor deze opzet is dat ik de schijven later nog kan wisselen, terwijl dit bij TrueNAS of een ander ZFS gebaseerd systeem minder flexibel is, omdat dit in identieke paren moet gebeuren. Open Vault heb ik ook overwogen, maar daar zit geen deduplicatie in.
Als hier betere oplossingen voor zijn, dan hoor ik dat graag
AMD Ryzen 7 9800X3D | Corsair H150i Elite LCD | GIGABYTE X670E AORUS XTREME | G.Skill Trident Z F5-7800J3646H16GX2-TZ5RK | Inno3D GeForce RTX 4090 iCHILL X3 | Corsair HX1000i | Crucial T700 4TB | Intel Optane 905P 1.5TB | MP600 NH 8TB | Corsair iCUE 5000T
Iemand expert in proxmox backups? Snap de logica niet helemaal. Ik gebruik het backup systeem wat standaard aanwezig is bij Proxmox.
Heb oa 2 Windows OS'en draaien. PRTG en NVR. Alleen persoonlijk vind ik daar iets raars mee met het backup stukje.
PRTG disk: 120 GB wat totaal 42,1 GB gebruikt
NVR disk: 120 GB wat totaal 32,1 GB gebruikt. (zit ook nog een data disk maar die word meegenomen in de back zie log). Verdere instellingen RAM, CPU 1 op 1 gelijk.
Kortom de verwachting is PRTG in backup groter zijn dan de NVR. Namelijk meer gebruikt is grotere backup. Alleen ik zit met een raadsel, bij mij is het andersom. Kwa backup tijd zit het wel dicht bij elkaar. 45 min per machine. Alleen de gebruikte opslag ligt nogal uit elkaar, je zou verwachten dar NVR kleinere backup is.
PRTG backup log
NVR backup
Wat dan opvalt is dit
PRTG
NVR
Iemand een idee dat rare verschil vandaan komt?
Heb oa 2 Windows OS'en draaien. PRTG en NVR. Alleen persoonlijk vind ik daar iets raars mee met het backup stukje.
PRTG disk: 120 GB wat totaal 42,1 GB gebruikt
NVR disk: 120 GB wat totaal 32,1 GB gebruikt. (zit ook nog een data disk maar die word meegenomen in de back zie log). Verdere instellingen RAM, CPU 1 op 1 gelijk.
Kortom de verwachting is PRTG in backup groter zijn dan de NVR. Namelijk meer gebruikt is grotere backup. Alleen ik zit met een raadsel, bij mij is het andersom. Kwa backup tijd zit het wel dicht bij elkaar. 45 min per machine. Alleen de gebruikte opslag ligt nogal uit elkaar, je zou verwachten dar NVR kleinere backup is.
code:
1
2
3
| VMID Name Status Time Size 100 prtg-1027 ok 45min 59s 27.283 GiB 102 nvr-1028 ok 45min 47s 41.244 GiB |
PRTG backup log
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
| 100: 2024-11-04 06:00:02 INFO: Starting Backup of VM 100 (qemu) 100: 2024-11-04 06:00:02 INFO: status = running 100: 2024-11-04 06:00:02 INFO: VM Name: prtg-1027 100: 2024-11-04 06:00:02 INFO: include disk 'virtio0' 'local-lvm:vm-100-disk-2' 128G 100: 2024-11-04 06:00:02 INFO: include disk 'efidisk0' 'local-lvm:vm-100-disk-0' 4M 100: 2024-11-04 06:00:02 INFO: include disk 'tpmstate0' 'local-lvm:vm-100-disk-1' 4M 100: 2024-11-04 06:00:02 INFO: backup mode: snapshot 100: 2024-11-04 06:00:02 INFO: bandwidth limit: 49152 KiB/s 100: 2024-11-04 06:00:02 INFO: ionice priority: 7 100: 2024-11-04 06:00:02 INFO: skip unused drive 'local-lvm:vm-100-disk-3' (not included into backup) 100: 2024-11-04 06:00:02 INFO: creating vzdump archive '/mnt/pve/rs422p-proxmox/dump/vzdump-qemu-100-2024_11_04-06_00_02.vma.zst' 100: 2024-11-04 06:00:02 INFO: attaching TPM drive to QEMU for backup 100: 2024-11-04 06:00:02 INFO: issuing guest-agent 'fs-freeze' command 100: 2024-11-04 06:00:06 INFO: issuing guest-agent 'fs-thaw' command 100: 2024-11-04 06:00:06 INFO: started backup task 'e1941721-057b-4670-913e-f2f79520df8c' 100: 2024-11-04 06:00:06 INFO: resuming VM again 100: 2024-11-04 06:00:09 INFO: 0% (145.4 MiB of 128.0 GiB) in 3s, read: 48.5 MiB/s, write: 31.8 MiB/s 100: 2024-11-04 06:00:34 INFO: 1% (1.3 GiB of 128.0 GiB) in 28s, read: 47.8 MiB/s, write: 46.8 MiB/s .... 100: 2024-11-04 06:45:25 INFO: 99% (126.7 GiB of 128.0 GiB) in 45m 19s, read: 47.8 MiB/s, write: 0 B/s 100: 2024-11-04 06:45:52 INFO: 100% (128.0 GiB of 128.0 GiB) in 45m 46s, read: 47.9 MiB/s, write: 27.6 MiB/s 100: 2024-11-04 06:45:52 INFO: backup is sparse: 75.29 GiB (58%) total zero data 100: 2024-11-04 06:45:52 INFO: transferred 128.00 GiB in 2746 seconds (47.7 MiB/s) 100: 2024-11-04 06:46:00 INFO: archive file size: 27.28GB 100: 2024-11-04 06:46:00 INFO: adding notes to backup 100: 2024-11-04 06:46:00 INFO: prune older backups with retention: keep-last=2 100: 2024-11-04 06:46:00 INFO: removing backup 'rs422p-proxmox:backup/vzdump-qemu-100-2024_10_21-06_00_00.vma.zst' 100: 2024-11-04 06:46:01 INFO: pruned 1 backup(s) not covered by keep-retention policy 100: 2024-11-04 06:46:01 INFO: Finished Backup of VM 100 (00:45:59) |
NVR backup
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
| 102: 2024-11-04 06:53:26 INFO: Starting Backup of VM 102 (qemu) 102: 2024-11-04 06:53:26 INFO: status = running 102: 2024-11-04 06:53:26 INFO: VM Name: nvr-1028 102: 2024-11-04 06:53:26 INFO: include disk 'virtio0' 'local-lvm:vm-102-disk-2' 128G 102: 2024-11-04 06:53:26 INFO: exclude disk 'virtio1' 'storage-hdd-int-1:vm-102-disk-0' (backup=no) 102: 2024-11-04 06:53:26 INFO: include disk 'efidisk0' 'local-lvm:vm-102-disk-0' 4M 102: 2024-11-04 06:53:26 INFO: include disk 'tpmstate0' 'local-lvm:vm-102-disk-1' 4M 102: 2024-11-04 06:53:26 INFO: backup mode: snapshot 102: 2024-11-04 06:53:26 INFO: bandwidth limit: 49152 KiB/s 102: 2024-11-04 06:53:26 INFO: ionice priority: 7 102: 2024-11-04 06:53:26 INFO: creating vzdump archive '/mnt/pve/rs422p-proxmox/dump/vzdump-qemu-102-2024_11_04-06_53_26.vma.zst' 102: 2024-11-04 06:53:26 INFO: attaching TPM drive to QEMU for backup 102: 2024-11-04 06:53:26 INFO: issuing guest-agent 'fs-freeze' command 102: 2024-11-04 06:53:28 INFO: issuing guest-agent 'fs-thaw' command 102: 2024-11-04 06:53:28 INFO: started backup task '203d2721-cb1c-4733-872d-4f953ea2e52b' 102: 2024-11-04 06:53:28 INFO: resuming VM again 102: 2024-11-04 06:53:31 INFO: 0% (145.9 MiB of 128.0 GiB) in 3s, read: 48.6 MiB/s, write: 32.6 MiB/s 102: 2024-11-04 06:53:56 INFO: 1% (1.3 GiB of 128.0 GiB) in 28s, read: 48.0 MiB/s, write: 47.4 MiB/s ... 102: 2024-11-04 07:38:41 INFO: 99% (126.8 GiB of 128.0 GiB) in 45m 13s, read: 47.9 MiB/s, write: 0 B/s 102: 2024-11-04 07:39:08 INFO: 100% (128.0 GiB of 128.0 GiB) in 45m 40s, read: 47.0 MiB/s, write: 27.6 MiB/s 102: 2024-11-04 07:39:08 INFO: backup is sparse: 67.92 GiB (53%) total zero data 102: 2024-11-04 07:39:08 INFO: transferred 128.00 GiB in 2740 seconds (47.8 MiB/s) 102: 2024-11-04 07:39:12 INFO: archive file size: 41.24GB 102: 2024-11-04 07:39:12 INFO: adding notes to backup 102: 2024-11-04 07:39:12 INFO: prune older backups with retention: keep-last=2 102: 2024-11-04 07:39:12 INFO: removing backup 'rs422p-proxmox:backup/vzdump-qemu-102-2024_10_21-06_31_30.vma.zst' 102: 2024-11-04 07:39:13 INFO: pruned 1 backup(s) not covered by keep-retention policy 102: 2024-11-04 07:39:13 INFO: Finished Backup of VM 102 (00:45:47) |
Wat dan opvalt is dit
PRTG
code:
1
2
3
| 100: 2024-11-04 06:45:52 INFO: backup is sparse: 75.29 GiB (58%) total zero data 100: 2024-11-04 06:45:52 INFO: transferred 128.00 GiB in 2746 seconds (47.7 MiB/s) 100: 2024-11-04 06:46:00 INFO: archive file size: 27.28GB |
NVR
code:
1
2
3
| 102: 2024-11-04 07:39:08 INFO: backup is sparse: 67.92 GiB (53%) total zero data 102: 2024-11-04 07:39:08 INFO: transferred 128.00 GiB in 2740 seconds (47.8 MiB/s) 102: 2024-11-04 07:39:12 INFO: archive file size: 41.24GB |
Iemand een idee dat rare verschil vandaan komt?
Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe
Hoi,
ik probeer Frigate in Proxmox te installeren, middels een docker Container. Ik doe dit conform instructies middels de volgende Stack:
Ik krijg dan echter dit als error:
Ik snap er niet zoveel van, maar dit lijkt me gek, want er gebeurt niks met een serieel apparaat, toch?
ik probeer Frigate in Proxmox te installeren, middels een docker Container. Ik doe dit conform instructies middels de volgende Stack:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
| services: frigate: container_name: frigate privileged: true restart: unless-stopped image: ghcr.io/blakeblackshear/frigate:stable cap_add: - CAP_PERFMON shm_size: "128mb" devices: - /dev/bus/usb:/dev/bus/usb - /dev/dri/renderD128:/dev/dri/renderD128 # for intel hwaccel, needs to be updated for your hardware. See video on how to find this volumes: - /etc/localtime:/etc/localtime:ro - /opt/frigate/config/config.yml:/config/config.yml:rw # This is where config.yml is stored to hold camera info, etc. # This is where our images are stored. In our case it is the mapped NFS folder. Change to a local directory if you are not mapping to a NAS # If you are storing to a local directory, you need to insure that you have enough space on your drive to store all the files you need so that # you do not run out of disk space - /data:/media/frigate ports: - "5000:5000" - "1935:1935" # RTMP feeds environment: FRIGATE_RTSP_PASSWORD: "PASSWORD" |
Ik krijg dan echter dit als error:
code:
1
| Failed to deploy a stack: Network frigate_default Creating Network frigate_default Created Container frigate Creating Container frigate Created Container frigate Starting Error response from daemon: readdirent /dev/serial/by-id: no such file or directory |
Ik snap er niet zoveel van, maar dit lijkt me gek, want er gebeurt niks met een serieel apparaat, toch?
Docker in een LXC?--Christiaan-- schreef op dinsdag 5 november 2024 @ 09:57:
Hoi,
ik probeer Frigate in Proxmox te installeren, middels een docker Container. Ik doe dit conform instructies middels de volgende Stack:
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 services: frigate: container_name: frigate privileged: true restart: unless-stopped image: ghcr.io/blakeblackshear/frigate:stable cap_add: - CAP_PERFMON shm_size: "128mb" devices: - /dev/bus/usb:/dev/bus/usb - /dev/dri/renderD128:/dev/dri/renderD128 # for intel hwaccel, needs to be updated for your hardware. See video on how to find this volumes: - /etc/localtime:/etc/localtime:ro - /opt/frigate/config/config.yml:/config/config.yml:rw # This is where config.yml is stored to hold camera info, etc. # This is where our images are stored. In our case it is the mapped NFS folder. Change to a local directory if you are not mapping to a NAS # If you are storing to a local directory, you need to insure that you have enough space on your drive to store all the files you need so that # you do not run out of disk space - /data:/media/frigate ports: - "5000:5000" - "1935:1935" # RTMP feeds environment: FRIGATE_RTSP_PASSWORD: "PASSWORD"
Ik krijg dan echter dit als error:code:
1 Failed to deploy a stack: Network frigate_default Creating Network frigate_default Created Container frigate Creating Container frigate Created Container frigate Starting Error response from daemon: readdirent /dev/serial/by-id: no such file or directory
Ik snap er niet zoveel van, maar dit lijkt me gek, want er gebeurt niks met een serieel apparaat, toch?
Je moet:
/usr/lib/udev/rules.d/60-serial.rules aanpassen met de volgende code:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
| # do not edit this file, it will be overwritten on update ACTION=="remove", GOTO="serial_end" SUBSYSTEM!="tty", GOTO="serial_end" SUBSYSTEMS=="pci", ENV{ID_BUS}="pci", ENV{ID_VENDOR_ID}="$attr{vendor}", ENV{ID_MODEL_ID}="$attr{device}" # We already ran the hwdb builtin for devices with MODALIAS in 50-default.rules. # Let's cover the remaining case here, where we walk up the tree to find a node with $MODALIAS. ENV{MODALIAS}=="", SUBSYSTEMS=="pci", IMPORT{builtin}="hwdb --subsystem=pci" # /dev/serial/by-path/, /dev/serial/by-id/ for USB devices KERNEL!="ttyUSB[0-9]*|ttyACM[0-9]*", GOTO="serial_end" SUBSYSTEMS=="usb-serial", ENV{.ID_PORT}="$attr{port_number}" IMPORT{builtin}="path_id" ENV{ID_PATH}=="?*", ENV{.ID_PORT}=="", SYMLINK+="serial/by-path/$env{ID_PATH}" ENV{ID_PATH}=="?*", ENV{.ID_PORT}=="?*", SYMLINK+="serial/by-path/$env{ID_PATH}-port$env{.ID_PORT}" IMPORT{builtin}="usb_id" SUBSYSTEMS=="usb", ENV{ID_BUS}="usb" ENV{ID_USB_INTERFACE_NUM}=="", GOTO="serial_end" ENV{.ID_PORT}=="", SYMLINK+="serial/by-id/$env{ID_BUS}-$env{ID_USB_SERIAL}-if$env{ID_USB_INTERFACE_NUM}" ENV{.ID_PORT}=="?*", SYMLINK+="serial/by-id/$env{ID_BUS}-$env{ID_USB_SERIAL}-if$env{ID_USB_INTERFACE_NUM}-port$env{.ID_PORT}" LABEL="serial_end" |
vervolgens doe je:
code:
1
| sudo udevadm control --reload-rules && sudo udevadm trigger |
of als dat niet werkt start je je docker container opnieuw op.
Maar, bij mij werkt dit vaak maar 1x. Als ik daarna weer opnieuw opstart is het probleem terug. Heb het opgegeven en draai nu Frigate in een lxc.
Dankjewel, ik ga dit straks proberen.lasharor schreef op dinsdag 5 november 2024 @ 10:17:
[...]
Docker in een LXC?
Je moet:
/usr/lib/udev/rules.d/60-serial.rules aanpassen met de volgende code:
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 # do not edit this file, it will be overwritten on update ACTION=="remove", GOTO="serial_end" SUBSYSTEM!="tty", GOTO="serial_end" SUBSYSTEMS=="pci", ENV{ID_BUS}="pci", ENV{ID_VENDOR_ID}="$attr{vendor}", ENV{ID_MODEL_ID}="$attr{device}" # We already ran the hwdb builtin for devices with MODALIAS in 50-default.rules. # Let's cover the remaining case here, where we walk up the tree to find a node with $MODALIAS. ENV{MODALIAS}=="", SUBSYSTEMS=="pci", IMPORT{builtin}="hwdb --subsystem=pci" # /dev/serial/by-path/, /dev/serial/by-id/ for USB devices KERNEL!="ttyUSB[0-9]*|ttyACM[0-9]*", GOTO="serial_end" SUBSYSTEMS=="usb-serial", ENV{.ID_PORT}="$attr{port_number}" IMPORT{builtin}="path_id" ENV{ID_PATH}=="?*", ENV{.ID_PORT}=="", SYMLINK+="serial/by-path/$env{ID_PATH}" ENV{ID_PATH}=="?*", ENV{.ID_PORT}=="?*", SYMLINK+="serial/by-path/$env{ID_PATH}-port$env{.ID_PORT}" IMPORT{builtin}="usb_id" SUBSYSTEMS=="usb", ENV{ID_BUS}="usb" ENV{ID_USB_INTERFACE_NUM}=="", GOTO="serial_end" ENV{.ID_PORT}=="", SYMLINK+="serial/by-id/$env{ID_BUS}-$env{ID_USB_SERIAL}-if$env{ID_USB_INTERFACE_NUM}" ENV{.ID_PORT}=="?*", SYMLINK+="serial/by-id/$env{ID_BUS}-$env{ID_USB_SERIAL}-if$env{ID_USB_INTERFACE_NUM}-port$env{.ID_PORT}" LABEL="serial_end"
vervolgens doe je:
code:
1 sudo udevadm control --reload-rules && sudo udevadm trigger
of als dat niet werkt start je je docker container opnieuw op.
Maar, bij mij werkt dit vaak maar 1x. Als ik daarna weer opnieuw opstart is het probleem terug. Heb het opgegeven en draai nu Frigate in een lxc.
De tutorials die ik online vond draaiden Frigate allemaal via Docker in een LXC, dus vandaar dat ik het op die manier heb gedaan. Heb jij een goede uitleg ergens voor hoe je Frigate in een LXC kan draaien en de Coral + externe HDD kan doorlinken? Dan ga ik dat anders proberen.
Volgens mij werkt deze gewoon met Coral: https://community-scripts...roxmox/scripts?id=Frigate--Christiaan-- schreef op dinsdag 5 november 2024 @ 10:37:
[...]
Dankjewel, ik ga dit straks proberen.
De tutorials die ik online vond draaiden Frigate allemaal via Docker in een LXC, dus vandaar dat ik het op die manier heb gedaan. Heb jij een goede uitleg ergens voor hoe je Frigate in een LXC kan draaien en de Coral + externe HDD kan doorlinken? Dan ga ik dat anders proberen.
Ik zou een externe hdd mounten in Proxmox en dan vervolgens mount points gebruiken:
pct set nummervanjelxc -mp0 /host/dir,mp=/container/mount/point
mp0 loopt op. Dus je moet bij je volgende mount point mp1 gebruiken.
Ik zag gisteren deze tool voorbij komen op Reddit. En, is wel heel handig: https://github.com/gitsang/lxc-iptag/tree/main
Automatische tagging van LXC's waarbij je dan in de tag het ip adres van de LXC krijgt.
Automatische tagging van LXC's waarbij je dan in de tag het ip adres van de LXC krijgt.
Belangrijke 'typefout' gemaakttistjendop schreef op maandag 4 november 2024 @ 10:13:
PRTG data die beter comprimeert dan video beelden?

NVR disk: 120 GB wat totaal 32,1 GB gebruikt. (zit ook nog een data disk maar die word niet meegenomen in de back zie log). Verdere instellingen RAM, CPU 1 op 1 gelijk.
Zie ook in de log
code:
1
2
| 102: 2024-11-04 06:53:26 INFO: include disk 'virtio0' 'local-lvm:vm-102-disk-2' 128G 102: 2024-11-04 06:53:26 INFO: exclude disk 'virtio1' 'storage-hdd-int-1:vm-102-disk-0' (backup=no) |
C schijf (OS en het programma) = virtio0
D schijf (de beelden) = virtio1
Niet echt verwacht maar je opmerking kan dan wel is kloppen.
In het OS is de D schijf gekoppeld en heeft dat blijkbaar invloed (ondanks dat D niet word gebackupt) op de virtio0 backup.
Zoals je zegt minder comprimeert mee komt ondanks de beelden niet op de virtio0 staat is het logisch te verklaren.
Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe
@RobbyTown
Een PRTG-database is goed te comprimeren doordat het in essentie een tekstbestand is met veel dezelfde soort informatie.
Een videobestand is geen tekstbestand. Bovendien varieert de "soort" informatie al naar gelang het uur van de dag en de dag in de week. Waardoor het minder goed te comprimeren is.
Een PRTG-database is goed te comprimeren doordat het in essentie een tekstbestand is met veel dezelfde soort informatie.
Een videobestand is geen tekstbestand. Bovendien varieert de "soort" informatie al naar gelang het uur van de dag en de dag in de week. Waardoor het minder goed te comprimeren is.
[ Voor 22% gewijzigd door Airw0lf op 18-11-2024 08:58 ]
makes it run like clockwork
Ik heb hem even los bekeken en ik zie dat ipcalc nodig is wat hier niet standaard aan stondlasharor schreef op zondag 17 november 2024 @ 21:29:
Ik zag gisteren deze tool voorbij komen op Reddit. En, is wel heel handig: https://github.com/gitsang/lxc-iptag/tree/main
Automatische tagging van LXC's waarbij je dan in de tag het ip adres van de LXC krijgt.
Machine moet natuurlijk aan staan want anders kan ie het IP niet vinden ..
Maar inderdaad wel handig en zou eigenlijk default in Proxmox moeten zitten
There are no secrets, only information you do not yet have
Naar aanleiding van Quad in "Systeembeheerders en hun problemen - deel 39" ook even hier:
De in-place upgrades van Windows server 2022 naar Windows server 2025 mislukten telkens met een driver fout.
Ik kreeg constant een error na reboot: 0xC1900101 - 0x20017. Zou iets met drivers te maken moeten hebben, en op Proxmoxfora vooral gerelateerd aan iSCSI driver en zullen disks op SATA moeten enz. Wat al wel het geval is op mijn thuislab.
Kale Server 2025 werkt prima.. En na uren logging doorspitten geen fix. Tot ik de VM vergeleek van de nieuwe Server 2025 en de bestaande Server 2022 machines, viel mij op dat CPU op KVM64 stond ipv x86-64-v2-AES. Omzetten, upgrade starten en 15 minuten later kon ik inloggen op een bijgewerkte VM met 2025..
Enfin, voor wie hier wellicht wat aan heeft.
De in-place upgrades van Windows server 2022 naar Windows server 2025 mislukten telkens met een driver fout.
Ik kreeg constant een error na reboot: 0xC1900101 - 0x20017. Zou iets met drivers te maken moeten hebben, en op Proxmoxfora vooral gerelateerd aan iSCSI driver en zullen disks op SATA moeten enz. Wat al wel het geval is op mijn thuislab.
Kale Server 2025 werkt prima.. En na uren logging doorspitten geen fix. Tot ik de VM vergeleek van de nieuwe Server 2025 en de bestaande Server 2022 machines, viel mij op dat CPU op KVM64 stond ipv x86-64-v2-AES. Omzetten, upgrade starten en 15 minuten later kon ik inloggen op een bijgewerkte VM met 2025..
Enfin, voor wie hier wellicht wat aan heeft.
Alles went behalve een Twent.
⏩ PVOutput☀️
Proxmox VE 8.3 released!
Binnenkort maar eens de upgrade doen, notifications via een webhook vind ik zelf wel de leukste feature waar ik wel mee aan de slag wil
- Support for Ceph Reef and Ceph Squid
- Tighter integration of the SDN stack with the firewall
- New webhook notification target
- New view type "Tag View" for the resource tree
- New change detection modes for speeding up container backups to Proxmox Backup Server
- More streamlined guest import from files in OVF and OVA
Ik heb mijn hosts al bijgewerkt, gaat vliegensvlug.dcm360 schreef op donderdag 21 november 2024 @ 14:47:
Proxmox VE 8.3 released!
[...]
Binnenkort maar eens de upgrade doen, notifications via een webhook vind ik zelf wel de leukste feature waar ik wel mee aan de slag wil
Webhooks wil ik inderdaad testen, deze gaan naar mijn Home Assistant maar ik mis data oid hierin. Er lijkt niets meegegeven te worden helaas. Dus wellicht is er nog wat aan configuratie vereist aan kant van Proxmox, helaas is daar qua documentatie nog niets over te vinden.
Alles went behalve een Twent.
⏩ PVOutput☀️
@Quad ik heb even gespiekt na de upgrade vandaag, en het ziet er naar uit dat zonder verdere instellingen het bericht inderdaad gewoon leeg is. Maar, de Help-knop linksonderin het venster om de webhook toe te voegen toont wel de documentatie, en geeft wat voorbeelden.
gebruik je voor P1 monitoring, ""P1-monitor van ZTATZ"", of een andere P1 monitor die werkt met home-assistant?The-Source schreef op maandag 29 april 2024 @ 09:33:
*1 domotica server heeft diverse USB dongles voor Z-wave, Zigbee en P1 monitoring, deze kunnen fysiek wel op een raspberry pi 5 aangesloten worden. Maar dan moet ik nog even wat knutselen voor TCP conversie. (is een andere uitdaging)
Wat wil ik gaan bereiken/ wat ik in gedachte heb:
1 grote storage pool waarbij ik denk aan RAID 6 of ZFS (beide hebben de voor en nadelen)
Raid 6 : voordeel 2 disks kunnen kapot gaan zonder data loss, nadelen?
ZFS: voordeel veel additionele voordelen zoals o.a. duplicaat detectie, maar hoe robuust tegen disk failure?
ECC RAM is aanbevolen == duurder
Wat mij dus heel erg duidelijk is, of Proxmox nu mijn data storage "beheert" op disk niveau / filesystem?
Dus zou het volgende mogelijke zijn waarbij ik in ProxMox bepaal of ik RAID 6 of ZFS ga draaien?
ProxMox
-<dynamische hoeveelheid TB, bepaald door PM>-- Truenas / FreeNAS / anders NAS georiënteerd OS
-<50GB>-- Windows VM
-<1GB>-- Pi-Hole container
--- etc etc
Hardware wordt waarschijnlijk AMD 8700G, 32 of 64GB ECC RAM (bij ZFS), mobo welke ook ECC doet, op dit moment 4 disk maar toekomst plek voor 15
Ben zelf aan het kijken hoe ik dit onder Proxmox draaiend kan krijgen [container of VM]
om zo een Raspberry PI te elimineren in mijn meterkast.
p1 usb kun je toch gewoon rechtstreeks doorgeven aan de lxc en dan daar via ser2net beschikbaar stellen voor ha/domoticz/...darknessblade schreef op vrijdag 22 november 2024 @ 18:17:
[...]
gebruik je voor P1 monitoring, ""P1-monitor van ZTATZ"", of een andere P1 monitor die werkt met home-assistant?
Ben zelf aan het kijken hoe ik dit onder Proxmox draaiend kan krijgen [container of VM]
om zo een Raspberry PI te elimineren in mijn meterkast.
Maar moet de Proxmox server dan in de buurt staan van de meterkast?commentator schreef op vrijdag 22 november 2024 @ 18:20:
[...]
p1 usb kun je toch gewoon rechtstreeks doorgeven aan de lxc en dan daar via ser2net beschikbaar stellen voor ha/domoticz/...
Immers - er loopt een usb touwtje naar de server.
En een p1 touwtje naar de poort van de meter.
Ik heb een wifi variant ingezet zodat ik niet afhankelijk ben van dat usb touwtje.
https://www.zuidwijk.com/product/slimmelezer-plus/
Werkt prima i.c.m. hass.
makes it run like clockwork
ja dan moet de proxmox server in de meterkast staan. Andere optie is een pi in de meterkast met daarop alleen kale linux versie en daarop ser2netAirw0lf schreef op vrijdag 22 november 2024 @ 19:00:
[...]
Maar moet de Proxmox server dan in de buurt staan van de meterkast?
Immers - er loopt een usb touwtje naar de server.
En een p1 touwtje naar de poort van de meter.
Ik heb een wifi variant ingezet zodat ik niet afhankelijk ben van dat usb touwtje.
https://www.zuidwijk.com/product/slimmelezer-plus/
Werkt prima i.c.m. hass.
Eeeh wat Airw0lf beschrijft is een P1 meter die de gegevens op het netwerk kan publiceren. Proxmox mag in dat geval overal staan. Je kunt die gegevens direct in HA ontvangen met bv de DSM Smart Meter integratie.commentator schreef op vrijdag 22 november 2024 @ 19:01:
[...]
ja dan moet de proxmox server in de meterkast staan. Andere optie is een pi in de meterkast met daarop alleen kale linux versie en daarop ser2net
Ik heb ook Home Assistant, vraag me af wat de use case is voor de web hooks?Quad schreef op donderdag 21 november 2024 @ 21:47:
[...]
Ik heb mijn hosts al bijgewerkt, gaat vliegensvlug.
Webhooks wil ik inderdaad testen, deze gaan naar mijn Home Assistant maar ik mis data oid hierin. Er lijkt niets meegegeven te worden helaas. Dus wellicht is er nog wat aan configuratie vereist aan kant van Proxmox, helaas is daar qua documentatie nog niets over te vinden.
Heb ser2net voor de p1 usb stick. Voor gebruik van conbee stick heb ik de deconz software op de pi draaien en voor z-wave stick z-wave js .darknessblade schreef op vrijdag 22 november 2024 @ 18:17:
[...]
gebruik je voor P1 monitoring, ""P1-monitor van ZTATZ"", of een andere P1 monitor die werkt met home-assistant?
Ben zelf aan het kijken hoe ik dit onder Proxmox draaiend kan krijgen [container of VM]
om zo een Raspberry PI te elimineren in mijn meterkast.
Mijn proxmox server staat in de schuur en dat is niet centraal genoeg voor de zigbee en z-wave sticks
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Wordt offtopic maar een zigbee hub kun je ook overal in het netwerk plaatsen. Van daaruit een mesh opbouwen van zigbee devices. De Silvercrest Zigbee Hub staat nu te pepperen. Ik weet dat de oude versie daarvan te upgraden was (Paul Banks) zodat het een algemene Zigbee router werd. Draait hier al jaren met ondersteuning van alle zigbee devices via HA en z2m.The-Source schreef op vrijdag 22 november 2024 @ 19:59:
[...]
Heb ser2net voor de p1 usb stick. Voor gebruik van conbee stick heb ik de deconz software op de pi draaien en voor z-wave stick z-wave js .
Mijn proxmox server staat in de schuur en dat is niet centraal genoeg voor de zigbee en z-wave sticks
Ik start en stop via Home assistant mijn Proxmox backupserver op de Synology. Als ik dmv webhooks in HA de backup resultaat kan ontvangen dan kan dat de automation triggeren om de VM af te sluiten. Of beter, voorkomen dat de vm wordt afgesloten zolang er geen webhook is binnengekomen.tomdh76 schreef op vrijdag 22 november 2024 @ 19:54:
[...]
Ik heb ook Home Assistant, vraag me af wat de use case is voor de web hooks?
Alles went behalve een Twent.
⏩ PVOutput☀️
Ik heb mijn proxmox mini-PC {BMAX B4 PLUS} in de meterkast staan, dus dat is geen probleem.commentator schreef op vrijdag 22 november 2024 @ 19:01:
[...]
ja dan moet de proxmox server in de meterkast staan. Andere optie is een pi in de meterkast met daarop alleen kale linux versie en daarop ser2net
Het enigste wat ik moet uitzoeken is hoe ik P1 monitor in proxmox kan draaien.
Ik heb proxmox namelijk pas sinds een week of zo draaiend met adguard in een container, en een paar andere kleine dingen.
Het liefste zou ik P1-monitor direct in een container draaien dan via een docker container.
dsmr smart meter integratie ziet die ser2net of usbdarknessblade schreef op vrijdag 22 november 2024 @ 21:12:
[...]
Ik heb mijn proxmox mini-PC {BMAX B4 PLUS} in de meterkast staan, dus dat is geen probleem.
Het enigste wat ik moet uitzoeken is hoe ik P1 monitor in proxmox kan draaien.
Ik heb proxmox namelijk pas sinds een week of zo draaiend met adguard in een container, en een paar andere kleine dingen.
Het liefste zou ik P1-monitor direct in een container draaien dan via een docker container.
Ik heb een vm met dsmr reader draaien, ik denk dat ik een standaard debian heb geïnstalleerd en vervolgens deze heb gevolgd (of een voorloper). Draait hier al een paar jaar zonder al te veel problemen. De dsmr reader is daarna gekoppeld met ha.darknessblade schreef op vrijdag 22 november 2024 @ 21:12:
[...]
Ik heb mijn proxmox mini-PC {BMAX B4 PLUS} in de meterkast staan, dus dat is geen probleem.
Het enigste wat ik moet uitzoeken is hoe ik P1 monitor in proxmox kan draaien.
Ik heb proxmox namelijk pas sinds een week of zo draaiend met adguard in een container, en een paar andere kleine dingen.
Het liefste zou ik P1-monitor direct in een container draaien dan via een docker container.
Geïnstalleerd en het doet inderdaad wat het belooft.lasharor schreef op zondag 17 november 2024 @ 21:29:
Ik zag gisteren deze tool voorbij komen op Reddit. En, is wel heel handig: https://github.com/gitsang/lxc-iptag/tree/main
Automatische tagging van LXC's waarbij je dan in de tag het ip adres van de LXC krijgt.
Desalniettemin toch maar weer uitgeschakeld. Het bleek de idle CPU van mijn Proxmox met zo'n 8 LXC's van 3% naar continue 6% te brengen. Dat is mij toch te gortig.
Wat updates gedraaid maar mijn plex/arr lxc had opeens te weinig opslag en leek opslag op te eten.
Dus een backup terug gezet maar daarmee kan ik opeens mijn sambashare niet meer mounten.
Dat bracht mij wel aan het denken of wat ik nu aan het doen ben handig is.
Mijn huidige setup is als volgt:
Maar zou het niet verstandiger te zijn om alles in losse containers te draaien dus:
En hoe kan ik zien waarom de mount niet meer lukt?
Middels mount -a werkt het ook niet meer
Dus een backup terug gezet maar daarmee kan ik opeens mijn sambashare niet meer mounten.
Dat bracht mij wel aan het denken of wat ik nu aan het doen ben handig is.
Mijn huidige setup is als volgt:
- lxc 1 Adguard (ubuntu lts);
- lxc 2 Plex/Jellyfin / arr suite met qbittorrent (ubunti lts met een fstab mount naar de sambashare);
- VM 1 Home assistant;
- VM 2 OMV met photoprism (voor het maken van de sambashare);
- Dit draait op een HP T630 met 16gb geheugen en een externe HDD als netwerkschijf.
Maar zou het niet verstandiger te zijn om alles in losse containers te draaien dus:
- lxc 1 Adguard (debian);
- lxc 2 Plex/Jellyfin (debian);
- lxc 3 ARR/Qbittorent (debian);
- lxc 4 Sambashare (debian, kan nu niet in een lxc want dan blijven de disks spinnen dat zou via sata wel moeten lukken);
- VM1 Homeassistant;
- lxc 1 Adguard (debian);
- VM 1 Homeassistant;
- VM 2 OMV of Truenas of ... Met daarin middels containers de apps Plex/Jellyfin/ARR/Qbittorent/etc;
En hoe kan ik zien waarom de mount niet meer lukt?
Middels mount -a werkt het ook niet meer
ik zie ik zie wat jij niet ziet
Ik heb een Proxmox cluster momenteel draaien. De enige redenen hiervoor is eigenlijk om 1 beheer interface te hebben. Ik heb voor mijn meeste VM's eigenlijk geen noodzaak om de Virtuele machines (of LCX containers) in een HA omgeving te draaien.
Mijn cluster is nu een TopTon (N300/32GB) machine met mijn OPNSense Firewall en een aantal LXC instances.
Mijn 2de machine is een Proxmox machine met TrueNAS momenteel, waarbij ik PCI passthrough heb toegepast. Deze machine staat ook meestal uit, omdat ik deze niet continue nodig heb.
Ik heb het Cluster aangepast dat de quorum_votes voor mijn TopTon 3 is. Hierdoor zal deze altijd blijven draaien, ondanks de status van andere nodes.
Nu heb ik een nieuwe machine, N100 waarop ik Plex wil gaan draaien. Deze wil ik eigenlijk ook met Proxmox gaan installeren en toevoegen aan het Cluster.
Echter dit maakt het een stuk complexer, icm het aantal votes dat er kunnen zijn.
Het is mogelijk dat het cluster machines gaat uitschakelen omdat er geen majority is. Wat voor mij helemaal niet van belang is.
Ik wil eigenlijk virtuele machines uitsluiten, die door het cluster uitgezet kunnen/gaan worden. Weet iemand of dit mogelijk is?
Ik zit namelijk ongeveer met hetzelfde issue, bij iemand anders. Ik wil eventueel wel een cluster draaien, maar niet alle machines hoeven door het cluster beheerd te worden.
Of heeft iemand een ander mogelijkheid of idee, om dit goed te beheren of in te regelen?
Mijn cluster is nu een TopTon (N300/32GB) machine met mijn OPNSense Firewall en een aantal LXC instances.
Mijn 2de machine is een Proxmox machine met TrueNAS momenteel, waarbij ik PCI passthrough heb toegepast. Deze machine staat ook meestal uit, omdat ik deze niet continue nodig heb.
Ik heb het Cluster aangepast dat de quorum_votes voor mijn TopTon 3 is. Hierdoor zal deze altijd blijven draaien, ondanks de status van andere nodes.
Nu heb ik een nieuwe machine, N100 waarop ik Plex wil gaan draaien. Deze wil ik eigenlijk ook met Proxmox gaan installeren en toevoegen aan het Cluster.
Echter dit maakt het een stuk complexer, icm het aantal votes dat er kunnen zijn.
Het is mogelijk dat het cluster machines gaat uitschakelen omdat er geen majority is. Wat voor mij helemaal niet van belang is.
Ik wil eigenlijk virtuele machines uitsluiten, die door het cluster uitgezet kunnen/gaan worden. Weet iemand of dit mogelijk is?
Ik zit namelijk ongeveer met hetzelfde issue, bij iemand anders. Ik wil eventueel wel een cluster draaien, maar niet alle machines hoeven door het cluster beheerd te worden.
Of heeft iemand een ander mogelijkheid of idee, om dit goed te beheren of in te regelen?
Mocht de lxc ook een https interface hebben dan zou je ook 2 vliegen in 1 klep kunnen vangen door bijvoorbeeld een nginx proxy manager lxc te draaien ( die als boot order 1 zettenjoppybt schreef op zaterdag 23 november 2024 @ 16:30:
[...]
Geïnstalleerd en het doet inderdaad wat het belooft.
Desalniettemin toch maar weer uitgeschakeld. Het bleek de idle CPU van mijn Proxmox met zo'n 8 LXC's van 3% naar continue 6% te brengen. Dat is mij toch te gortig.
Vervolgens daarmee al je vm's onder hostname bereikbaar maken eventueel ook onder container/ vm nummer. Geen gedoe meer met ip's onthouden
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
IP's onthouden hoeft niet wanneer je je container's DNS gebruikt. Althans, zo werkt het bij Docker en Podman (OCI); ik neem aan ook bij LXC.The-Source schreef op zondag 24 november 2024 @ 20:54:
[...]
Mocht de lxc ook een https interface hebben dan zou je ook 2 vliegen in 1 klep kunnen vangen door bijvoorbeeld een nginx proxy manager lxc te draaien ( die als boot order 1 zetten)
Vervolgens daarmee al je vm's onder hostname bereikbaar maken eventueel ook onder container/ vm nummer. Geen gedoe meer met ip's onthoudenen geen https errors meer
"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.
Dit wilde ik ook graag, alleen wilde ik voorkomen dat de hele wereld er dan ook bij kan. Hoe zorg jij er voor dat je wel de voordelen hebt van officiële tls-certificaten maar dat je sommige diensten toch enkel lokaal wil? Ik heb in nginx al eens gespeeld met de allowlist, maar dat krijg ik maar niet aan de praat.The-Source schreef op zondag 24 november 2024 @ 20:54:
[...]
Mocht de lxc ook een https interface hebben dan zou je ook 2 vliegen in 1 klep kunnen vangen door bijvoorbeeld een nginx proxy manager lxc te draaien ( die als boot order 1 zetten)
Vervolgens daarmee al je vm's onder hostname bereikbaar maken eventueel ook onder container/ vm nummer. Geen gedoe meer met ip's onthoudenen geen https errors meer
Denk om uw spatiegebruik. Dit scheelt Tweakers.net kostbare databaseruimte! | Groninger en geïnteresseerd in Domotica? Kom naar DomoticaGrunn
Klinkt als standaard DNS-functies - zelfs als er DHCP in het spel is?The-Source schreef op zondag 24 november 2024 @ 20:54:
[...]
Mocht de lxc ook een https interface hebben dan zou je ook 2 vliegen in 1 klep kunnen vangen door bijvoorbeeld een nginx proxy manager lxc te draaien ( die als boot order 1 zetten)
Vervolgens daarmee al je vm's onder hostname bereikbaar maken eventueel ook onder container/ vm nummer. Geen gedoe meer met ip's onthoudenen geen https errors meer
Mijn 0,500 Euro:
Die proxy is alleen nodig als de standaard http/https poortnummers vervangen zijn door iets anders.
Al dan niet i.c.m. "officiele" certificaten en via internet toegankelijk maken zonder veel port-forwarding dingetjes. Maar weet dat je voor die combinatie een betaald domein nodig hebt.
En een Cloudflare account met zijn WAF-functies en zijn automagically updates van certificaten is dan ook wel erg handig - al was het maar om te voorkomen dat de hele wereld toegang heeft.

[ Voor 14% gewijzigd door Airw0lf op 25-11-2024 07:30 ]
makes it run like clockwork
Ik heb een betaald domein ( of dat echt nodig is weet ik niet zeker) dns server van domein naam naar Cloudflare gewezen.MsG schreef op maandag 25 november 2024 @ 07:03:
[...]
Dit wilde ik ook graag, alleen wilde ik voorkomen dat de hele wereld er dan ook bij kan. Hoe zorg jij er voor dat je wel de voordelen hebt van officiële tls-certificaten maar dat je sommige diensten toch enkel lokaal wil? Ik heb in nginx al eens gespeeld met de allowlist, maar dat krijg ik maar niet aan de praat.
Nginx acme ingesteld via Cloudflare om let's encrypt wildcard certificate aan te maken en te verlengen.
Om fqdn niet openbaar kenbaar te maken draai ik lokaal ook pihole en daar maak ik dus de entries kenbaar die naar ngnix gestuurd moeten worden.
Je kan per vm/lxc/container dit let's encrypt process ook afzonderlijk instellen maar zelf vind ik mijn huidige setup nog de gebruiksvriendelijkste optie. Maar er zijn vast ook andere methodes
Cloudflare is alleen maar nodig voor de dns-01 challenge die let's encrypt vereist voor wildcard certificate zonder open zetten van poorten
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Zo heb ik het nu ook ongeveer, maar dan voorkom je toch niet dat de rest van de wereld ook bij je lxc containers kan?
[ Voor 5% gewijzigd door MsG op 25-11-2024 08:01 ]
Denk om uw spatiegebruik. Dit scheelt Tweakers.net kostbare databaseruimte! | Groninger en geïnteresseerd in Domotica? Kom naar DomoticaGrunn
Zo lang jij geen poorten open zet zal dat niet kunnen lijkt mij.MsG schreef op maandag 25 november 2024 @ 08:01:
Zo heb ik het nu ook ongeveer, maar dan voorkom je toch niet dat de rest van de wereld ook bij je lxc containers kan?
Voeg voor containers die je via Nginx DNS benader een access list in Nginx toe. Zo heb ik voor enkele containers aan een access list gekoppeld die alle IP's niet toestaat behalve mijn interne netwerk.
Als je dat niet doet en je zet je hostile op je lokale client in op je WAN IP 'xxx.xxx.xxx.xxx sub.domein.nl', kom je bij je container. Omdat DNS via header forward Wordt meegegeven en Nginx dat accepteert.
Als je dat niet doet en je zet je hostile op je lokale client in op je WAN IP 'xxx.xxx.xxx.xxx sub.domein.nl', kom je bij je container. Omdat DNS via header forward Wordt meegegeven en Nginx dat accepteert.
Alles went behalve een Twent.
⏩ PVOutput☀️
Nergens ter wereld is fqdn bekend die ik gebruik aangezien dat alleen lokaal DNS is ( en werkt ook met vpn naar huis)MsG schreef op maandag 25 november 2024 @ 08:01:
Zo heb ik het nu ook ongeveer, maar dan voorkom je toch niet dat de rest van de wereld ook bij je lxc containers kan?
Als ik ze via Cloudflare bekend had gemaakt dan hadden ze geresolved kunnen worden maar bijvoorbeeld een lokaal ip maar ook dat gebeurd dus niet.
Voorbeeld met fqdn nu.nl
Nu.nl is globaal bij iedereen dns bekend, met verwijzing naar de dns server die de entries beheerd.
Stel dat is Cloudflare dan zijn alleen de entries die daar bestaan publiek geresolved kunnen worden ( resolve is niet benaderbaar)
Vervolgens wordt een poging gedaan om het ip vanuit de resolve te benaderen. Als dat ip 192.168.1.1 zou zijn en jouw lokale netwerk zit ook in hetzelfde subnet dan zal het lokaal benaderd gaan worden. Iemand anders ter wereld gaat om dat lokale ip benaderen maar zal dus nooit bij jouw wan ip uitkomen.
Maar bij publieke dns records expose je al meer informatie van je netwerk wat je niet moet willen. Daarom dus lokale dns om alles niet te exposen.
Maar deze software setup gaat natuurlijk buiten de proxmox software waar dit topic over gaat. Zelf wil ik op een later moment nog onderzoek doen naar SDN niet vanwege huidige setup met certificaten en dns. Maar om data transfer tussen verschillende vm's op dezelfde node intern te houden. Weet niet of mijn gedachte kan maar 10Gb netwerk is ook nog steeds snel
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Je hoeft de verschillende hosts binnen je domein niet in cloudflare te zetten.MsG schreef op maandag 25 november 2024 @ 08:01:
Zo heb ik het nu ook ongeveer, maar dan voorkom je toch niet dat de rest van de wereld ook bij je lxc containers kan?
Ik had voorheen altijd een scriptje waarbij in de DNS challenge handmatig in mijn DNS zette zodat ik de wildcard certificaat kon gebruiken. Helaas kon dat dan niet geautomatiseerd.
Bij cloudflare kon/kan ik op API niveau binnen proxmox de hosts definieren zodat proxmox via de API automatisch een certificaat gebruikt./hernieuwd.
Omdat ik het lokaal gebruik maakt het mij niet uit dat de volgorde van de host niet klopt. Maar het zorgt ervoordat ik niet meer hoef om te kijken naar het verversen van het certificaat.
Wil ik een host bereikbaar hebben dan gebruik ik nginx proxy manager en ook die heb ik dan met de API van cloudflare uitgerust ..
Bij de eerste optie heb ik wel een cert maar is de lxc/server/vm etc. niet bereikbaar vanaf het internet want daar heb ik de domeinen niet in gezet, wel in mijn Pihole zodat ik intern alles kan doen wat je normaliter ook kan
Beetje rommelig maar in het kort:
Domeinen intern bereikbaar: gebruik PiHole met bijv. de API van cloudflare binnen proxmox en je hebt certs
Domeinen extern bereikbaar: gebruik PiHole/Cloudfare en/of nginx proxy manager zodat op 1 sub domein je dingen kan benaderen
There are no secrets, only information you do not yet have
Ik zit ff met het volgend issue qua mounts.
Ik heb een mount gemaakt op de host en via de gui gemount naar twee unpriviliged lxc containers. De mount is initeel leeg en is zichtbaar op de twee containers. Nu maak ik wat bestanden aan op container 2 en vervolgens is de data niet zichtbaar op de host en ook niet op container een. Ik heb al even gezocht om mounts, maar weet niet welke privilege instetellingen misgaan. Op welke manier zorg ik ervoor dat beide containers de data kunnen inzien en aanpassen van elkaar?
Ik heb een mount gemaakt op de host en via de gui gemount naar twee unpriviliged lxc containers. De mount is initeel leeg en is zichtbaar op de twee containers. Nu maak ik wat bestanden aan op container 2 en vervolgens is de data niet zichtbaar op de host en ook niet op container een. Ik heb al even gezocht om mounts, maar weet niet welke privilege instetellingen misgaan. Op welke manier zorg ik ervoor dat beide containers de data kunnen inzien en aanpassen van elkaar?
Mijn Proxmox zit achter OPNsense (die op Proxmox draait). Ik forward de port gewoonweg niet, ik firewall deze. Komt de connectie van het Wireguard subnet, dan doe ik een DNAT. Enige dat nodig is: Wireguard moet gebruikt worden. Hierdoor geen TLS issues, ook niet voor mijn vrouw. En tja, als Wireguard te ingewikkeld is zou je ook Tailscale kunnen gebruiken.
[ Voor 12% gewijzigd door Jerie op 25-11-2024 14:33 ]
"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.
Als 1e ik ben geen linux guru en val eerder in newbie segment_Uploader_ schreef op maandag 25 november 2024 @ 14:24:
Ik zit ff met het volgend issue qua mounts.
Ik heb een mount gemaakt op de host en via de gui gemount naar twee unpriviliged lxc containers. De mount is initeel leeg en is zichtbaar op de twee containers. Nu maak ik wat bestanden aan op container 2 en vervolgens is de data niet zichtbaar op de host en ook niet op container een. Ik heb al even gezocht om mounts, maar weet niet welke privilege instetellingen misgaan. Op welke manier zorg ik ervoor dat beide containers de data kunnen inzien en aanpassen van elkaar?
Maar ik heb het voor mij zelf "opgelost" door een samba share te mounten. Met NFS bleef ik maar rechten issues houden. (maar dat komt grotendeels door mijn gebruik aan linux kennis vermoed ik
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Hmm, dat is ook misschien een oplossing voor mij. Ik ben aan het klooien met een oude laptop met proxmox erop en wil de arr stack installeren en configureren.The-Source schreef op maandag 25 november 2024 @ 14:53:
[...]
Als 1e ik ben geen linux guru en val eerder in newbie segment
Maar ik heb het voor mij zelf "opgelost" door een samba share te mounten. Met NFS bleef ik maar rechten issues houden. (maar dat komt grotendeels door mijn gebruik aan linux kennis vermoed ik)
Hierover is al veel gedocumenteerd, alleen krijg ik de shares niet aan de praat (Sabnzb schijft wel bestanden op de share, maar Sonarr kan deze niet inzien). Misschien kan ik de componenten ook in 1 container onderbrengen, ben ik er ook vanaf (tenminste dat denk ik
[ Voor 4% gewijzigd door _Uploader_ op 25-11-2024 16:55 ]
Klinkt alsof de mount points niet goed staan._Uploader_ schreef op maandag 25 november 2024 @ 16:54:
[...]
Hmm, dat is ook misschien een oplossing voor mij. Ik ben aan het klooien met een oude laptop met proxmox erop en wil de arr stack installeren en configureren.
Hierover is al veel gedocumenteerd, alleen krijg ik de shares niet aan de praat (Sabnzb schijft wel bestanden op de share, maar Sonarr kan deze niet inzien). Misschien kan ik de componenten ook in 1 container onderbrengen, ben ik er ook vanaf (tenminste dat denk ik).
$ sudo docker exec -it sonarr bash
$ mount
en dan even kijken of de boel te lezen valt door Sonarr, anders even naar de dir (bijv /data) en dan met ls kijken of je de dirs kunt lezen. Eventueel ls -l of een cat.
"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.
Alles in 1 container onderbrengen zou je wel kunnen doen, maar is dat niet onhandig met updates?_Uploader_ schreef op maandag 25 november 2024 @ 16:54:
[...]
Hmm, dat is ook misschien een oplossing voor mij. Ik ben aan het klooien met een oude laptop met proxmox erop en wil de arr stack installeren en configureren.
Hierover is al veel gedocumenteerd, alleen krijg ik de shares niet aan de praat (Sabnzb schijft wel bestanden op de share, maar Sonarr kan deze niet inzien). Misschien kan ik de componenten ook in 1 container onderbrengen, ben ik er ook vanaf (tenminste dat denk ik).
Hoe ziet je configuratie mbt die mounts er nu uit?
Saved by the buoyancy of citrus
Laat sabnzb nou precies de reden zijn waarvoor ik het nodig had_Uploader_ schreef op maandag 25 november 2024 @ 16:54:
[...]
Hmm, dat is ook misschien een oplossing voor mij. Ik ben aan het klooien met een oude laptop met proxmox erop en wil de arr stack installeren en configureren.
Hierover is al veel gedocumenteerd, alleen krijg ik de shares niet aan de praat (Sabnzb schijft wel bestanden op de share, maar Sonarr kan deze niet inzien). Misschien kan ik de componenten ook in 1 container onderbrengen, ben ik er ook vanaf (tenminste dat denk ik).
Gebruik OMV als samba server ( in die vm ook weer photoprism draaiend)
1 specifieke share waar sabnzb in mijn wegschrijven.
Let wel op je boot order van vm/lxc dat je samba server online is voordat je sabnzb start. Dit is allemaal te configureren in proxmox.
Als sab is gestart en samba is nog niet gereed dan is de makkelijkste route om dit weer werkend te krijgen en reboot van je sabnzb vm/lxc
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Dank voor de hulp, dit is een linux container en geen docker container. Dus de commando's die je gaf werken helaas niet.Jerie schreef op maandag 25 november 2024 @ 17:02:
[...]
Klinkt alsof de mount points niet goed staan.
$ sudo docker exec -it sonarr bash
$ mount
en dan even kijken of de boel te lezen valt door Sonarr, anders even naar de dir (bijv /data) en dan met ls kijken of je de dirs kunt lezen. Eventueel ls -l of een cat.
Ik heb het nu zo opgebouwd:Cyphax schreef op maandag 25 november 2024 @ 17:22:
[...]
Alles in 1 container onderbrengen zou je wel kunnen doen, maar is dat niet onhandig met updates?
Hoe ziet je configuratie mbt die mounts er nu uit?
"/mnt/store/series" gemount, sabnzb zet de series klaar in de dir "complete", Sonarr ziet de series dir wel, maar niet de complete dir. Net even Radarr geinstalleerd en "/mnt/store/movies" en "/mnt/store/movies/complete" gemount en dit gaat wel goed. Ik zal morgen de Sonarr container weggooien en bekijken of dit wel gaat met een nieuwe install.
eenvoudigste om een lxc samba op te zetten en vandaar uit de mount te regelen met de juiste rechten van gebruiker/groep_Uploader_ schreef op maandag 25 november 2024 @ 14:24:
Ik zit ff met het volgend issue qua mounts.
Ik heb een mount gemaakt op de host en via de gui gemount naar twee unpriviliged lxc containers. De mount is initeel leeg en is zichtbaar op de twee containers. Nu maak ik wat bestanden aan op container 2 en vervolgens is de data niet zichtbaar op de host en ook niet op container een. Ik heb al even gezocht om mounts, maar weet niet welke privilege instetellingen misgaan. Op welke manier zorg ik ervoor dat beide containers de data kunnen inzien en aanpassen van elkaar?
nee, wel als ie het niet zelf op zou lossenThinkPad schreef op dinsdag 26 november 2024 @ 10:05:
Ik lees mijn Proxmox uit over SNMP via PRTG. Eens in de zoveel tijd krijg ik waarschuwingen dat de 'free swap space' volloopt.
[Afbeelding]
Ik doe hier zelf eigenlijk nooit wat mee, het issue lost zichzelf op. Moet ik hier wat mee?
ik zie allemaal moeilijke oplossing in mijn ogen.
NFS mounts regelen op host nivo en dit mounten in je LXC of VM's, heb het nog nooit zo makkelijk gehad.
Heb ook helemaal niets qua rechten hoeven te doen, dus sja ... ik zie het probleem niet echt.
NFS mounts regelen op host nivo en dit mounten in je LXC of VM's, heb het nog nooit zo makkelijk gehad.
Heb ook helemaal niets qua rechten hoeven te doen, dus sja ... ik zie het probleem niet echt.
*arr gebruikt sqlite en dat wil je niet over NFS gebruiken vanwege locking issues.Theetjuh schreef op dinsdag 26 november 2024 @ 19:15:
ik zie allemaal moeilijke oplossing in mijn ogen.
NFS mounts regelen op host nivo en dit mounten in je LXC of VM's, heb het nog nooit zo makkelijk gehad.
Heb ook helemaal niets qua rechten hoeven te doen, dus sja ... ik zie het probleem niet echt.
"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.
Dat draait toch niet over die nfs, maar in je lxc?Jerie schreef op woensdag 27 november 2024 @ 00:12:
[...]
*arr gebruikt sqlite en dat wil je niet over NFS gebruiken vanwege locking issues.
Software in de lxc, data op een share.
Jerie doelt waarschijnlijk op deze (https://www.sqlite.org/faq.html#q5) advisory mbt NFS lock.Beekforel schreef op woensdag 27 november 2024 @ 07:34:
[...]
Dat draait toch niet over die nfs, maar in je lxc?
Software in de lxc, data op een share.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Ja dat snap ik, maar dat probeer ik ook te zeggen. Je moet die database niet op een NFS share setten. De container via Proxmox op NFS zou wellicht nog wel kunnen, maar idealiter zou ik die container op lokale storage van de Proxmox host draaien.Pantagruel schreef op woensdag 27 november 2024 @ 10:58:
[...]
Jerie doelt waarschijnlijk op deze (https://www.sqlite.org/faq.html#q5) advisory mbt NFS lock.
Ik wou ff een schone install doen en nu komt ik met hem mogelijkheid de gui in terwijl dit eerder natuurlijk wel mogelijk was. Ik heb het uitgelegd in https://forum.proxmox.com...g-after-reinstall.158117/ , hebben jullie een idee wat er aan de hand kan zijn?
Klinkt als cache issue. Kom je wel op IP:8006 in incognito mode?
Alles went behalve een Twent.
⏩ PVOutput☀️
Ach, ik ben een prutserQuad schreef op woensdag 27 november 2024 @ 15:01:
Klinkt als cache issue. Kom je wel op IP:8006 in incognito mode?

Blijkt dat het wel werkt op mijn telefoon en dat Tailscale op mijn laptop het ff verstoorde. Oftewel het werkt weer.
Werkt prima in de LXC welke weer op een NFS datastore staat, ook precies zoals anderen aangeveven.Jerie schreef op woensdag 27 november 2024 @ 00:12:
[...]
*arr gebruikt sqlite en dat wil je niet over NFS gebruiken vanwege locking issues.
Hallo luitjes,
Nu ben ik recentelijk overgestapt op Proxmox.
Heb hierop Home assistant draaien en nog wat andere containers, maar vooral mediaserver gerelateerd.
Nu ben ik ff een weekendje weg en nu is de proxmox niet te bereiken. Het gekke is dat Home Assistant niet te benadren is maar deze de lampen thuis wel gewoon aan heeft gezet, dit zie ik op de cameras van de beveiliging. De lampen zijn aan gegaan nadat ik er achter kwam dat proxmox niet te benaderen was.
Internet thuis is dus gewoon up and running, NAS en cameras zijn gewoon te benaderen.
Kan ik op afstand iets doen om een reboot te forceren? Denk het niet maar wie weet heeft iemand hier een idee.
Nu ben ik recentelijk overgestapt op Proxmox.
Heb hierop Home assistant draaien en nog wat andere containers, maar vooral mediaserver gerelateerd.
Nu ben ik ff een weekendje weg en nu is de proxmox niet te bereiken. Het gekke is dat Home Assistant niet te benadren is maar deze de lampen thuis wel gewoon aan heeft gezet, dit zie ik op de cameras van de beveiliging. De lampen zijn aan gegaan nadat ik er achter kwam dat proxmox niet te benaderen was.
Internet thuis is dus gewoon up and running, NAS en cameras zijn gewoon te benaderen.
Kan ik op afstand iets doen om een reboot te forceren? Denk het niet maar wie weet heeft iemand hier een idee.
Niet via webGUI neem ik aan ?Ruudstertje schreef op vrijdag 29 november 2024 @ 18:14:
Nu ben ik ff een weekendje weg en nu is de proxmox niet te bereiken.
Hoe zit het met SSH ?!
En als je die via SSH probeert te benaderen ?Het gekke is dat Home Assistant niet te benadren is maar deze de lampen thuis wel gewoon aan heeft gezet, dit zie ik op de cameras van de beveiliging.
Op dit soort moment is het fijn om iets van IPMI/iDRAC/iLO te hebben dus misschien iets om over na te denken voor je volgende buildKan ik op afstand iets doen om een reboot te forceren?
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Ik dacht dat IPMI standaard op een server zat.nero355 schreef op vrijdag 29 november 2024 @ 18:22:
[...]
Niet via webGUI neem ik aan ?
Hoe zit het met SSH ?!
[...]
En als je die via SSH probeert te benaderen ?
[...]
Op dit soort moment is het fijn om iets van IPMI/iDRAC/iLO te hebben dus misschien iets om over na te denken voor je volgende build
Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8
Hoeveel man denk je dat hier op Tweakers thuis een echte server hebben staan?John245 schreef op vrijdag 29 november 2024 @ 18:36:
[...]
Ik dacht dat IPMI standaard op een server zat.
Mijn "server" met Proxmox, die ik nog eens moet transformeren tot puur nas, is een Fujitsi (tegenwoordig Kontron) bord waar "nog net" Intel AMT op zit waardoor ik nog iets remote kan (waaronder on demand aan zetten gezien die tegenwoordig voornamelijk uit staat). Mijn tegenwoordige "server" (24/7 aan) is een Chinees doosje met Intel N5105 CPU en 8GB gesoldeerd ram voor nog geen €150. Dus nouja, daar zit 0,0 van management op.
[quote]nero355 schreef op vrijdag 29 november 2024 @ 18:22:
[...]
Niet via webgui idd. Ssh ga ik nog even proberen.
Lijkt wel een netwerk probleem want geen enkele container is te bereiken (sabnzb/sonarr/radarr/pialert).
Dat de lampen wel aangezet worden kan dan weer kloppen omdat die door de zigbee stick worden aangezet.
[...]
Niet via webgui idd. Ssh ga ik nog even proberen.
Lijkt wel een netwerk probleem want geen enkele container is te bereiken (sabnzb/sonarr/radarr/pialert).
Dat de lampen wel aangezet worden kan dan weer kloppen omdat die door de zigbee stick worden aangezet.