• _JGC_
  • Registratie: Juli 2000
  • Nu online
powerboat schreef op maandag 23 maart 2026 @ 20:59:
Ik heb deze maar ze zijn een beetje onbetaalbaar geworden Samsung PM9A3 SSD - 3.8TB - M.2 22110 PCIe 4.0 :/

Bij een klant gebruik ik deze Samsung 980 Pro (vanwege de formfactor) die werken prima zover ik weet.
Daar heb ik er bij een klant 9 van in een Ceph cluster in U2 formaat, die werken idd prima.
Zitten na 9 maanden op 1% media wearout. De systeemdrives, Samsung PM9A1 256GB NVME in ZFS mirror zitten nu al op 7% wearout. Wordt de hele dag naar geschreven, max I/O pressure stall wat ik zie in de grafieken is 0,25%.

Spul is helaas niet meer te betalen, blij met het geheugenlek in de Intel netwerkdrivers vorig jaar waardoor we onterecht 384GB extra geheugen hebben gekocht (2000 euro incl BTW). Verder hebben we nog een stapel Intel 4510 en 4520 SATA SSDs van 1, 2 en 4TB liggen uit de oude servers met lage media wear, dus mocht opslag een probleem worden dan hebben we maar zo een 2e cluster opslag erbij voor het minder veeleisende spul.

  • ElCondor
  • Registratie: Juni 2001
  • Laatst online: 17:36

ElCondor

Geluk is Onmisbaar

_JGC_ schreef op dinsdag 24 maart 2026 @ 09:35:
[...]

Daar heb ik er bij een klant 9 van in een Ceph cluster in U2 formaat, die werken idd prima.
Zitten na 9 maanden op 1% media wearout. De systeemdrives, Samsung PM9A1 256GB NVME in ZFS mirror zitten nu al op 7% wearout. Wordt de hele dag naar geschreven, max I/O pressure stall wat ik zie in de grafieken is 0,25%.

Spul is helaas niet meer te betalen, blij met het geheugenlek in de Intel netwerkdrivers vorig jaar waardoor we onterecht 384GB extra geheugen hebben gekocht (2000 euro incl BTW). Verder hebben we nog een stapel Intel 4510 en 4520 SATA SSDs van 1, 2 en 4TB liggen uit de oude servers met lage media wear, dus mocht opslag een probleem worden dan hebben we maar zo een 2e cluster opslag erbij voor het minder veeleisende spul.
Dat is andere koek dan in een home-labje 8)7

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • _JGC_
  • Registratie: Juli 2000
  • Nu online
ElCondor schreef op dinsdag 24 maart 2026 @ 10:05:
[...]

Dat is andere koek dan in een home-labje 8)7
Als ik nu weer opslag zou moeten plaatsen werden het overigens Kingston DC3000ME disks. Zijn de helft van de prijs van Samsung P9MA3 en doen veel meer IOPS.

  • ElCondor
  • Registratie: Juni 2001
  • Laatst online: 17:36

ElCondor

Geluk is Onmisbaar

_JGC_ schreef op dinsdag 24 maart 2026 @ 10:27:
[...]

Als ik nu weer opslag zou moeten plaatsen werden het overigens Kingston DC3000ME disks. Zijn de helft van de prijs van Samsung P9MA3 en doen veel meer IOPS.
* ElCondor checkt prijs... :o

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • InjecTioN
  • Registratie: Juli 2005
  • Laatst online: 15:51

InjecTioN

¯\_(ツ)_/¯

_JGC_ schreef op dinsdag 24 maart 2026 @ 09:35:
[...]

Daar heb ik er bij een klant 9 van in een Ceph cluster in U2 formaat, die werken idd prima.
Zitten na 9 maanden op 1% media wearout. De systeemdrives, Samsung PM9A1 256GB NVME in ZFS mirror zitten nu al op 7% wearout. Wordt de hele dag naar geschreven, max I/O pressure stall wat ik zie in de grafieken is 0,25%.

Spul is helaas niet meer te betalen, blij met het geheugenlek in de Intel netwerkdrivers vorig jaar waardoor we onterecht 384GB extra geheugen hebben gekocht (2000 euro incl BTW). Verder hebben we nog een stapel Intel 4510 en 4520 SATA SSDs van 1, 2 en 4TB liggen uit de oude servers met lage media wear, dus mocht opslag een probleem worden dan hebben we maar zo een 2e cluster opslag erbij voor het minder veeleisende spul.
De sata Samsung SSD varianten die beginnen met PM (zoals de PM883) hebben TLC NAND. Die hebben meestal "slechts" 1/2e tot zelfs 1/3e van de SM -series (zoals SM883) van Samsung. De SM -series hebben MLC NAND, waardoor de DWPD een stuk hoger kan zijn.

Die PM9A1 heeft slechts een 0.3 DWPD. Dat is een low-endurance SSD. Mogelijk zou je die willen vervangen, of in ieder geval een werkbare situatie creëren waarin je die gemakkelijk kan vervangen als het jou uitkomt (ipv wanneer die stuk gaat).

Ik heb vorige week een setje compleet gemaakt van 4x Samsung SM863 met slechts 1% wear over 5 jaar. Dan heb ik 1 spare en 3 SSD's verdeeld over 3 Proxmox nodes met Ceph. Daarbij ook nog een PM883 als extra spare van ons pap gekregen. Ook met 1% wear. Dus mijn SSD's worden aankomend weekend ook een voor een vervangen. :)

Ik kom van 3x Intel D3 S4610 480GB SSD's af, waarbij de ruimte toch iets te krap leek in het Ceph volume. Dit zijn overigens ook TLC NAND SSD's, die vervangen worden met MLC NAND SSD's. Intel SSD's kan ik mooi in RAID10 zetten voor mijn workstation. :)

1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI


  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

InjecTioN schreef op dinsdag 24 maart 2026 @ 12:02:
[...]

Die PM9A1 heeft slechts een 0.3 DWPD. Dat is een low-endurance SSD. Mogelijk zou je die willen vervangen, of in ieder geval een werkbare situatie creëren waarin je die gemakkelijk kan vervangen als het jou uitkomt (ipv wanneer die stuk gaat).
Tja, dat hangt er ook maar net van af of je dat erg vindt of niet. Met iets minder dan 1% wear per maand kom je nog steeds uit op een levensduur van grofweg 10 jaar (en wordt de helft van de 0.3 DWPD gebruikt). Ik heb ook wat Intel P4510's naar 70% wear geschreven in 5 jaar tijd, dat was op zich misschien niet helemaal handig, maar compleet binnen spec en na die tijd de schijven vervangen is ook weer niet het einde van de wereld.

  • _JGC_
  • Registratie: Juli 2000
  • Nu online
@InjecTioN Met 7% wear in 9 maanden tijd kom ik op 10 jaar levensduur. Ter vergelijking: ik tik dit op een desktop met een Crucial MX500 die op 221% lifetime remaining zit omdat de teller al eens geflipt is.

Overigens de oorzaak van de writes al achterhaald, nu ook opgelost. Ceph. De monitor service staat standaard in debug mode op Proxmox. Die logt alle data van het hele cluster op elke node naar /var/log/ceph/*.log.
De code om naar de loglevel instelling te luisteren is met 19.2.3 pas meegekomen, dus nu maar even naar info level gezet ipv debug. Scheelt heel wat writes.
https://forum.proxmox.com...oglevel-mgr-pgmap.117780/

  • InjecTioN
  • Registratie: Juli 2005
  • Laatst online: 15:51

InjecTioN

¯\_(ツ)_/¯

dcm360 schreef op dinsdag 24 maart 2026 @ 12:27:
[...]

Tja, dat hangt er ook maar net van af of je dat erg vindt of niet. Met iets minder dan 1% wear per maand kom je nog steeds uit op een levensduur van grofweg 10 jaar (en wordt de helft van de 0.3 DWPD gebruikt). Ik heb ook wat Intel P4510's naar 70% wear geschreven in 5 jaar tijd, dat was op zich misschien niet helemaal handig, maar compleet binnen spec en na die tijd de schijven vervangen is ook weer niet het einde van de wereld.
_JGC_ schreef op dinsdag 24 maart 2026 @ 12:30:
@InjecTioN Met 7% wear in 9 maanden tijd kom ik op 10 jaar levensduur. Ter vergelijking: ik tik dit op een desktop met een Crucial MX500 die op 221% lifetime remaining zit omdat de teller al eens geflipt is.

Overigens de oorzaak van de writes al achterhaald, nu ook opgelost. Ceph. De monitor service staat standaard in debug mode op Proxmox. Die logt alle data van het hele cluster op elke node naar /var/log/ceph/*.log.
De code om naar de loglevel instelling te luisteren is met 19.2.3 pas meegekomen, dus nu maar even naar info level gezet ipv debug. Scheelt heel wat writes.
https://forum.proxmox.com...oglevel-mgr-pgmap.117780/
Klopt helemaal. Om de een of andere reden heb ik het verkeerd geïnterpreteerd, waardoor ik het idee had dat je dat je 7% aan wear over 1 maand had behaald. In 9 maanden met 7% wear zit je inderdaad echt prima in het juiste segment. Vooral als je de afschrijving meetelt. :)

1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI


  • edwin2021
  • Registratie: Oktober 2020
  • Laatst online: 17:44
Waar kun je de wear zien? Staat bij mij niet in de smart info.

  • _JGC_
  • Registratie: Juli 2000
  • Nu online
edwin2021 schreef op dinsdag 24 maart 2026 @ 18:18:
Waar kun je de wear zien? Staat bij mij niet in de smart info.
Laat proxmox in de web interface zien bij de disks. Werkt alleen als er iets in de SMART data zit wat daarvoor te gebruiken is.

  • aerials1990
  • Registratie: Juni 2017
  • Laatst online: 11-05 22:18
Hoi allen,

Nieuw hier en wil graag starten met Proxmox. Ik wil mijn beoogd systeem even hier toetsen evenals vragen naar wat men voor advies heeft als NAS.

Ik wil een sterke Proxmox server voor verschillende VM’s:
  • VM Frigate (CPU-only) met 4 camera's via EmpireTech
  • VM AI only (GPU passthrough) voor grote Ollama modellen
  • VM Home Assistant OS
  • Kleine containers (bijv. Jellyfin / Jellyseerr / etc.)
  • Mogelijk later uitbreiden met extra services
Daarnaast wil ik een aparte TrueNAS server met 4 bays die via 10GbE / SFP+ verbonden wordt met de Proxmox server.

Beoogde Proxmox Hardware
CPU: AMD Ryzen 9 9950X
CPU Koeler: Noctua NH‑D15 G2 chromax.black
Moederbord: ASUS ROG Crosshair X870E Extreme (2× PCIe 5.0 x16 slots, 5× M.2 slots, 10GbE + 5GbE LAN, E-ATX formaat)
RAM: Kingston FURY 2x64GB DDR5‑6000 (2×32GB) KF560C36BBEK2‑64, DDR5-6000, CL36, AMD EXPO, On-die ECC
Case rack (5U):SilverStone RM51
GPU: RTX 5090 (32GB VRAM)
Opslag: 2x Samsung 990 Pro 2TB - SSD

Wat ik zoek:

4-bay NAS
10GbE / SFP+ voorkeur
VM storage voor Proxmox
storage voor Jellyfish media server (afspelen via NVIDIA Shield).

Twijfel tussen:
Kant-en-klare NAS (QNAP / Synology / TerraMaster) OF Zelfbouw TrueNAS server
Mijn vragen
Is deze Proxmox hardware overkill of juist goed toekomstbestendig?
Zijn er betere moederborden voor Proxmox / VM workloads?
Wat raden jullie aan voor 4-bay TrueNAS server?
Is SFP+ de juiste keuze of beter 10GbE RJ45?
Tips / valkuilen bij Proxmox + AI + Frigate?

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 17:10
@aerials1990 Gaat het alleen om opslag voor VMs? Dan zou ik geen TrueNAS maar ZFS binnen PVE zelf overwegen. Je houdt het netwerkverkeer dan ook binnen de host.
De services zijn de services in LXC/VM op je host.

Voor Frigate overweeg een Coral TPU, verbruik wordt daarmee veel lager dan via de CPU.

[ Voor 17% gewijzigd door Quad op 26-03-2026 10:50 ]

Alles went behalve een Twent.
nggyu nglyd


  • aerials1990
  • Registratie: Juni 2017
  • Laatst online: 11-05 22:18
Quad schreef op donderdag 26 maart 2026 @ 10:49:
@aerials1990 Gaat het alleen om opslag voor VMs? Dan zou ik geen TrueNAS maar ZFS binnen PVE zelf overwegen. Je houdt het netwerkverkeer dan ook binnen de host.
De services zijn de services in LXC/VM op je host.

Voor Frigate overweeg een Coral TPU, verbruik wordt daarmee veel lager dan via de CPU.
Dank voor je reactie Quad. Ik dacht dat het beter is om de PVE en een aparte NAS te scheiden in mijn serverrack, dit ook voor home assistant configuratie files en andere data?

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 17:10
aerials1990 schreef op donderdag 26 maart 2026 @ 10:59:
[...]

Dank voor je reactie Quad. Ik dacht dat het beter is om de PVE en een aparte NAS te scheiden in mijn serverrack, dit ook voor home assistant configuratie files en andere data?
Als je meerdere PVE hosts gebruikt is shared storage een goede oplossing.
Maar met deze opstelling introduceer je alleen maar extra SPOFs:
  • NAS die herstart terwijl je PVE draait.
  • Verbinding tussen NAS > PVE die verbroken wordt.
  • Updates op NAS die voor verbroken netwerkconnectiviteit zorgt.
  • NAS defect = geen storage meer voor je PVE.
Door opslag direct binnen PVE aan je VMs aan te bieden heb je geen OS en netwerklaag tussen zitten, maar direct de storagelaag.

Waar je nog wel naar moet kijken is of de beoogde voeding past en of je voldoende HDDs in je behuizing kan krijgen.

Tip; maak gebruik van een wenslijstje: https://tweakers.net/gallery/929811/wenslijst/

[ Voor 13% gewijzigd door Quad op 26-03-2026 12:06 ]

Alles went behalve een Twent.
nggyu nglyd


  • Goof2000
  • Registratie: Februari 2003
  • Laatst online: 15:02
aerials1990 schreef op donderdag 26 maart 2026 @ 10:42:
Hoi allen,

Nieuw hier en wil graag starten met Proxmox. Ik wil mijn beoogd systeem even hier toetsen evenals vragen naar wat men voor advies heeft als NAS.

Ik wil een sterke Proxmox server voor verschillende VM’s:
  • VM Frigate (CPU-only) met 4 camera's via EmpireTech
  • VM AI only (GPU passthrough) voor grote Ollama modellen
  • VM Home Assistant OS
  • Kleine containers (bijv. Jellyfin / Jellyseerr / etc.)
  • Mogelijk later uitbreiden met extra services
Daarnaast wil ik een aparte TrueNAS server met 4 bays die via 10GbE / SFP+ verbonden wordt met de Proxmox server.

Beoogde Proxmox Hardware
CPU: AMD Ryzen 9 9950X
CPU Koeler: Noctua NH‑D15 G2 chromax.black
Moederbord: ASUS ROG Crosshair X870E Extreme (2× PCIe 5.0 x16 slots, 5× M.2 slots, 10GbE + 5GbE LAN, E-ATX formaat)
RAM: Kingston FURY 2x64GB DDR5‑6000 (2×32GB) KF560C36BBEK2‑64, DDR5-6000, CL36, AMD EXPO, On-die ECC
Case rack (5U):SilverStone RM51
GPU: RTX 5090 (32GB VRAM)
Opslag: 2x Samsung 990 Pro 2TB - SSD

Wat ik zoek:

4-bay NAS
10GbE / SFP+ voorkeur
VM storage voor Proxmox
storage voor Jellyfish media server (afspelen via NVIDIA Shield).

Twijfel tussen:
Kant-en-klare NAS (QNAP / Synology / TerraMaster) OF Zelfbouw TrueNAS server
Mijn vragen
Is deze Proxmox hardware overkill of juist goed toekomstbestendig?
Zijn er betere moederborden voor Proxmox / VM workloads?
Wat raden jullie aan voor 4-bay TrueNAS server?
Is SFP+ de juiste keuze of beter 10GbE RJ45?
Tips / valkuilen bij Proxmox + AI + Frigate?
Als ik deze componenten zie dan is energieverbruik niet een prioriteit? Ik wil het met deze vraag even checken, het is niet zuinig. (maar daar hebben we een ander topic voor)

  • aerials1990
  • Registratie: Juni 2017
  • Laatst online: 11-05 22:18
Goof2000 schreef op donderdag 26 maart 2026 @ 14:18:
[...]


Als ik deze componenten zie dan is energieverbruik niet een prioriteit? Ik wil het met deze vraag even checken, het is niet zuinig. (maar daar hebben we een ander topic voor)
Nav Quad, overweeg ik om HDD’s en M.2 SSD’s direct in Proxmox te plaatsen in plaats van een aparte TrueNAS.

Wel maak ik me wat zorgen over temperatuur in een klein 5U server behuiziging en over idle-verbruik, zeker met een zware GPU en meerdere schijven, ook al krijg ik zonnepanelen. AI gebruik ik vooral voor inference, integratie met Home Assistant spraak en experimenten met Ollama.

  • InjecTioN
  • Registratie: Juli 2005
  • Laatst online: 15:51

InjecTioN

¯\_(ツ)_/¯

aerials1990 schreef op donderdag 26 maart 2026 @ 16:11:
[...]


Nav Quad, overweeg ik om HDD’s en M.2 SSD’s direct in Proxmox te plaatsen in plaats van een aparte TrueNAS.

Wel maak ik me wat zorgen over temperatuur in een klein 5U server behuiziging en over idle-verbruik, zeker met een zware GPU en meerdere schijven, ook al krijg ik zonnepanelen. AI gebruik ik vooral voor inference, integratie met Home Assistant spraak en experimenten met Ollama.
Als je experimenteert met Ollama en voornamelijk Home Assistant wilt gebruiken, kan je dan niet beter iets van een Intel Arc B580 nemen, of zelfs alleen de CPU gebruiken met TinyLlama/Phi-3 mini? Het zou eigenlijk gekkenwerk zijn om een top-dollar GPU aan te schaffen voor die kleine momenten dat je even iets meer nodig hebt, onder het mom van "experimenteren". In mijn boekje valt dat, met alle respect, onder smijten met geld. :P

1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI


  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 15:49

zeroday

There is no alternative!

aerials1990 schreef op donderdag 26 maart 2026 @ 10:42:
Hoi allen,

Nieuw hier en wil graag starten met Proxmox. Ik wil mijn beoogd systeem even hier toetsen evenals vragen naar wat men voor advies heeft als NAS.

Ik wil een sterke Proxmox server voor verschillende VM’s:
Daarnaast wil ik een aparte TrueNAS server met 4 bays die via 10GbE / SFP+ verbonden wordt met de Proxmox server.
Ik gebruik al jaren een HP Gen8 Microserver 4Bay met Truenas .. werkt als de tierelier en vooralsnog upgrade ik niet naar de Debian variant ..
10GB wil ik wellicht ook nog wel maar dan moet er een kaart in en heb ik weer 4 nieuwe HDD's nodig ;)
ikzelf gebruik Intel NUC's in een cluster en daar kan ik alles mee wat ik wil.

En iedereen heeft zijn / haar voorkeuren. Ik doe het 2e hands en goedkoop en als ik dan wat beperkingen heb moet ik er OF omheen werken OF niet gebruiken etc .. Zo wilde ik CEPH gaan gebruiken maar dat is met 1GB waardeloos .. dus dan maar niet ;)

There are no secrets, only information you do not yet have


  • aerials1990
  • Registratie: Juni 2017
  • Laatst online: 11-05 22:18
InjecTioN schreef op donderdag 26 maart 2026 @ 16:32:
[...]

Als je experimenteert met Ollama en voornamelijk Home Assistant wilt gebruiken, kan je dan niet beter iets van een Intel Arc B580 nemen, of zelfs alleen de CPU gebruiken met TinyLlama/Phi-3 mini? Het zou eigenlijk gekkenwerk zijn om een top-dollar GPU aan te schaffen voor die kleine momenten dat je even iets meer nodig hebt, onder het mom van "experimenteren". In mijn boekje valt dat, met alle respect, onder smijten met geld. :P
Ik ben het absoluut eens dat het misschien als geld smijten klinkt, maar ik wil ook klaar zijn voor de toekomst en wie weet hoe ver die prijzen nog gaan oplopen met de huidige oorlog. Ik wil ook niet tegen een grens aanlopen met de GPU/RAM. Dit wordt mijn eerste homelab, en ik wil het goed aanpakken.

  • InjecTioN
  • Registratie: Juli 2005
  • Laatst online: 15:51

InjecTioN

¯\_(ツ)_/¯

aerials1990 schreef op donderdag 26 maart 2026 @ 17:58:
[...]


Ik ben het absoluut eens dat het misschien als geld smijten klinkt, maar ik wil ook klaar zijn voor de toekomst en wie weet hoe ver die prijzen nog gaan oplopen met de huidige oorlog. Ik wil ook niet tegen een grens aanlopen met de GPU/RAM. Dit wordt mijn eerste homelab, en ik wil het goed aanpakken.
Pro tip: Laat je niet gek maken. :)

Ik snap precies wat je bedoelt, maar het is 't niet waard om zoveel geld erin te investeren. Rendement is er gewoon niet t.o.v. iets als bijvoorbeeld een Intel Arc B580. En is het nou echt een probleem als antwoord op je prompt iets langer duurt voor een grote smak minder geld en verbruik?

Edit: Laat ook even voorop staan dat je met relatief weinig al snel uit de voeten kan. Over een tijdje is het relatief "standaard" dat je aardig wat language model kan draaien op een APU. Dan ben je mooi klaar met je aanschaf van een paar ruggen die nooit gerendeerd heeft.

[ Voor 15% gewijzigd door InjecTioN op 26-03-2026 18:04 ]

1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI


  • aerials1990
  • Registratie: Juni 2017
  • Laatst online: 11-05 22:18
InjecTioN schreef op donderdag 26 maart 2026 @ 18:01:
[...]

Pro tip: Laat je niet gek maken. :)

Ik snap precies wat je bedoelt, maar het is 't niet waard om zoveel geld erin te investeren. Rendement is er gewoon niet t.o.v. iets als bijvoorbeeld een Intel Arc B580. En is het nou echt een probleem als antwoord op je prompt iets langer duurt voor een grote smak minder geld en verbruik?

Edit: Laat ook even voorop staan dat je met relatief weinig al snel uit de voeten kan. Over een tijdje is het relatief "standaard" dat je aardig wat language model kan draaien op een APU. Dan ben je mooi klaar met je aanschaf van een paar ruggen die nooit gerendeerd heeft.
Ik waardeer je reacties _/-\o_ , het budget is er, maar ik zit zelf ook met een knoop in mijn maag over cost/benefit ratio. Snelheid in reactie is wel een ding. Wat ik namelijk ook voor ogen heb is om Whisper/piper/ollama integraties te gebruiken in home assistant. Vervolgens i.c.m. Satellite1 Dev Kit wil ik een soort slimme AI Voice assistant creëeren in home assistant. Commando's en reacties naar/van de satellite1 moeten dan wel vloeiend voelen (geen lag). En verder, voor werk (IT) is het ook fijn als ik code/context kan gebruiken om modellen te trainen en gebruiken voor werk.

  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 12-05 00:13
Ik ben een AMD fan, maar met Frigate en 4 camera's kan je toch beter kijken naar een Intel CPU met ingebouwde GPU (dus niet de K variant).
Waarom? Je kan dan de ingebouwde GPU gebruiken voor hardware assisted FFMPEG en/decoding en ook OpenVINO voor object detectie. Heb je dan geen Coral nodig (waar ik in combinatie met Proxmox veel problemen mee had). Dat scheelt veel CPU verbruik.
Bonus, via de ingebouwde GPU heb je ook nog beeld van je proxmox installatie terwijl de dedicated GPU in passthrough staat naar de AI VM.

[ Voor 3% gewijzigd door GoBieN-Be op 26-03-2026 19:07 ]


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 14:56
Quad schreef op donderdag 26 maart 2026 @ 10:49:
@aerials1990 Gaat het alleen om opslag voor VMs? Dan zou ik geen TrueNAS maar ZFS binnen PVE zelf overwegen. Je houdt het netwerkverkeer dan ook binnen de host.
De services zijn de services in LXC/VM op je host.

Voor Frigate overweeg een Coral TPU, verbruik wordt daarmee veel lager dan via de CPU.
Hoewel ik het eens ben met je redenering om het op een enkele host te houden. Tevens ook met je reactie hieronder. Is er natuurlijk altijd nog de mogelijkheid om TrueNAS als een losse VM te draaien binnen Proxmox. Afhankelijk van de wensen van @aerials1990 kan dat het beste van beide werelden zijn.

https://dontasktoask.com/


  • aerials1990
  • Registratie: Juni 2017
  • Laatst online: 11-05 22:18
GoBieN-Be schreef op donderdag 26 maart 2026 @ 19:06:
Ik ben een AMD fan, maar met Frigate en 4 camera's kan je toch beter kijken naar een Intel CPU met ingebouwde GPU (dus niet de K variant).
Waarom? Je kan dan de ingebouwde GPU gebruiken voor hardware assisted FFMPEG en/decoding en ook OpenVINO voor object detectie. Heb je dan geen Coral nodig (waar ik in combinatie met Proxmox veel problemen mee had). Dat scheelt veel CPU verbruik.
Bonus, via de ingebouwde GPU heb je ook nog beeld van je proxmox installatie terwijl de dedicated GPU in passthrough staat naar de AI VM.
Top tip, ga ik zeker naar kijken. Waarom geen K variant? Ik wil eigenlijk dan gaan voor Core Ultra 9 285K uitvoering: Intel Core Ultra 9 285K Boxed

  • Jerie
  • Registratie: April 2007
  • Niet online
aerials1990 schreef op donderdag 26 maart 2026 @ 10:42:
Hoi allen,

Nieuw hier en wil graag starten met Proxmox. Ik wil mijn beoogd systeem even hier toetsen evenals vragen naar wat men voor advies heeft als NAS.

Ik wil een sterke Proxmox server voor verschillende VM’s:
  • VM Frigate (CPU-only) met 4 camera's via EmpireTech
  • VM AI only (GPU passthrough) voor grote Ollama modellen
  • VM Home Assistant OS
  • Kleine containers (bijv. Jellyfin / Jellyseerr / etc.)
  • Mogelijk later uitbreiden met extra services
Daarnaast wil ik een aparte TrueNAS server met 4 bays die via 10GbE / SFP+ verbonden wordt met de Proxmox server.

Beoogde Proxmox Hardware
CPU: AMD Ryzen 9 9950X
CPU Koeler: Noctua NH‑D15 G2 chromax.black
Moederbord: ASUS ROG Crosshair X870E Extreme (2× PCIe 5.0 x16 slots, 5× M.2 slots, 10GbE + 5GbE LAN, E-ATX formaat)
RAM: Kingston FURY 2x64GB DDR5‑6000 (2×32GB) KF560C36BBEK2‑64, DDR5-6000, CL36, AMD EXPO, On-die ECC
Case rack (5U):SilverStone RM51
GPU: RTX 5090 (32GB VRAM)
Opslag: 2x Samsung 990 Pro 2TB - SSD

Wat ik zoek:

4-bay NAS
10GbE / SFP+ voorkeur
VM storage voor Proxmox
storage voor Jellyfish media server (afspelen via NVIDIA Shield).

Twijfel tussen:
Kant-en-klare NAS (QNAP / Synology / TerraMaster) OF Zelfbouw TrueNAS server
Mijn vragen
Is deze Proxmox hardware overkill of juist goed toekomstbestendig?
Zijn er betere moederborden voor Proxmox / VM workloads?
Wat raden jullie aan voor 4-bay TrueNAS server?
Is SFP+ de juiste keuze of beter 10GbE RJ45?
Tips / valkuilen bij Proxmox + AI + Frigate?
AMD GPUs gaan ook met CUDA werken.

Coral TPU/NPU voor Frigate, behalve als je toch een GPU blijft houden.

NVMe met PLP (enterprise spul) voor data consistentie, of UPS.

Huidige is overkill. Kun je net zo goed tweedehands enterprise hardware nemen. Het nadeel daarvan is het slurpt stroom, maar dat is voor jou geen probleem zo lijk je te suggereren.

NIC SFP+ kan met Intel of AQC. Ik zou inderdaad voor SFP+ gaan en fiber i.p.v. ethernet. Ik heb goede ervaring met X710, die kun je tweedehands goedkoop kopen, krijgt nog steeds firmware updates. De AQC series hebben ook een relatief zuinige 1 port SFP+.

Voor storage intern of extern? SAS of SATA? Ik zou SAS nemen, of TB (als deze AMD CPU en mobo dat native kan). Zo niet, tweedehands HBAs gaan voor 20-50 EUR.

En de prijzen gaan ook weer dalen, dat heeft tijd nodig, (tenzij je verwacht dat Taiwan binnenkort wordt aangevallen, en de prognose daarvoor is vooralsnog lange baan). Als je nu nieuw een mid-tier server koopt, dan gaat die komende jaren prima mee.

Wat Ollama betreft. Ik denk dat je experimenten beter in een DC dat toch al draait kunt draaien, dat moet goedkoper zijn, behalve privacy.

Maar experimenteren met Ollama kan goedkoper dan dit. Op een MBP met 32 GB RAM bijv heb je ook bijna 32 GB GPU VRAM, en dat spul is retesnel.

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • Tornado85
  • Registratie: December 2014
  • Laatst online: 15:00
Hoi! Stille mee lezer hier!

Ook AMD fan. Frigate draait ook prima op een 8600g met rocm image van Frigate. Wel minder camera's, 2 namelijk. 1 4k, ander 2k.

Verder ook Home Assistant en andere LXC containers + 2 Windows VMs.

Heb Ollama geprobeert op de iGPU. Maar dat is even geleden. Gamma 14b kwam tot 5 tk/s.

  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 12-05 00:13
aerials1990 schreef op vrijdag 27 maart 2026 @ 15:29:
[...]

Top tip, ga ik zeker naar kijken. Waarom geen K variant? Ik wil eigenlijk dan gaan voor Core Ultra 9 285K uitvoering: Intel Core Ultra 9 285K Boxed
Foutje van mij, het zijn de F varianten die geen ingebouwde GPU hebben.
K komt gewoon niet met een cooler.

Mijn hoofd PVE node draait op een Ryzen 5800X (zonder iGPU dus), maar ik heb extra een klein Dell mini PC'tje met i5 cpu draaien voor Frigate met 4 camera's. Dat is omdat mijn hoofd PVEnode anders 20% CPU stond te verspillen voor decoding en encoding. En de coral USB in passthrough zorgde voor veel storingen, zelfs met 10 soorten kabels geprobeerd.

AMD heeft slechts heel beperkte keuze met iGPU's, en dan nog is het moeilijker om die werkend te krijgen in Frigate voor hardware assisted en/decoding.

[ Voor 38% gewijzigd door GoBieN-Be op 29-03-2026 20:54 ]


  • Jerie
  • Registratie: April 2007
  • Niet online
GoBieN-Be schreef op zondag 29 maart 2026 @ 20:49:
[...]

Foutje van mij, het zijn de F varianten die geen ingebouwde GPU hebben.
K komt gewoon niet met een cooler.

Mijn hoofd PVE node draait op een Ryzen 5800X (zonder iGPU dus), maar ik heb extra een klein Dell mini PC'tje met i5 cpu draaien voor Frigate met 4 camera's. Dat is omdat mijn hoofd PVEnode anders 20% CPU stond te verspillen voor decoding en encoding. En de coral USB in passthrough zorgde voor veel storingen, zelfs met 10 soorten kabels geprobeerd.

AMD heeft slechts heel beperkte keuze met iGPU's, en dan nog is het moeilijker om die werkend te krijgen in Frigate voor hardware assisted en/decoding.
Dacht al, ik heb een K met iGPU :P

As for your other first world problems:

USB port op v2 zetten.

usbip gebruiken i.p.v. passthrough.

NVMe Coral nemen.

Hier werkt het prima, maar... ik gebruik de iGPU...

[ Voor 8% gewijzigd door Jerie op 30-03-2026 00:17 ]

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • edwin2021
  • Registratie: Oktober 2020
  • Laatst online: 17:44
GoBieN-Be schreef op zondag 29 maart 2026 @ 20:49:
[...]
Mijn hoofd PVE node draait op een Ryzen 5800X (zonder iGPU dus), maar ik heb extra een klein Dell mini PC'tje met i5 cpu draaien voor Frigate met 4 camera's. Dat is omdat mijn hoofd PVEnode anders 20% CPU stond te verspillen voor decoding en encoding. En de coral USB in passthrough zorgde voor veel storingen, zelfs met 10 soorten kabels geprobeerd.
/decoding.
Ik denk dat je frigate gebruikt met homeassistant op een vm. Hoe heb je deze aan elkaar geknoopt?

[ Voor 18% gewijzigd door edwin2021 op 30-03-2026 14:30 ]


  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 12-05 00:13
Mijn HomeAssistant draait als een VM (HAOS).
Frigate draai ik als een docker container op een aparte VM met Ubuntu.
In HA gebruik ik de Frigate proxy addon.

Ik had de Coral USB ook via een USB2.0 kabel geprobeerd, wel steeds met USB passthrough in PVE.
In PVE waren er regelmatig errors in de logs over de USB bus/poort fouten. En in Frigate herstarts om de zoveel tijd wegens vastgelopen detectie.
Ik heb toen zelf nog geprobeerd met een aparte USB PCI-E kaart en die volledig in passthrough naar de VM i.p.v. een USB apparaat. Nog steeds instabiel.
Plus dat mijn CPU dus nog altijd veel werk aan het verzetten was voor FFMPEG.
Nu dat aparte Dell micro PC met i5 CPU (ook met Proxmox trouwens) en daarop de Ubuntu VM met Frigate container. OpenVINO i.p.v. Coral en HWVAAI voor FFMPEG. Loopt stabiel en verbruikt veel minder CPU cycles.

[ Voor 4% gewijzigd door GoBieN-Be op 30-03-2026 18:56 ]


  • edwin2021
  • Registratie: Oktober 2020
  • Laatst online: 17:44
GoBieN-Be schreef op maandag 30 maart 2026 @ 18:55:
Mijn HomeAssistant draait als een VM (HAOS).
Frigate draai ik als een docker container op een aparte VM met Ubuntu.
In HA gebruik ik de Frigate proxy addon.

Ik had de Coral USB ook via een USB2.0 kabel geprobeerd, wel steeds met USB passthrough in PVE.
In PVE waren er regelmatig errors in de logs over de USB bus/poort fouten. En in Frigate herstarts om de zoveel tijd wegens vastgelopen detectie.
Ik heb toen zelf nog geprobeerd met een aparte USB PCI-E kaart en die volledig in passthrough naar de VM i.p.v. een USB apparaat. Nog steeds instabiel.
Plus dat mijn CPU dus nog altijd veel werk aan het verzetten was voor FFMPEG.
Nu dat aparte Dell micro PC met i5 CPU (ook met Proxmox trouwens) en daarop de Ubuntu VM met Frigate container. OpenVINO i.p.v. Coral en HWVAAI voor FFMPEG. Loopt stabiel en verbruikt veel minder CPU cycles.
Top, ga ik naar kijken!
Waarom op die Dell ook via proxmox?

  • ElCondor
  • Registratie: Juni 2001
  • Laatst online: 17:36

ElCondor

Geluk is Onmisbaar

Even een bevestiging nodig, afgelopen weekeinde issues gehad met een vollopende PBS. Dit kunnen verhelpen en de backups lopen nu weer goed. Echter blijft de verify job verkeerd gaan voor twee guests.
Deze hebben beide een mislukte backup in hun logging staan.
Is het dan gebruikelijk om die mislukte jobs gewoon te verwijderen en dan zou de verify weer goed moeten lopen?
Even vragen zodat ik niet per ongeluk een keten onderbreek of andere zaken stuk maak... :F

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 14:56
ElCondor schreef op dinsdag 31 maart 2026 @ 12:10:
Even een bevestiging nodig, afgelopen weekeinde issues gehad met een vollopende PBS. Dit kunnen verhelpen en de backups lopen nu weer goed. Echter blijft de verify job verkeerd gaan voor twee guests.
Deze hebben beide een mislukte backup in hun logging staan.
Is het dan gebruikelijk om die mislukte jobs gewoon te verwijderen en dan zou de verify weer goed moeten lopen?
Even vragen zodat ik niet per ongeluk een keten onderbreek of andere zaken stuk maak... :F
Ik heb dit zelf niet meegemaakt dus neem het met een korrel zout. Maar ik zou zeggen dat als je die twee individuele backups niet nodig hebt je ze gewoon kan verwijderen. Dan gaat de verify job uiteraard weer goed. Daarnaast is het gewoon mogelijk binnen PBS om individuele backups te verwijderen zonder dat dit de andere aantast.

https://dontasktoask.com/


  • ElCondor
  • Registratie: Juni 2001
  • Laatst online: 17:36

ElCondor

Geluk is Onmisbaar

orvintax schreef op dinsdag 31 maart 2026 @ 12:44:
[...]

Ik heb dit zelf niet meegemaakt dus neem het met een korrel zout. Maar ik zou zeggen dat als je die twee individuele backups niet nodig hebt je ze gewoon kan verwijderen. Dan gaat de verify job uiteraard weer goed. Daarnaast is het gewoon mogelijk binnen PBS om individuele backups te verwijderen zonder dat dit de andere aantast.
Dat vermoeden had ik inderdaad. Ik heb dagelijkse backups en er zijn er alweer een paar goed gegaan, dus dan ga ik ze weggooien.
Bedankt voor het tweede stel hersens hierbij d:)b

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • icecreamfarmer
  • Registratie: Januari 2003
  • Laatst online: 13-05 22:33

icecreamfarmer

en het is

Quad schreef op zondag 23 februari 2025 @ 21:10:
Waarom qbittorrent en vpn in een aparte VM?

Ik heb zelf alle *arr in een VM met Docker, al had dat ook in een LXC met Docker gekund voor minder OS overhead.

Ik heb toevallig gisteren wel sabnzbd en Plex overgezet naar een LXC voor snelheid, omdat deze het meest op de hardware leunen.

Gluetun en qbittorrent heb ik ook in docker, gaat helemaal prima.
Hoe heb je dat werkend gekregen.
Heb Gluetun via een helper script in een lxc geplaatst maar de hele config wordt geen woord over gerept.
Probeer het met NordVPN werkend te krijgen.

https://github.com/qdm12/...etup/providers/nordvpn.md

Dit gevonden maar sommige entries heb ik niet.

ik zie ik zie wat jij niet ziet


  • 42dpi
  • Registratie: September 2007
  • Laatst online: 17:37

42dpi

ლ(ಠ益ಠლ)

ElCondor schreef op dinsdag 31 maart 2026 @ 12:10:
Even een bevestiging nodig, afgelopen weekeinde issues gehad met een vollopende PBS. Dit kunnen verhelpen en de backups lopen nu weer goed. Echter blijft de verify job verkeerd gaan voor twee guests.
Deze hebben beide een mislukte backup in hun logging staan.
Is het dan gebruikelijk om die mislukte jobs gewoon te verwijderen en dan zou de verify weer goed moeten lopen?
Even vragen zodat ik niet per ongeluk een keten onderbreek of andere zaken stuk maak... :F
Heb je PBS op alles staan of elke individueel container/vm aangevinkt als het op alles staat en er mist iets krijg je altijd job error van wat er niet meer is, de wat er is doet die dan wel gewoon alleen krijg je dan error van die ene.

Si vis pacem, para bellum


  • ElCondor
  • Registratie: Juni 2001
  • Laatst online: 17:36

ElCondor

Geluk is Onmisbaar

42dpi schreef op maandag 6 april 2026 @ 19:55:
[...]

Heb je PBS op alles staan of elke individueel container/vm aangevinkt als het op alles staat en er mist iets krijg je altijd job error van wat er niet meer is, de wat er is doet die dan wel gewoon alleen krijg je dan error van die ene.
Ik heb een aantal jobs die per job een paar VM's bevatten. Het waren twee jobs die misgelopen waren, omdat de backup storage volgelopen was. Dat heb ik toen wel snel hersteld, maar die twee mislukte jobs (waarvan dus een enkele VM deel uit maakte die niet echt geslaagd was) zaten nog in de lijst van backups. Daar ging vervolgens de verify overheen en die ontdekt dan twee VM's die een keten van backups hebben waarvan er één iteratie mislukt is. Daar failt de verify op.
Ik had een vermoeden dat door die mislukte iteraties te verwijderen, er mogelijk gaten onstaan in de backup keten, maar dat blijkt niet het geval, begrijp ik. De ondernomen aktie is dus gewoon backup iteratie verwijderen, de gehele keten is dan weer groen en de verify slaagt.

Buiten dat, het zou een probleem van voorbijgaande aard zijn, want zodra de mislukte iteratie uit retentie loopt zou hij alsnog verwijderd zijn. Probleem opgelost, door wegnemen van het probleem 8)

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • Daniel.
  • Registratie: April 2009
  • Laatst online: 13:54
Ik ben nieuw in proxmox. Ben overgestapt van OMV naar proxmox. Wilde wat meer stabiliteit en dit leek mij de perfecte kans. Ik zit alleen te rommelen met Docker en LXV. Is het nou de bedoeling om voor iedere container een eigen lxv te maken waar ik docker apart op installeer zodat er dan een container de lucht in kan gaan. Mocht dat de way to go zijn, is dit ook op een bepaalde manier te beheren via portainer of zijn er andere betere manieren. Op google kom ik vooral redelijk oudere resultaten tegen dus wellicht zit ik verkeerd te zoeken. Het lijkt zo makkelijk, zal ook wel zo zijn zodra ik thuis ben in de materie.

Het lijkt zo niet zinvol hoe het op de meeste plekken wordt gedaan. Proxmox -> lxc (container) -> docker (container)

Ben er ook al achter gekomen dat je een docker container rechtstreeks in een LXC kan inladen. Maar dat runt dan niet onder docker. Wat raden jullie aan.

Zie op veel plekken ook, maak een VM aan en run daar docker in. Voor plex lijkt het mij via een LXC met GPU passthrough dan wel weer handig.

https://community-scripts.org/scripts

Edit: Moet gewoon even rustig de tijd nemen. Begin het door te krijgen en wat waarvoor dient. Enige wat ik dan nog even moet checken is op welke manier ik docker kan gaan gebruiken en hoe. Wil ik docker in een vm od lxc draaien met daarin meerdere docker applicaties. Of wil ik docker in een lxc draaien en dat iedere docker stack zijn eigen lxc krijgt.

[ Voor 45% gewijzigd door Daniel. op 24-04-2026 02:17 ]

<GoTHC>Daniel#23781 | Mijn PC


  • powerboat
  • Registratie: December 2003
  • Laatst online: 16:52
Daniel. schreef op vrijdag 24 april 2026 @ 00:58:
Ik ben nieuw in proxmox. Ben overgestapt van OMV naar proxmox. Wilde wat meer stabiliteit en dit leek mij de perfecte kans. Ik zit alleen te rommelen met Docker en LXV. Is het nou de bedoeling om voor iedere container een eigen lxv te maken waar ik docker apart op installeer zodat er dan een container de lucht in kan gaan. Mocht dat de way to go zijn, is dit ook op een bepaalde manier te beheren via portainer of zijn er andere betere manieren. Op google kom ik vooral redelijk oudere resultaten tegen dus wellicht zit ik verkeerd te zoeken. Het lijkt zo makkelijk, zal ook wel zo zijn zodra ik thuis ben in de materie.

Het lijkt zo niet zinvol hoe het op de meeste plekken wordt gedaan. Proxmox -> lxc (container) -> docker (container)

Ben er ook al achter gekomen dat je een docker container rechtstreeks in een LXC kan inladen. Maar dat runt dan niet onder docker. Wat raden jullie aan.

Zie op veel plekken ook, maak een VM aan en run daar docker in. Voor plex lijkt het mij via een LXC met GPU passthrough dan wel weer handig.

https://community-scripts.org/scripts

Edit: Moet gewoon even rustig de tijd nemen. Begin het door te krijgen en wat waarvoor dient. Enige wat ik dan nog even moet checken is op welke manier ik docker kan gaan gebruiken en hoe. Wil ik docker in een vm od lxc draaien met daarin meerdere docker applicaties. Of wil ik docker in een lxc draaien en dat iedere docker stack zijn eigen lxc krijgt.
Welkom bij proxmox ;), wat je even door loet hebben is dat ProxmoxVE een hypervisor is en OMV in de kern een NAS.

Beide hebben in de basis een ander doel, waar bij de een het doel hosten van vm's is en de ander opslag.

Wil je voornamelijk een drop in replacement hebben van OMV dan had je wellicht beter kunnen kijken naar TrueNAS.

Maar niets is onmogelijk op Linux je kan een container docker draaien maar het is eigelijk niet de bedoeling je moet dan ook consessies doen qua stabiliteit en security.

Ik draai zelf docker in een VM vanwege de quircks hierboven.

Maar het is niet onmogelijk :)

  • Daniel.
  • Registratie: April 2009
  • Laatst online: 13:54
powerboat schreef op vrijdag 24 april 2026 @ 07:19:
[...]


Welkom bij proxmox ;), wat je even door loet hebben is dat ProxmoxVE een hypervisor is en OMV in de kern een NAS.

Beide hebben in de basis een ander doel, waar bij de een het doel hosten van vm's is en de ander opslag.

Wil je voornamelijk een drop in replacement hebben van OMV dan had je wellicht beter kunnen kijken naar TrueNAS.

Maar niets is onmogelijk op Linux je kan een container docker draaien maar het is eigelijk niet de bedoeling je moet dan ook consessies doen qua stabiliteit en security.

Ik draai zelf docker in een VM vanwege de quircks hierboven.

Maar het is niet onmogelijk :)
Het is nog even puzzelen. Linux via terminal is voor mij het probleem niet. Denk dat zoals ik hier heb gelezen dat het beste is om zoveel mogelijk LXC te gaan gebruiken. Misschien voor een paar dingen nog wel Docker en het makkelijkst is om dat in één VM te doen i.p.v. een container vanwege stabiliteit.

Dan nog mijn aanpak. Eén LXC per applicatie of een groep applicaties in één die met elkaar te maken hebben. Hetzelfde met Docker. Mooie hieraan wel is is dat je kan rommelen in je container en als het een dikke bende is heb ik er zo weer één opgestart. Las hierboven ook dat het in de basis mogelijk is om een Docker container om te bouwen is naar LXC. Later vandaag weer verder op een gegeven moment viel het kwartje.

Er moet ook nog een Windows VM bij die ik benader via een external desktop tool. Sommige servers die ik wil runnen hebben alleen een Windows client/server en die werkt ook echt niet via docker/wine(heb dat al geprobeerd, het werkte maar performance was ruk).

[ Voor 8% gewijzigd door Daniel. op 24-04-2026 09:28 ]

<GoTHC>Daniel#23781 | Mijn PC


  • InjecTioN
  • Registratie: Juli 2005
  • Laatst online: 15:51

InjecTioN

¯\_(ツ)_/¯

Daniel. schreef op vrijdag 24 april 2026 @ 09:26:
[...]


Het is nog even puzzelen. Linux via terminal is voor mij het probleem niet. Denk dat zoals ik hier heb gelezen dat het beste is om zoveel mogelijk LXC te gaan gebruiken. Misschien voor een paar dingen nog wel Docker en het makkelijkst is om dat in één VM te doen i.p.v. een container vanwege stabiliteit.

Dan nog mijn aanpak. Eén LXC per applicatie of een groep applicaties in één die met elkaar te maken hebben. Hetzelfde met Docker. Mooie hieraan wel is is dat je kan rommelen in je container en als het een dikke bende is heb ik er zo weer één opgestart. Las hierboven ook dat het in de basis mogelijk is om een Docker container om te bouwen is naar LXC. Later vandaag weer verder op een gegeven moment viel het kwartje.

Klopt. Voor thuisserver gebruik zorgt een LXC voor de minste overhead. Om docker images direct in Proxmox te gaan draaien op basis van OCI images, zie ik nog niet direct zitten. De feature is echt pas nét uitgekomen sinds Proxmox 9.1.1, waardoor veel compatibiliteit die je zou verwachten nu nog mist. Ik heb mezelf voorgenomen om even te wachten met implementeren tot ergens na de zomervakantie.

Wat betreft een enkele docker LXC met meerdere containers: ik heb een LXC met docker en al mijn arr diensten. Daarnaast draai ik een LXC met zaken als frigate, caddy, opensoho, openvox (puppet), heimdall, rackpeek, portainer en nginx-proxy-manager. Gewoon omdat die niet in een losse LXC hoeven.

Dit draait eigenlijk meer dan prima zo, hoewel ik nog een paar kleine dingen wil gaan finetunen omtrent NFS en afsluit-gedrag.

1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI


  • mjustin
  • Registratie: Augustus 2019
  • Laatst online: 13-05 13:41
Daniel. schreef op vrijdag 24 april 2026 @ 00:58:
Ik ben nieuw in proxmox. Ben overgestapt van OMV naar proxmox. Wilde wat meer stabiliteit en dit leek mij de perfecte kans. Ik zit alleen te rommelen met Docker en LXV. Is het nou de bedoeling om voor iedere container een eigen lxv te maken waar ik docker apart op installeer zodat er dan een container de lucht in kan gaan. Mocht dat de way to go zijn, is dit ook op een bepaalde manier te beheren via portainer of zijn er andere betere manieren. Op google kom ik vooral redelijk oudere resultaten tegen dus wellicht zit ik verkeerd te zoeken. Het lijkt zo makkelijk, zal ook wel zo zijn zodra ik thuis ben in de materie.

Het lijkt zo niet zinvol hoe het op de meeste plekken wordt gedaan. Proxmox -> lxc (container) -> docker (container)

Ben er ook al achter gekomen dat je een docker container rechtstreeks in een LXC kan inladen. Maar dat runt dan niet onder docker. Wat raden jullie aan.

Zie op veel plekken ook, maak een VM aan en run daar docker in. Voor plex lijkt het mij via een LXC met GPU passthrough dan wel weer handig.

https://community-scripts.org/scripts

Edit: Moet gewoon even rustig de tijd nemen. Begin het door te krijgen en wat waarvoor dient. Enige wat ik dan nog even moet checken is op welke manier ik docker kan gaan gebruiken en hoe. Wil ik docker in een vm od lxc draaien met daarin meerdere docker applicaties. Of wil ik docker in een lxc draaien en dat iedere docker stack zijn eigen lxc krijgt.
Ik heb momenteel 2 VM's draaien voor Plex en een Windows VM om dingen te testen. Voor iedere docker container spin ik een LXC met Debian op, installeer daar Docker en mijn container die ik nodig heb.
Via Dockhand i.c.m. Hawser kan ik vanaf 1 centraal punt de containers beheren en logs inzien.

Vroeger had ik 1 grote VM voor al mijn Docker containers, maar als ik wat aan het rommelen was of er ging iets mis moest ik telkens een volledige backup terugzetten. Nu heb ik een backup per LXC en dus per Docker container. Gaat een update van Paperless mis, dan kan ik enkel die specifieke LXC terugdraaien zonder dat dit invloed heeft op andere containers.

Er zijn vast betere manieren maar dit is tot nu toe voor mij de meest handige optie.

  • Daniel.
  • Registratie: April 2009
  • Laatst online: 13:54
mjustin schreef op vrijdag 24 april 2026 @ 09:55:
[...]

Ik heb momenteel 2 VM's draaien voor Plex en een Windows VM om dingen te testen. Voor iedere docker container spin ik een LXC met Debian op, installeer daar Docker en mijn container die ik nodig heb.
Via Dockhand i.c.m. Hawser kan ik vanaf 1 centraal punt de containers beheren en logs inzien.

Vroeger had ik 1 grote VM voor al mijn Docker containers, maar als ik wat aan het rommelen was of er ging iets mis moest ik telkens een volledige backup terugzetten. Nu heb ik een backup per LXC en dus per Docker container. Gaat een update van Paperless mis, dan kan ik enkel die specifieke LXC terugdraaien zonder dat dit invloed heeft op andere containers.

Er zijn vast betere manieren maar dit is tot nu toe voor mij de meest handige optie.
Oh ja zoiets moet ik ook hebben dat ik het op één centraal punt kan beheren. Per container een aparte LXC en dan op één centraal punt beheren. Ik ben Portainer gewend maar als dat met Dockerhand en Hawser beter gaat is dat natuurlijk mooi.

Waarom Plex in een VM. Ik had begrepen dat die juist veel sneller is in een LXC en ik heb ook GPU passthrough nodig en dan is een LXC juist heel handig daarvoor.

[ Voor 6% gewijzigd door Daniel. op 24-04-2026 10:00 ]

<GoTHC>Daniel#23781 | Mijn PC


  • mjustin
  • Registratie: Augustus 2019
  • Laatst online: 13-05 13:41
Daniel. schreef op vrijdag 24 april 2026 @ 09:58:
[...]


Oh ja zoiets moet ik ook hebben dat ik het op één centraal punt kan beheren. Per container een aparte LXC en dan op één centraal punt beheren. Ik ben Portainer gewend maar als dat met Dockerhand en Hawser beter gaat is dat natuurlijk mooi.

Waarom Plex in een VM. Ik had begrepen dat die juist veel sneller is in een LXC en ik heb ook GPU passthrough nodig en dan is een LXC juist heel handig daarvoor.
Ik kreeg het met Portainer niet voor mekaar, want die kijkt naar de Docker host. Had ergens op Reddit gelezen dat het wel zou kunnen met Agents en die dan koppelen aan Portainer, maar toen op Dockhand gestoten en dat werkte net wat handiger hiervoor.
Als je wil kan ik je nog wel wat screenshots bezorgen hoe het ingeregeld is momenteel, stuur je maar even een DM.

Plex in de VM is een zeer simpele reden. Ik ben ooit begonnen met 1 VM "Harbour" voor alle containers en 1 VM "Media" voor Plex en een mount voor mijn NAS waar de media staat. Alle containers zijn nu gemigreerd naar LXC's intussen, maar die Plex moet ik nog eens bekijken hoe ik die eventueel kan overzetten. Ik wil namelijk de kijkhistoriek etc kunnen behouden, maar heb me er nog niet in verdiept.

  • ElCondor
  • Registratie: Juni 2001
  • Laatst online: 17:36

ElCondor

Geluk is Onmisbaar

mjustin schreef op vrijdag 24 april 2026 @ 10:07:
[...]

... Ik wil namelijk de kijkhistoriek etc kunnen behouden, maar heb me er nog niet in verdiept.
Ugh, ik heb daar wel eens onderzoek naar gedaan, twee pogingen, maar het is me nooit gelukt om de metadata (want daar hebben we het over) over te hevelen naar een andere plex instance, of zelfs maar van de ene library naar een andere library. Ik heb een library new en een library archief waar ik sommige films die ik niet direct opnieuw hoef te zien, maar ook niet direct wil weggooien, naar toe overhevel, soms met een beetje compressie, want archief. Daarbij wil ik dan wel overnemen dat de film al een aantal keer bekeken is en welke rating ik er aan geef. Nou, mooi niet mogelijk... :(

Zal te maken hebben met een potentiele vendor lock-in, zodat je niet zomaar naar een andere applicatie kunt overgaan met behoud van alle metadata. :X Wel jammer.
Iemand anders dezelfde ervaring?
Daniel. schreef op vrijdag 24 april 2026 @ 09:58:
[...]


Oh ja zoiets moet ik ook hebben dat ik het op één centraal punt kan beheren. Per container een aparte LXC en dan op één centraal punt beheren. Ik ben Portainer gewend maar als dat met Dockerhand en Hawser beter gaat is dat natuurlijk mooi.

Waarom Plex in een VM. Ik had begrepen dat die juist veel sneller is in een LXC en ik heb ook GPU passthrough nodig en dan is een LXC juist heel handig daarvoor.
Ik heb drie docker VM's: een met essentiele services, een met media services en een met pre-prod services (dingen die waar ik op basis van testing mee aan het spelen ben, om later echt te gaan gebruiken, maar waarvan ik op dit moment het niet erg vindt als de boel instort).
Daarnaast heb ik een paar LXC containers met services die ik wel wil gebruiken, maar die voor mij turnkey moeten kunnen draaien, zonder dat ik er te veel beheer op moet doen. Dit zijn over het algemeen monitoring services die niet per se met een front-end benaderd worden, maar juist door andere front-end services consumed worden, zoals Prometheus en Grafana.
Ik heb mijn containers zo veel mogelijk ingericht met NFS binds naar een centrale NAS waardoor ik alleen op de NAS configs hoef aan te passen of backups hoef te doen.
Alle composes zitten in een git repo en zijn daarmee onderhevig aan version control. Ik heb een paar services die qua config niet helemaal met een NFS bind kunnen omgaan en die zitten daarom ook vast op op een van de docker host VM's. De andere kan ik doormiddel van dockhand van de ene docker host vm naar de andere over poten door de compose op een andere host te starten.

Zoals je ziet zijn er meerdere wegen die naar Rome leiden. ;)

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • Lucky0wn
  • Registratie: Oktober 2009
  • Laatst online: 13-05 11:22
Sinds kort ben ik overgestapt op Proxmox voor mijn homelab (draaiend op een Intel N100 met 12GB RAM). Wordt binnenkort uitgebreid met een Ugreen 4800DXP Pro voor extra storage en processing power voor Immich. Ik heb veel ervaring met KVM/QEMU via Huawei DCS op mijn werk, maar de GUI-gedreven workflow inclusief de hoge customizability van Proxmox sprak me erg aan voor thuis.

Mijn huidige stack:
  • VM: OPNsense, Immich
  • LXC's: NPM, Cockpit, Plex, Tailscale, Bitwarden en een Servarr-stack (binnen Docker-LXC).
Hoewel de basis goed staat, loop ik tegen frustraties aan met USB-storage. Ik heb al een paar keer gehad dat backups per ongeluk mijn interne SSD volschreven omdat de USB-mount niet actief was, of dat configuratiebestanden van mijn Servarr-stack verdwenen na het recomposen van de docker stack in Portainer. Inmiddels heb ik alle mounts van de externe drives via fstab vastgezet, maar ik vroeg me af:

Is er een manier binnen de Proxmox GUI (of via een betrouwbare plugin/tool) om externe schijven te beheren en te mounten zonder telkens de CLI in te duiken? Merk dat mijn Linux commandline kennis me hier in de steek laat...

  • Daniel.
  • Registratie: April 2009
  • Laatst online: 13:54
De volumes wil ik inderdaad ook nog mounten aan een NFS share waar ik vervolgens weer via SMB bij kan komen. Voor wijzigingen in config files of handmatige backup. Wil dat laten beheren door iets wat niet al teveel kan. OMV heb ik ervaring mee maar liever iets wat specifiek alleen dit doet. Dat moet ik nog even uitzoeken welke ik daarvoor het beste kan gebruiken. Wellicht is TrueNAS daar beter voor.

<GoTHC>Daniel#23781 | Mijn PC


  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 17:12
Mijn aanpak is een Debian-LXC van een groep (voor mij) logisch bij elkaar horende Docker containers.
Zo heb ik een NAS-LXC met Samba (native-Debian binnen de LXC), Lyrion en Nextcloud - waarbij Nextcloud weer bestaat uit 3 docker containers: webserver, mariadb en redis.

Elke LXC heb ik voorzien van Portainer voor troubleshooting en Watchtower voor de wekelijkse update/upgrade rondes.

Docker containers worden allemaal aangemaakt via Docker-CLI scripts.

Ik gebruik PBS om 3 keer per week een backup te maken.

[ Voor 3% gewijzigd door Airw0lf op 24-04-2026 12:31 ]

makes it run like clockwork


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 14:56
Daniel. schreef op vrijdag 24 april 2026 @ 00:58:
Ik ben nieuw in proxmox. Ben overgestapt van OMV naar proxmox. Wilde wat meer stabiliteit en dit leek mij de perfecte kans. Ik zit alleen te rommelen met Docker en LXV. Is het nou de bedoeling om voor iedere container een eigen lxv te maken waar ik docker apart op installeer zodat er dan een container de lucht in kan gaan. Mocht dat de way to go zijn, is dit ook op een bepaalde manier te beheren via portainer of zijn er andere betere manieren. Op google kom ik vooral redelijk oudere resultaten tegen dus wellicht zit ik verkeerd te zoeken. Het lijkt zo makkelijk, zal ook wel zo zijn zodra ik thuis ben in de materie.

Het lijkt zo niet zinvol hoe het op de meeste plekken wordt gedaan. Proxmox -> lxc (container) -> docker (container)

Ben er ook al achter gekomen dat je een docker container rechtstreeks in een LXC kan inladen. Maar dat runt dan niet onder docker. Wat raden jullie aan.

Zie op veel plekken ook, maak een VM aan en run daar docker in. Voor plex lijkt het mij via een LXC met GPU passthrough dan wel weer handig.

https://community-scripts.org/scripts

Edit: Moet gewoon even rustig de tijd nemen. Begin het door te krijgen en wat waarvoor dient. Enige wat ik dan nog even moet checken is op welke manier ik docker kan gaan gebruiken en hoe. Wil ik docker in een vm od lxc draaien met daarin meerdere docker applicaties. Of wil ik docker in een lxc draaien en dat iedere docker stack zijn eigen lxc krijgt.
Ik denk dat er al veel goede reacties zijn gegeven. Maar ik zou willen benadrukken dat je niet alles in 1 keer hoeft te doen. Een van de mooie voordelen van het gebruik van Docker is dat je dat relatief eenvoudig kan overzetten naar een ander systeem. Waarmee ik wil zeggen, je kunt ook beginnen met een VM omdat dat het makkelijkst is. Mocht je dan vanwege de overhead (die naar mijn mening verwaarloosbaar is) dan toch zaken willen overzetten dan kan dat relatief eenvoudig.

https://dontasktoask.com/


  • Daniel.
  • Registratie: April 2009
  • Laatst online: 13:54
orvintax schreef op vrijdag 24 april 2026 @ 20:11:
[...]

Ik denk dat er al veel goede reacties zijn gegeven. Maar ik zou willen benadrukken dat je niet alles in 1 keer hoeft te doen. Een van de mooie voordelen van het gebruik van Docker is dat je dat relatief eenvoudig kan overzetten naar een ander systeem. Waarmee ik wil zeggen, je kunt ook beginnen met een VM omdat dat het makkelijkst is. Mocht je dan vanwege de overhead (die naar mijn mening verwaarloosbaar is) dan toch zaken willen overzetten dan kan dat relatief eenvoudig.
Ben al aardig op weg gekomen. Ik wilde graag bepaalde shares die ik aan containers wil koppelen kunnen beheren via SMB om er ook bestanden op te zetten. Voor de videos heb ik via de terminal een LVM RAID0 Setup draaien. Die heeft 2 8TB schijven aan elkaar geknoopt en heb ik een folder op gemaakt videos. Die koppel ik onder water aan de LXC aan de plex(deze moet ik nog maken) en op een andere container heb ik TurnKey Fileserver draaien en zo heb ik die folder gekoppeld aan een SMB Share en het werkt. :)

Toevallig is deze video (YouTube: Host NAS inside LXC Container | TurnKey FileServer LXC Template | Pr...) precies zoals ik het zocht, maar via andere handleidingen had ik het al voor elkaar gekregen maar kreeg de SMB share nog niet aan de praat zoals ik het wilde. In OMV moet je het koppelen aan een disk, maar ik wilde het koppelen aan een folder.

Begin het door te krijgen. Best leuk spul en ook mooi dat je je container helemaal om zeep kan helpen omdat je toch zo een backup en of een nieuwe in de lucht gooit.

[ Voor 21% gewijzigd door Daniel. op 25-04-2026 02:25 ]

<GoTHC>Daniel#23781 | Mijn PC


  • Cavalera125
  • Registratie: December 2003
  • Laatst online: 17:18
Mijn aanpak nu, met 2 mini PCs:

Pve1:
- Ubuntu vm met docker voor infra
- komodo, Prometheus, grafana, traefik
- Ubuntu vm met docker voor general purpose
- n8n e.d.d

Pve2:
- Home assistant os
- Ubuntu vm met docker voor media
- sonarr, jellyfin, etc.

Ik beheer de hele docker stack met komodo, de verschillende docker omgevingen via komodo periphery verbonden met de infra komodo instance. Ook Traefik is via traefik-kop over deze meerdere instances te gebruiken.

Meeste config zit in git en wordt gekoppeld / gesynchroniseerd via komodo.

Nu net een week draaien, maar blij met hoe soepel het allemaal werkt. Todo:

- proxmox backup server opties bekijken
- proxmox lxc proberen

  • batumulia
  • Registratie: Mei 2007
  • Laatst online: 13-05 19:17
Hoi allemaal, zojuist ook begonnen met Proxmox, en ik overdenk het hele gedoe een beetje denk ik. Ik wil proxmox om mijn hele stack van apps op 1 plek te krijgen (staan nu op verschillende machines). Ik heb in de proxmox server 2x26tb hdd, 1x1tb nvme, 1x2tb ssd. Ik heb de van HDDs een ZFS pool gemaakt (mirror) en van de nvme een single flash pool. Ik heb een simpele CT gemaakt met SMB er op en een data mountpoint gemaakt met de volledige 26tb van de HDDs. Denk ik goed dat ik nu in principe verschillende CTs kan opstarten, service er op kan zetten en kan wijzen naar de SMB share? Bijv, plex/*arr-stack?

Steam/Origin/Uplay: Batumulia | Star Citizen GoT organisation / Referral code | Gamerig


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 14:56
Daniel. schreef op zaterdag 25 april 2026 @ 02:23:
[...]


Ben al aardig op weg gekomen. Ik wilde graag bepaalde shares die ik aan containers wil koppelen kunnen beheren via SMB om er ook bestanden op te zetten. Voor de videos heb ik via de terminal een LVM RAID0 Setup draaien. Die heeft 2 8TB schijven aan elkaar geknoopt en heb ik een folder op gemaakt videos. Die koppel ik onder water aan de LXC aan de plex(deze moet ik nog maken) en op een andere container heb ik TurnKey Fileserver draaien en zo heb ik die folder gekoppeld aan een SMB Share en het werkt. :)

Toevallig is deze video (YouTube: Host NAS inside LXC Container | TurnKey FileServer LXC Template | Pr...) precies zoals ik het zocht, maar via andere handleidingen had ik het al voor elkaar gekregen maar kreeg de SMB share nog niet aan de praat zoals ik het wilde. In OMV moet je het koppelen aan een disk, maar ik wilde het koppelen aan een folder.

Begin het door te krijgen. Best leuk spul en ook mooi dat je je container helemaal om zeep kan helpen omdat je toch zo een backup en of een nieuwe in de lucht gooit.
Kijk eens aan :) Ik ben zelf wel benieuwd waarom je voor RAID 0 hebt gekozen?

https://dontasktoask.com/


  • thaan
  • Registratie: Oktober 2004
  • Laatst online: 10-05 22:40
batumulia schreef op zaterdag 25 april 2026 @ 16:49:
Hoi allemaal, zojuist ook begonnen met Proxmox, en ik overdenk het hele gedoe een beetje denk ik. Ik wil proxmox om mijn hele stack van apps op 1 plek te krijgen (staan nu op verschillende machines). Ik heb in de proxmox server 2x26tb hdd, 1x1tb nvme, 1x2tb ssd. Ik heb de van HDDs een ZFS pool gemaakt (mirror) en van de nvme een single flash pool. Ik heb een simpele CT gemaakt met SMB er op en een data mountpoint gemaakt met de volledige 26tb van de HDDs. Denk ik goed dat ik nu in principe verschillende CTs kan opstarten, service er op kan zetten en kan wijzen naar de SMB share? Bijv, plex/*arr-stack?
Ik heb op mijn proxmox server een VM draaien met OMV. OMV krijgt de SATA controller doorgelust waardoor hij volledig beheer heeft over de harddisks, en OMV dus SMB shares kan aanbieden aan de andere LXC's. Dan heb je er namelijk gewoon een beheer interface voor, kun je OMV zo instellen dat je 2x26TB schijven draaien in een setup die jij wilt (RAID1 of JBOD), kun je eventueel een derde schijf toevoegen die Snapraid draait, etc.
Ik heb ook 26TB schijven maar dan 3 stuks. Ik gebruik er 2 voor data via Mergerfs en 1 voor Snapraid.
Dan is het dus maar 1 schijf die aangeboden wordt via SMB aan de *arr-stack, en zorgt OMV voor het verdelen over de 2 schijven via Mergerfs en zo nu en dan een Snapraid sync draaien om te zorgen dat een kapotte schijf vervangen kan worden.

  • Daniel.
  • Registratie: April 2009
  • Laatst online: 13:54
orvintax schreef op zaterdag 25 april 2026 @ 16:52:
[...]

Kijk eens aan :) Ik ben zelf wel benieuwd waarom je voor RAID 0 hebt gekozen?
Staan alleen maar video's en series op die niet belangrijk zijn om redundant uit te voeren.

<GoTHC>Daniel#23781 | Mijn PC


  • rachez
  • Registratie: Januari 2003
  • Laatst online: 15:03
Daniel. schreef op zaterdag 25 april 2026 @ 19:17:
[...]


Staan alleen maar video's en series op die niet belangrijk zijn om redundant uit te voeren.
Dan heb je over het algemeen geen raid 0 nodig uit performance overwegingen en het geeft meer risico op data verlies ook al is het niet belangrijk.

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 16:39
Daniel. schreef op zaterdag 25 april 2026 @ 19:17:
[...]


Staan alleen maar video's en series op die niet belangrijk zijn om redundant uit te voeren.
Waarschijnlijk ben je dan beter af met iets als MergerFS. Dan heb je gewoon X hardeschijven met hun eigen filesystem. Waarvan MergerFS vervolgens een samengestelde weergave maakt die je weer ergens mount. Je plaatst bestanden dan in de samengevoegde "map" en MergerFS bepaalt automatisch op welke HDD die het bestand opslaat. En met lezen trekt die het ook automatisch van de juiste HDD af. En overlijdt een HDD heb je nog steeds de resterende HDDs / partities met hun eigen bestanden die je gewoon zelfstandig kunt uitlezen.

Dat is in ieder geval hoe ik MergerFS begrijp. Gebruik het zelf niet :p

  • Daniel.
  • Registratie: April 2009
  • Laatst online: 13:54
RobertMe schreef op zaterdag 25 april 2026 @ 20:15:
[...]

Waarschijnlijk ben je dan beter af met iets als MergerFS. Dan heb je gewoon X hardeschijven met hun eigen filesystem. Waarvan MergerFS vervolgens een samengestelde weergave maakt die je weer ergens mount. Je plaatst bestanden dan in de samengevoegde "map" en MergerFS bepaalt automatisch op welke HDD die het bestand opslaat. En met lezen trekt die het ook automatisch van de juiste HDD af. En overlijdt een HDD heb je nog steeds de resterende HDDs / partities met hun eigen bestanden die je gewoon zelfstandig kunt uitlezen.

Dat is in ieder geval hoe ik MergerFS begrijp. Gebruik het zelf niet :p
Ja dat is ook een optie. Anders moet ik daar induiken. Het gaat mij er gewoon om dat ik één grote dumpplek heb. Ik had ooit 8TB, dat was toen niet genoeg en in mijn luiheid heb ik toen maar nog ééntje van 8TB gekocht.

Ik heb er wel 4 van 3TB en die wil ik wel mirroren. Wat raden jullie aan. ZFS is ook een optie maar dat was geen aanraden voor consumenten hardeschijven. Dus ik laat mij graag adviseren.

Ben inmiddels aan de haal gegaan met Docker en gebruik toch portainer omdat het script van https://community-scripts.org/scripts?q=docker automatisch ook de agent van portainer installeert en had het in no time werkend.
Afbeeldingslocatie: https://tweakers.net/i/ukTIoTELRcmmulU1J71J5dV1Wh0=/232x232/filters:strip_exif()/f/image/R6HwLRhshHzos5cFke3e6AIO.png?f=fotoalbum_tile

[ Voor 29% gewijzigd door Daniel. op 25-04-2026 20:40 ]

<GoTHC>Daniel#23781 | Mijn PC


  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 16:39
Daniel. schreef op zaterdag 25 april 2026 @ 20:38:
Ik heb er wel 4 van 3TB en die wil ik wel mirroren. Wat raden jullie aan. ZFS is ook een optie maar dat was geen aanraden voor consumenten hardeschijven. Dus ik laat mij graag adviseren.
Ik heb al een jaar of 10 thuisservers van ZFS draaien en nog 0 issues gehad. Zeker niet met/door ZFS HDDs. If anything eerder door een gebrek aan RAM (/default config van ZFS die 50% van RAM voor ARC mag/wil gebruiken).

  • mujentas
  • Registratie: November 2012
  • Laatst online: 17:43
batumulia schreef op zaterdag 25 april 2026 @ 16:49:
Hoi allemaal, zojuist ook begonnen met Proxmox, en ik overdenk het hele gedoe een beetje denk ik. Ik wil proxmox om mijn hele stack van apps op 1 plek te krijgen (staan nu op verschillende machines). Ik heb in de proxmox server 2x26tb hdd, 1x1tb nvme, 1x2tb ssd. Ik heb de van HDDs een ZFS pool gemaakt (mirror) en van de nvme een single flash pool. Ik heb een simpele CT gemaakt met SMB er op en een data mountpoint gemaakt met de volledige 26tb van de HDDs. Denk ik goed dat ik nu in principe verschillende CTs kan opstarten, service er op kan zetten en kan wijzen naar de SMB share? Bijv, plex/*arr-stack?
Je hoeft in principe niet naar de SMB share te verwijzen. Je kunt de zfs pool mounten in je container.

Ik heb zelf ook een zfs pool op de proxmox host. Dat werkt prima. Ik gebruik alleen een smb share voor bijvoorbeeld Windows. De containers gebruiken gewoon de mount.

  • batumulia
  • Registratie: Mei 2007
  • Laatst online: 13-05 19:17
mujentas schreef op zaterdag 25 april 2026 @ 21:30:
[...]


Je hoeft in principe niet naar de SMB share te verwijzen. Je kunt de zfs pool mounten in je container.

Ik heb zelf ook een zfs pool op de proxmox host. Dat werkt prima. Ik gebruik alleen een smb share voor bijvoorbeeld Windows. De containers gebruiken gewoon de mount.
Dank je, ik heb nu inderdaad de ZFS pool aan de container gemount. Dat werkt sneller en beter :) wel een SMB container (met Cockpit) gemaakt zodat ik er makkelijk vanaf een ander systeem op kan kijken.

Steam/Origin/Uplay: Batumulia | Star Citizen GoT organisation / Referral code | Gamerig


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 14:56
Daniel. schreef op zaterdag 25 april 2026 @ 19:17:
[...]


Staan alleen maar video's en series op die niet belangrijk zijn om redundant uit te voeren.
Ik denk dat het in dit geval niet uitmaakt. Maar je kunt ook voor een JBOD achtige structuur gaan. Dan heb je nog het voordeel dat als 1 disk kapot gaat je niet meteen alles kwijt bent. Het voordeel van RAID 0 is meer snelheid, maar ook dat is hier dus verwaarloosbaar.

https://dontasktoask.com/


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 14:56
RobertMe schreef op zaterdag 25 april 2026 @ 21:24:
[...]

Ik heb al een jaar of 10 thuisservers van ZFS draaien en nog 0 issues gehad. Zeker niet met/door ZFS HDDs. If anything eerder door een gebrek aan RAM (/default config van ZFS die 50% van RAM voor ARC mag/wil gebruiken).
@Daniel. Ik sluit me hier volledig bij aan. Waar heb je vandaan dat ZFS niet zou werken met consumenten HDDs?

https://dontasktoask.com/


  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 17:12
orvintax schreef op dinsdag 28 april 2026 @ 22:03:
[...]

Ik denk dat het in dit geval niet uitmaakt. Maar je kunt ook voor een JBOD achtige structuur gaan. Dan heb je nog het voordeel dat als 1 disk kapot gaat je niet meteen alles kwijt bent. Het voordeel van RAID 0 is meer snelheid, maar ook dat is hier dus verwaarloosbaar.
Dat is me wat te kort door de bocht - de snelheidswinst van raid 0 is aanzienlijk.
De duur van een backup naar een raid-0 volume (met spindle disks) is ongeveer 66% dan diezelfde backup naar een enkele, lokaal aangesloten (spindle) disk - al dan niet uit een JBOD.

makes it run like clockwork


  • _JGC_
  • Registratie: Juli 2000
  • Nu online
orvintax schreef op dinsdag 28 april 2026 @ 22:06:
[...]

@Daniel. Ik sluit me hier volledig bij aan. Waar heb je vandaan dat ZFS niet zou werken met consumenten HDDs?
SMR disks in combinatie met oudere ZFS versies was anders behoorlijk drama. Tegenwoordig is ZFS veel slimmer bij resilver en scrub.

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 16:39
_JGC_ schreef op dinsdag 28 april 2026 @ 22:28:
[...]

SMR disks in combinatie met oudere ZFS versies was anders behoorlijk drama. Tegenwoordig is ZFS veel slimmer bij resilver en scrub.
Dat is natuurlijk een specifieke subset van "consumenten hardware". En SMR is altijd drama en staat los van ZFS bij mijn weten. Alleen bij een resilver zou je een best groot probleem kunnen krijgen door SMR. En een aantal jaren terug hebben we in het ZFS topic nog kunnen volgen hoe iemand zijn resilver verliep na het vervangen van een Seagate 2,5" 4/5TB schijfje (dus SMR). En dat liep goed af, alleen was het dus traag waardoor je extra risico loopt dat iets mis gaat.,

  • Daniel.
  • Registratie: April 2009
  • Laatst online: 13:54
Ik las op internet dat het niet aan te raden wordt op consumenten hardware.

<GoTHC>Daniel#23781 | Mijn PC


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 14:56
Airw0lf schreef op dinsdag 28 april 2026 @ 22:21:
[...]


Dat is me wat te kort door de bocht - de snelheidswinst van raid 0 is aanzienlijk.
De duur van een backup naar een raid-0 volume (met spindle disks) is ongeveer 66% dan diezelfde backup naar een enkele, lokaal aangesloten (spindle) disk - al dan niet uit een JBOD.
Ik had het dan ook heel specifiek over de usecase die OP beschreef. Namelijk: "Staan alleen maar video's en series op die niet belangrijk zijn om redundant uit te voeren."

https://dontasktoask.com/


  • _JGC_
  • Registratie: Juli 2000
  • Nu online
Daniel. schreef op dinsdag 28 april 2026 @ 23:29:
Ik las op internet dat het niet aan te raden wordt op consumenten hardware.
Ja en nee.
Voor 100% betrouwbare werking van ZFS wil je ECC geheugen. Dat zit meestal niet in consumentenhardware, maar alleen in server/workstation hardware.

ZFS berekent een checksum bij het opslaan van je data, bij het teruglezen wordt die checksum vergeleken en als die niet klopt heb je datacorruptie. Die datacorruptie heb je bij elk filesystem, maar ZFS kan het detecteren en evt automatisch corrigeren terwijl een ander filesystem je gewoon corrupte data teruggeeft.

ECC vermindert de kans op bitflips en corrupte data of corrupte checksums, maar is zeker geen vereiste voor ZFS.

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 14:56
Daniel. schreef op dinsdag 28 april 2026 @ 23:29:
Ik las op internet dat het niet aan te raden wordt op consumenten hardware.
Ik gok dat hier word gerefereerd naar het ZFS + ECC RAM dogma dat vooral een paar jaar terug heel hard werd geroepen. En laat ik voorop stellen dat professionele hardware betrouwbaarder is dan consumenten hardware. Maar er is naar mijn mening niks dat ZFS meer ongeschikt maakt voor consumenten hardware dan een andere storage stack.

https://dontasktoask.com/


  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 16:39
_JGC_ schreef op woensdag 29 april 2026 @ 12:24:
[...]

Ja en nee.
Voor 100% betrouwbare werking van ZFS wil je ECC geheugen. Dat zit meestal niet in consumentenhardware, maar alleen in server/workstation hardware.
Volgens mij is, een soort van, ECC wel weer onderdeel van DDR5?

En AMD doet ECC volgens mij wel onofficieel op consumenten hardware. En Intel weet niet wat ze wil. Ik heb een i3-9100 waar het wel op zit, net zoals de Pentium van toen. Maar de i5 en i7 zat het niet op. Daarna (10th gen) was er geen ECC (/alleen op Xeon). Tegenwoordig zit het meen ik weer wel op bepaalde consumenten CPUs maar dan weer juist "de bovenkant" (i5 / i7 / .... Of hoe het tegenwoordig heet).

  • jeroen3
  • Registratie: Mei 2010
  • Laatst online: 16:33
@orvintax mwa, ZFS heeft nog steeds behoefte aan vrij veel geheugen. En het bezit mogelijkheden die echt puur voor speciale enterprise use cases zijn. Zoals deduplicatie en L2ARC.
Als simpele "redundant storage" is ZFS uitstekend.

ZFS zal zonder ECC geheugen prima werken. Alleen je data in het geheugen (ARC) is niet beschermd.
Het is pas weer beschermd als het de pci bus op gaat naar de sata controllers.
@RobertMe DDR5 heeft error detectie op de data lijnen, niet het geheugen zelf.

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 14:56
jeroen3 schreef op woensdag 29 april 2026 @ 12:33:
@orvintax mwa, ZFS heeft nog steeds behoefte aan vrij veel geheugen. En het bezit mogelijkheden die echt puur voor speciale enterprise use cases zijn. Zoals deduplicatie en L2ARC.
Als simpele "redundant storage" is ZFS uitstekend.
Misschien heb ik het wat verwarrend opgeschreven. Maar mijn punt is dat elk filesystem baat heeft bij ECC/correct werkend geheugen. Ze gebruiken het immers allemaal. Ja, ZFS gebruikt misschien relatief meer RAM vanwege ARC, waardoor je het argument kan maken dat het daardoor meer baat heeft bij ECC geheugen. Maar ik vind dat een zwak argument.

Mijn argument was zeker niet dat ZFS niet/minder geschikt is voor professionele doeleinden.

https://dontasktoask.com/


  • maxxie85
  • Registratie: Augustus 2015
  • Laatst online: 13-05 21:36
_JGC_ schreef op woensdag 29 april 2026 @ 12:24:
[...]

Ja en nee.
Voor 100% betrouwbare werking van ZFS wil je ECC geheugen. Dat zit meestal niet in consumentenhardware, maar alleen in server/workstation hardware.
Ik zie dit nog steeds zovaak genoemd worden.
Maar door de ontwikkaars van ZFS is dit al keer op keer ontkracht.
Koop kwaliteit geheugen. Dat is belangrijker dan of het ECC is of niet. Er zitten genoeg check mechanismes in ZFS dat ECC geen vereiste is voor betere data integriteit.

  • _JGC_
  • Registratie: Juli 2000
  • Nu online
maxxie85 schreef op donderdag 30 april 2026 @ 14:42:
[...]


Ik zie dit nog steeds zovaak genoemd worden.
Maar door de ontwikkaars van ZFS is dit al keer op keer ontkracht.
Koop kwaliteit geheugen. Dat is belangrijker dan of het ECC is of niet. Er zitten genoeg check mechanismes in ZFS dat ECC geen vereiste is voor betere data integriteit.
Wat is kwaliteit?
Maar ook ECC geheugen kan kapot... belangrijk is hoe de geheugencontroller daarmee omgaat en of de rapportage door het OS wordt ondersteund.

Weet nog van die 16 servers met 4x2GB Kingston ECC geheugen destijds. Om de haverklap uitval en geen idee waar het aan lag. Memtest kon niks vinden na 3 dagen testen want ECC kon niet uit en de chipset gaf geen feedback bij corruptie. Op een gegeven moment als een server uitviel trokken we alle 4 geheugenmodules eruit en kwam daar nieuwe in, we hadden blijkbaar een batch rot geheugen ingekocht destijds.

  • lolgast
  • Registratie: November 2006
  • Laatst online: 17:34
Ik zit een beetje met een ‘intern dilemma’. Ik heb momenteel 2 PVE nodes. 1 draait altijd, 1 draait slechts sporadisch. Beide hebben ruimte voor 1 NVME en beide zijn momenteel ingericht met LVM + EXT4. De nodes beschikken over een i5-12500T met 64GB.

Ik begin de behoefte te krijgen om toch soort van HA te gebruiken en zit daarom te denken aan o.a. ZFS. Qua resources echter is het echt van de zotte om deze machines weg te doen, ik heb voorlopig ruimte zat om te groeien en ik verwacht weinig nieuws uit te rollen. Ik zit er daarom aan te denken om ZFS op een single disk te gaan draaien op beide nodes en via async mijn HA-achtige wens te vervullen. Wat denken jullie daarvan?

Data/Media komt op shared storage, ik gebruik voornamelijk LXC’s met uitzondering van Home-Assistant en Nextcloud, dat draait in VM’s.

Qua netwerk zou ik voor beide nodes een USB-C -> 2.5gbe adapter aanschaffen zodat ZFS zijn data buiten management data om kan wegschrijven

  • batumulia
  • Registratie: Mei 2007
  • Laatst online: 13-05 19:17
Zijn er hier leden die bekend zijn met een kernel panic veroorzaakt door ZFS(?)
Ik heb een VM draaien met docker, arrstack en sabnzbd. En bij downloaden van veel bestanden lijkt de ZFS stack te crashen (en daarmee de hele node). Heb RAM al een nacht laten draaien, daar kwamen geen errors uit. Ik kwam deze bugreport tegen op de github van openzfs, en lijkt als het goed is met de volgende release opgelost te worden in een patch: https://github.com/openzfs/zfs/issues/15918 maar ik vraag me af of ik niet misschien in de verkeerde hoek zit te kijken en misschien nog iets anders na kan kijken?
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
Apr 30 13:47:00 minastirith kernel: usercopy: Kernel memory overwrite attempt detected to vmalloc (offset 992400, size 232304)!
Apr 30 13:47:00 minastirith kernel: ------------[ cut here ]------------
Apr 30 13:47:00 minastirith kernel: kernel BUG at mm/usercopy.c:102!
Apr 30 13:47:00 minastirith kernel: Oops: invalid opcode: 0000 [#65] SMP PTI
Apr 30 13:47:00 minastirith kernel: CPU: 0 UID: 101001 PID: 3200 Comm: smbd[192.168.1. Tainted: P      D W  O        7.0.0-3-pve #1 PREEMPT(lazy) 
Apr 30 13:47:00 minastirith kernel: Tainted: [P]=PROPRIETARY_MODULE, [D]=DIE, [W]=WARN, [O]=OOT_MODULE
Apr 30 13:47:00 minastirith kernel: Hardware name: Dell Inc. Precision 3630 Tower/0Y2K8N, BIOS 2.26.0 12/08/2023
Apr 30 13:47:00 minastirith kernel: RIP: 0010:usercopy_abort+0x78/0x7a
Apr 30 13:47:00 minastirith kernel: Code: ac 67 19 86 eb 0e 48 c7 c2 9f f9 1b 86 48 c7 c7 49 85 18 86 56 48 89 fe 48 c7 c7 20 46 0d 86 51 48 89 c1 41 52 e8 98 4b fd ff <0f> 0b 4d 89 e0 4c 89 c9 44 89 ea 31 f6 48 c7 c7 f6 67 19 86 e8 6f
Apr 30 13:47:00 minastirith kernel: RSP: 0018:ffffcf1d077eb730 EFLAGS: 00010246
Apr 30 13:47:00 minastirith kernel: RAX: 000000000000005b RBX: ffffcf1d1669b490 RCX: 0000000000000000
Apr 30 13:47:00 minastirith kernel: RDX: 0000000000000000 RSI: 0000000000000000 RDI: 0000000000000000
Apr 30 13:47:00 minastirith kernel: RBP: ffffcf1d077eb748 R08: 0000000000000000 R09: 0000000000000000
Apr 30 13:47:00 minastirith kernel: R10: 0000000000000000 R11: 0000000000000000 R12: 0000000000038b70
Apr 30 13:47:00 minastirith kernel: R13: 0000000000000000 R14: ffffcf1d166d4000 R15: 0000000000038b70
Apr 30 13:47:00 minastirith kernel: FS:  0000762a5e0af6c0(0000) GS:ffff8cbca4f0f000(0000) knlGS:0000000000000000
Apr 30 13:47:00 minastirith kernel: CS:  0010 DS: 0000 ES: 0000 CR0: 0000000080050033
Apr 30 13:47:00 minastirith kernel: CR2: 000061564c720000 CR3: 000000010d32e003 CR4: 00000000003726f0
Apr 30 13:47:00 minastirith kernel: Call Trace:
Apr 30 13:47:00 minastirith kernel:  <TASK>
Apr 30 13:47:00 minastirith kernel:  __check_object_size.cold+0x31/0xeb
Apr 30 13:47:00 minastirith kernel:  zfs_uiomove_iter+0xa6/0x100 [zfs]
Apr 30 13:47:00 minastirith kernel:  zfs_uiomove+0x36/0x60 [zfs]
Apr 30 13:47:00 minastirith kernel:  dmu_write_uio_dnode+0xf4/0x370 [zfs]
Apr 30 13:47:00 minastirith kernel:  dmu_write_uio_dbuf+0x29/0x40 [zfs]
Apr 30 13:47:00 minastirith kernel:  zfs_write+0x5b8/0xed0 [zfs]
Apr 30 13:47:00 minastirith kernel:  zpl_iter_write+0x140/0x1e0 [zfs]
Apr 30 13:47:00 minastirith kernel:  vfs_write+0x274/0x490
Apr 30 13:47:00 minastirith kernel:  __x64_sys_pwrite64+0x98/0xd0
Apr 30 13:47:00 minastirith kernel:  x64_sys_call+0x1d12/0x2390
Apr 30 13:47:00 minastirith kernel:  do_syscall_64+0x11c/0x14e0
Apr 30 13:47:00 minastirith kernel:  ? do_syscall_64+0x311/0x14e0
Apr 30 13:47:00 minastirith kernel:  ? do_futex+0x105/0x260
Apr 30 13:47:00 minastirith kernel:  ? __x64_sys_futex+0x127/0x200
Apr 30 13:47:00 minastirith kernel:  ? restore_fpregs_from_fpstate+0x3d/0xc0
Apr 30 13:47:00 minastirith kernel:  ? switch_fpu_return+0x62/0x100
Apr 30 13:47:00 minastirith kernel:  ? do_syscall_64+0x311/0x14e0
Apr 30 13:47:00 minastirith kernel:  ? __wake_up_locked_key+0x18/0x30
Apr 30 13:47:00 minastirith kernel:  ? eventfd_write+0xe3/0x220
Apr 30 13:47:00 minastirith kernel:  ? security_file_permission+0x5b/0x170
Apr 30 13:47:00 minastirith kernel:  ? rw_verify_area+0x57/0x190
Apr 30 13:47:00 minastirith kernel:  ? futex_hash+0x88/0xa0
Apr 30 13:47:00 minastirith kernel:  ? futex_wake+0xa8/0x1d0
Apr 30 13:47:00 minastirith kernel:  ? do_futex+0x18e/0x260
Apr 30 13:47:00 minastirith kernel:  ? __x64_sys_futex+0x127/0x200
Apr 30 13:47:00 minastirith kernel:  ? x64_sys_call+0x198e/0x2390
Apr 30 13:47:00 minastirith kernel:  ? do_syscall_64+0x15a/0x14e0
Apr 30 13:47:00 minastirith kernel:  ? exc_page_fault+0x92/0x1c0
Apr 30 13:47:00 minastirith kernel:  entry_SYSCALL_64_after_hwframe+0x76/0x7e
Apr 30 13:47:00 minastirith kernel: RIP: 0033:0x762a8a7ca555
Apr 30 13:47:00 minastirith kernel: Code: Unable to access opcode bytes at 0x762a8a7ca52b.
Apr 30 13:47:00 minastirith kernel: RSP: 002b:0000762a5e0ae980 EFLAGS: 00000293 ORIG_RAX: 0000000000000012
Apr 30 13:47:00 minastirith kernel: RAX: ffffffffffffffda RBX: 0000000000400000 RCX: 0000762a8a7ca555
Apr 30 13:47:00 minastirith kernel: RDX: 0000000000400000 RSI: 000061564c56fb70 RDI: 000000000000001e
Apr 30 13:47:00 minastirith kernel: RBP: 0000762a5e0ae9a0 R08: 0000000000000000 R09: 0000000000000000
Apr 30 13:47:00 minastirith kernel: R10: 00000000747b7000 R11: 0000000000000293 R12: 00000000747b7000
Apr 30 13:47:00 minastirith kernel: R13: 0000000000400000 R14: 000061564c56fb70 R15: 000000000000001e
Apr 30 13:47:00 minastirith kernel:  </TASK>
Apr 30 13:47:00 minastirith kernel: Modules linked in: vfio_pci vfio_pci_core vfio_iommu_type1 vfio iommufd cfg80211 nfsd auth_rpcgss nfs_acl lockd grace veth tcp_diag inet_diag ebtable_filter ebtables ip_set ip6table_raw iptable_raw ip6table_filter ip6_tables iptable_filter nf_tables bonding tls sunrpc binfmt_misc nfnetlink_log mei_lb mei_gsc xe drm_gpusvm_helper gpu_sched drm_gpuvm drm_ttm_helper drm_exec drm_suballoc_helper snd_hda_codec_intelhdmi snd_hda_codec_hdmi snd_hda_codec_alc269 snd_hda_codec_realtek_lib snd_hda_scodec_component snd_hda_codec_generic snd_sof_pci_intel_cnl snd_sof_intel_hda_generic soundwire_intel snd_sof_intel_hda_sdw_bpt snd_sof_intel_hda_common snd_soc_hdac_hda snd_sof_intel_hda_mlink intel_rapl_msr snd_sof_intel_hda intel_rapl_common soundwire_cadence snd_sof_pci intel_uncore_frequency intel_uncore_frequency_common snd_sof_xtensa_dsp snd_sof snd_sof_utils intel_tcc_cooling snd_soc_acpi_intel_match x86_pkg_temp_thermal snd_soc_acpi_intel_sdca_quirks intel_powerclamp soundwire_generic_allocation snd_soc_sdw_utils
Apr 30 13:47:00 minastirith kernel:  coretemp sch_fq_codel snd_soc_acpi platform_profile soundwire_bus kvm_intel snd_soc_sdca mei_hdcp mei_pxp i915 crc8 dell_smm_hwmon kvm snd_soc_avs snd_hda_intel snd_soc_hda_codec dell_wmi snd_hda_ext_core snd_hda_codec dell_smbios snd_soc_core dell_wmi_sysman snd_hda_core irqbypass snd_compress snd_intel_dspcfg ghash_clmulni_intel dcdbas drm_buddy snd_intel_sdw_acpi ac97_bus aesni_intel rapl firmware_attributes_class snd_hwdep dell_wmi_descriptor snd_pcm_dmaengine ttm cmdlinepart intel_cstate intel_pmc_core snd_pcm pcspkr dell_wmi_aio spi_nor drm_display_helper pmt_telemetry intel_wmi_thunderbolt sparse_keymap wmi_bmof pmt_discovery mtd snd_timer cec pmt_class ee1004 mei_me intel_pmc_ssram_telemetry input_leds snd rc_core mei intel_vsec intel_pch_thermal i2c_algo_bit soundcore acpi_pad mac_hid zfs(PO) spl(O) msr vhost_net vhost vhost_iotlb tap efi_pstore nfnetlink dmi_sysfs ip_tables x_tables autofs4 btrfs libblake2b xor raid6_pq dm_thin_pool dm_persistent_data dm_bio_prison dm_bufio hid_generic usbmouse
Apr 30 13:47:00 minastirith kernel:  usbkbd usbhid hid nvme nvme_core e1000e ahci i2c_i801 xhci_pci spi_intel_pci i2c_mux spi_intel video nvme_keyring intel_lpss_pci libahci i2c_smbus nvme_auth intel_lpss xhci_hcd hkdf idma64 wmi pinctrl_cannonlake
Apr 30 13:47:00 minastirith kernel: ---[ end trace 0000000000000000 ]---
Apr 30 13:47:00 minastirith kernel: RIP: 0010:usercopy_abort+0x78/0x7a
Apr 30 13:47:00 minastirith kernel: Code: ac 67 19 86 eb 0e 48 c7 c2 9f f9 1b 86 48 c7 c7 49 85 18 86 56 48 89 fe 48 c7 c7 20 46 0d 86 51 48 89 c1 41 52 e8 98 4b fd ff <0f> 0b 4d 89 e0 4c 89 c9 44 89 ea 31 f6 48 c7 c7 f6 67 19 86 e8 6f
Apr 30 13:47:00 minastirith kernel: RSP: 0018:ffffcf1d05d87910 EFLAGS: 00010246
Apr 30 13:47:00 minastirith kernel: RAX: 000000000000005c RBX: ffffcf1d3d812d50 RCX: 0000000000000000
Apr 30 13:47:00 minastirith kernel: RDX: 0000000000000000 RSI: 0000000000000000 RDI: 0000000000000000
Apr 30 13:47:00 minastirith kernel: RBP: ffffcf1d05d87928 R08: 0000000000000000 R09: 0000000000000000
Apr 30 13:47:00 minastirith kernel: R10: 0000000000000000 R11: 0000000000000000 R12: 000000000002f2b0
Apr 30 13:47:00 minastirith kernel: R13: 0000000000000000 R14: ffffcf1d3d842000 R15: 000000000002f2b0
Apr 30 13:47:00 minastirith kernel: FS:  0000762a800f36c0(0000) GS:ffff8cbca4f0f000(0000) knlGS:0000000000000000
Apr 30 13:47:00 minastirith kernel: CS:  0010 DS: 0000 ES: 0000 CR0: 0000000080050033
Apr 30 13:47:00 minastirith kernel: CR2: 0000762a6d8ce990 CR3: 000000010d32e003 CR4: 00000000003726f0
Apr 30 13:47:00 minastirith kernel: oom_reaper: reaped process 2901 (smbd[192.168.1.), now anon-rss:0kB, file-rss:0kB, shmem-rss:4kB
Apr 30 13:47:00 minastirith kernel: RIP: 0010:usercopy_abort+0x78/0x7a
Apr 30 13:47:00 minastirith kernel: Code: ac 67 19 86 eb 0e 48 c7 c2 9f f9 1b 86 48 c7 c7 49 85 18 86 56 48 89 fe 48 c7 c7 20 46 0d 86 51 48 89 c1 41 52 e8 98 4b fd ff <0f> 0b 4d 89 e0 4c 89 c9 44 89 ea 31 f6 48 c7 c7 f6 67 19 86 e8 6f
Apr 30 13:47:00 minastirith kernel: RSP: 0018:ffffcf1d05d87910 EFLAGS: 00010246
Apr 30 13:47:00 minastirith kernel: RAX: 000000000000005c RBX: ffffcf1d3d812d50 RCX: 0000000000000000
Apr 30 13:47:00 minastirith kernel: RDX: 0000000000000000 RSI: 0000000000000000 RDI: 0000000000000000
Apr 30 13:47:00 minastirith kernel: RBP: ffffcf1d05d87928 R08: 0000000000000000 R09: 0000000000000000
Apr 30 13:47:00 minastirith kernel: R10: 0000000000000000 R11: 0000000000000000 R12: 000000000002f2b0
Apr 30 13:47:00 minastirith kernel: R13: 0000000000000000 R14: ffffcf1d3d842000 R15: 000000000002f2b0
Apr 30 13:47:00 minastirith kernel: FS:  0000762a5e0af6c0(0000) GS:ffff8cbca4f0f000(0000) knlGS:0000000000000000
Apr 30 13:47:00 minastirith kernel: CS:  0010 DS: 0000 ES: 0000 CR0: 0000000080050033
Apr 30 13:47:00 minastirith kernel: CR2: 000061564e9ae000 CR3: 000000010d32e003 CR4: 00000000003726f0
Apr 30 13:47:00 minastirith kernel: audit: type=1400 audit(1777549620.482:312): apparmor="DENIED" operation="sendmsg" class="file" namespace="root//lxc-100_<-var-lib-lxc>" profile="rsyslogd" name="/run/systemd/journal/dev-log" pid=2254 comm="systemd-journal" requested_mask="r" denied_mask="r" fsuid=100000 ouid=100000
Apr 30 13:47:00 minastirith kernel: audit: type=1400 audit(1777549620.483:313): apparmor="DENIED" operation="sendmsg" class="file" namespace="root//lxc-100_<-var-lib-lxc>" profile="rsyslogd" name="/run/systemd/journal/dev-log" pid=2254 comm="systemd-journal" requested_mask="r" denied_mask="r" fsuid=100000 ouid=100000

Steam/Origin/Uplay: Batumulia | Star Citizen GoT organisation / Referral code | Gamerig


  • tjanssen
  • Registratie: Augustus 2012
  • Niet online
@batumulia voordat deze PR in een release zit ben je wel even verder. Daarna begint het wachten voordat Proxmox zijn openzfs een update geeft. Al met al kunnen hier maanden overheen gaan...

  • tjanssen
  • Registratie: Augustus 2012
  • Niet online
Ik wil dit weekend mijn Proxmox een update geven van 8 naar 9. In de Proxmox wiki staat iin de procedure deze stap beschreven:
code:
1
2
sed -i 's/bookworm/trixie/g' /etc/apt/sources.list
sed -i 's/bookworm/trixie/g' /etc/apt/sources.list.d/pve-enterprise.list
Echter, ik heb ook nog deze staan:
code:
1
2
root@pve:/etc/apt/sources.list.d# cat /etc/apt/sources.list.d/pve-install-repo.list 
deb http://download.proxmox.com/debian/pve bookworm pve-no-subscription
Moet ik deze repo ook naar trixie zetten? Of heb ik deze repo niet (meer) nodig?

  • commentator
  • Registratie: Mei 2004
  • Laatst online: 14:37
tjanssen schreef op vrijdag 1 mei 2026 @ 13:36:
Ik wil dit weekend mijn Proxmox een update geven van 8 naar 9. In de Proxmox wiki staat iin de procedure deze stap beschreven:
code:
1
2
sed -i 's/bookworm/trixie/g' /etc/apt/sources.list
sed -i 's/bookworm/trixie/g' /etc/apt/sources.list.d/pve-enterprise.list
Echter, ik heb ook nog deze staan:
code:
1
2
root@pve:/etc/apt/sources.list.d# cat /etc/apt/sources.list.d/pve-install-repo.list 
deb http://download.proxmox.com/debian/pve bookworm pve-no-subscription
Moet ik deze repo ook naar trixie zetten? Of heb ik deze repo niet (meer) nodig?
je moet in ieder geval zorgen dat als je apt-get update draait er nergens meer bookworm staat
zelf heb ik die install repo eerder al verwijderd

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 14:56
lolgast schreef op donderdag 30 april 2026 @ 22:24:
Ik zit een beetje met een ‘intern dilemma’. Ik heb momenteel 2 PVE nodes. 1 draait altijd, 1 draait slechts sporadisch. Beide hebben ruimte voor 1 NVME en beide zijn momenteel ingericht met LVM + EXT4. De nodes beschikken over een i5-12500T met 64GB.

Ik begin de behoefte te krijgen om toch soort van HA te gebruiken en zit daarom te denken aan o.a. ZFS. Qua resources echter is het echt van de zotte om deze machines weg te doen, ik heb voorlopig ruimte zat om te groeien en ik verwacht weinig nieuws uit te rollen. Ik zit er daarom aan te denken om ZFS op een single disk te gaan draaien op beide nodes en via async mijn HA-achtige wens te vervullen. Wat denken jullie daarvan?

Data/Media komt op shared storage, ik gebruik voornamelijk LXC’s met uitzondering van Home-Assistant en Nextcloud, dat draait in VM’s.

Qua netwerk zou ik voor beide nodes een USB-C -> 2.5gbe adapter aanschaffen zodat ZFS zijn data buiten management data om kan wegschrijven
ZFS "shined" natuurlijk met meerdere/veel disks. Maar het kan nog altijd nuttig zijn/voordelen bieden met een enkele disk. Het ligt er aan wat je wilt bereiken.

Denk aan snapshotting, encryption, het makkelijk verplaatsen van data met zfs send/receive, het kan ook nog altijd corruptie detecteren. Maar herstellen gaat hem niet worden.

[ Voor 9% gewijzigd door orvintax op 01-05-2026 13:48 ]

https://dontasktoask.com/


  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 16:39
orvintax schreef op vrijdag 1 mei 2026 @ 13:47:
Maar herstellen gaat hem niet worden.
Het herstellen van? User errors? Kan prima met snapshots / replicatie. Bad sectors? Kan als je meerdere copies opslaat / op laat slaan (is een dataset? (Of pool) setting voor). Volledige uitval van een disk ga je inderdaad niet kunnen opvangen. Maar met de juiste instellingen kun je mogelijk wel bad sectors of aanverwanten herstellen. Geen idee of SSDs zoiets als bad sectors hebben. Denk het wel in de vorm van de cellen die dan 1/2/3/4 bits per stuk opslaan (bij respectievelijk SLC, MLC, TLC en QLC). Maar hoe waarschijnlijk een defecte cel is? Vs dat een hele chip uitvalt.

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 14:56
RobertMe schreef op vrijdag 1 mei 2026 @ 14:03:
[...]

Het herstellen van? User errors? Kan prima met snapshots / replicatie. Bad sectors? Kan als je meerdere copies opslaat / op laat slaan (is een dataset? (Of pool) setting voor). Volledige uitval van een disk ga je inderdaad niet kunnen opvangen. Maar met de juiste instellingen kun je mogelijk wel bad sectors of aanverwanten herstellen. Geen idee of SSDs zoiets als bad sectors hebben. Denk het wel in de vorm van de cellen die dan 1/2/3/4 bits per stuk opslaan (bij respectievelijk SLC, MLC, TLC en QLC). Maar hoe waarschijnlijk een defecte cel is? Vs dat een hele chip uitvalt.
Ik had het specifiek over corruptie. Ja, het is mogelijk om dezelfde data meerdere keren op te slaan op dezelfde disk. Daarmee zou je dus wel weer de redundantie hebben tegen corruptie. Goede toevoeging :)

https://dontasktoask.com/


  • lolgast
  • Registratie: November 2006
  • Laatst online: 17:34
orvintax schreef op vrijdag 1 mei 2026 @ 13:47:
[...]

ZFS "shined" natuurlijk met meerdere/veel disks. Maar het kan nog altijd nuttig zijn/voordelen bieden met een enkele disk. Het ligt er aan wat je wilt bereiken.

Denk aan snapshotting, encryption, het makkelijk verplaatsen van data met zfs send/receive, het kan ook nog altijd corruptie detecteren. Maar herstellen gaat hem niet worden.
Nee herstellen e.d. snap ik, er is niets om mee te herstellen. Ik wil met name wat meer zekerheid qua downtime als een host het laat afweten.

Hoe werkt dat snapshotting eigenlijk als je Proxmox er overheen gebruikt. Als ik vanuit de GUI een snapshot maak (zoals ik nu ook doe als ik dat nodig vind), gebruikt Proxmox dan automatisch de ZFS functie of moet ik dan bewust via CLI een ZFS snapshot maken?

Ik snap dat het een beetje een ‘manke’ setup wordt maar zoals ik zei, deze hardware opzij schuiven voelt echt als kapitaalvernietiging. Ik draai nu op 1 lokale NVME disk met een kopie van de back-ups naar een USB-disk dus ik durf al op het randje te leven ;)
offtopic:
Ik stuur de PBS backups ook naar Backblaze B2 storage

  • commentator
  • Registratie: Mei 2004
  • Laatst online: 14:37
lolgast schreef op vrijdag 1 mei 2026 @ 15:35:
[...]

Nee herstellen e.d. snap ik, er is niets om mee te herstellen. Ik wil met name wat meer zekerheid qua downtime als een host het laat afweten.

Hoe werkt dat snapshotting eigenlijk als je Proxmox er overheen gebruikt. Als ik vanuit de GUI een snapshot maak (zoals ik nu ook doe als ik dat nodig vind), gebruikt Proxmox dan automatisch de ZFS functie of moet ik dan bewust via CLI een ZFS snapshot maken?

Ik snap dat het een beetje een ‘manke’ setup wordt maar zoals ik zei, deze hardware opzij schuiven voelt echt als kapitaalvernietiging. Ik draai nu op 1 lokale NVME disk met een kopie van de back-ups naar een USB-disk dus ik durf al op het randje te leven ;)
offtopic:
Ik stuur de PBS backups ook naar Backblaze B2 storage
je kunt er ook 1 extra sdd aan hangen en daar pbs backups ook nog naar schrijven

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

lolgast schreef op vrijdag 1 mei 2026 @ 15:35:
[...]
Hoe werkt dat snapshotting eigenlijk als je Proxmox er overheen gebruikt. Als ik vanuit de GUI een snapshot maak (zoals ik nu ook doe als ik dat nodig vind), gebruikt Proxmox dan automatisch de ZFS functie of moet ik dan bewust via CLI een ZFS snapshot maken?
Ja, dat worden gewoon ZFS-snapshots op de achtergrond. De functie vereist zelfs dat de gebruikte storage backend snapshots kan maken.

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 15:49

zeroday

There is no alternative!

iemand https://proxcenter.io/ al in gebruik genomen ?

There are no secrets, only information you do not yet have


  • jurroen
  • Registratie: Mei 2012
  • Laatst online: 11:26

jurroen

Security en privacy geek

Nee, want:
  • Enterprise heeft geen openbare pricing informatie
  • ProxCenter is (op z'n minst deels) gevibecode
  • Het lijkt op dit moment een one man show te zijn

Ongevraagde verzoeken per DM beantwoord ik niet, sorry


  • WheeleE
  • Registratie: Juni 2001
  • Laatst online: 17:35

WheeleE

Dinges

Auw. Ik ben teveel aan het prutsen en proberen geweest in voorbereiding op een upgrade naar v9.
Apt update wilde niet meer met een 'ip unauthorised' melding, en ik zie door de bomen het bos niet meer met m'n repositories.

Afbeeldingslocatie: https://i.ibb.co/WNgtJ1d5/2026-05-08-14-31-54-pve-Proxmox-Virtual-Environment-Mozilla-Firefox.png

Ik ben nu een beetje het spoor bijster hoe alles moet staan. Kan iemand mij de juist richting op wijzen, of van de juiste instellingen voorzien?

(ik had een backup moeten maken en die veilig moeten stellen in plaats van te snel verwijderen... |:( )

  • lolgast
  • Registratie: November 2006
  • Laatst online: 17:34
@WheeleE Dit is de mijne

Afbeeldingslocatie: https://images.lolgast.nl/uploads/original/4b/ce/1bba860e2f625af62c68731e6590.png

  • WheeleE
  • Registratie: Juni 2001
  • Laatst online: 17:35

WheeleE

Dinges

@lolgast Dank! Met behulp je screenshot heb ik het weer aan de praat gekregen. Ik zit nu netjes op v9.1.9 :)

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 14:56
WheeleE schreef op vrijdag 8 mei 2026 @ 14:36:
Auw. Ik ben teveel aan het prutsen en proberen geweest in voorbereiding op een upgrade naar v9.
Apt update wilde niet meer met een 'ip unauthorised' melding, en ik zie door de bomen het bos niet meer met m'n repositories.

[Afbeelding]

Ik ben nu een beetje het spoor bijster hoe alles moet staan. Kan iemand mij de juist richting op wijzen, of van de juiste instellingen voorzien?

(ik had een backup moeten maken en die veilig moeten stellen in plaats van te snel verwijderen... |:( )
De documentatie van Proxmox ook zeker niet vergeten :) Package Repositories

https://dontasktoask.com/


  • commentator
  • Registratie: Mei 2004
  • Laatst online: 14:37
Proxmox heeft de dirty frag al gepatched dus updaten maar

  • WheeleE
  • Registratie: Juni 2001
  • Laatst online: 17:35

WheeleE

Dinges

orvintax schreef op vrijdag 8 mei 2026 @ 16:59:
[...]

De documentatie van Proxmox ook zeker niet vergeten :) Package Repositories
Die kwam ik inderdaad ook nog tegen. Maar een groot deel van die repository files sotnden nieteens in mijn omgeving. Dat zorgde ook weer voor twijfel.

Ik moet sowieso een keer een schone installatie gaan doen want het installeren van nieuw containers en updaten van sommigen loopt vast met permissie-errors.
Gelukkig draait alles wat enigszins prioriteit heeft.

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Ah, ze zijn er vlot bij met de patch gelukkig. Wel viel me nog iets op in de changelog, wellicht ook een interessante patch voor waar @batumulia tegenaan liep:
cherry-pick fix for ZFS panic when a process was OOM-killed because a
cgroup exceeded its memory limits

  • d3vlin
  • Registratie: September 2000
  • Laatst online: 15:42
Proxmox 9.1.11 met Qemu 11.0 is uit voor pve-test and pve-no-subscription:

https://forum.proxmox.com/threads/qemu-11-0-available-on-pve-test-and-pve-no-subscription-as-of-now.183494/

[ Voor 6% gewijzigd door d3vlin op 13-05-2026 16:20 ]

Leaping Lab Rats!


  • MakhouT
  • Registratie: September 2016
  • Laatst online: 07:51
Ik ben nog een beetje een noob in proxmox en ik heb hulp nodig. Om het goed te begrijpen. Kan iemand mij wegwijs maken en hoe ik het kan verbeteren?

Ik heb 2 SSD's: 1x 256gb en 1x 2TB.
  1. Waarom is de HDD van mijn PVE vol?? En vanwaar komt 66.48gb?? Dit is mij volledig een raadsel!
  2. Ik ben ook niet mee met de partitions dat er nu zijn, waar komt sda2 vandaan?
  3. Wat is LVM en LVM Thin?
  4. Zien jullie zaken dat ik vreemd doe of aanpak? Hoe kan ik dit verbeteren
  5. Afbeeldingslocatie: https://tweakers.net/i/2TKo9z8U9gYL-SLYpKj_Mjhfk6A=/800x/filters:strip_exif()/f/image/cmN3NWUyKw6YO9guEv9Uedg6.png?f=fotoalbum_large

    Afbeeldingslocatie: https://tweakers.net/i/SbpQtXMe5jgxSuDcqum4_2HeyGU=/800x/filters:strip_exif()/f/image/cspON34ie6dHnit18zTvlTtg.png?f=fotoalbum_large

    Afbeeldingslocatie: https://tweakers.net/i/B5Cl1xmleiigKi9Vsw4dTAtGCgc=/800x/filters:strip_exif()/f/image/1SsDjvY2HgpsXpAFKyoQt1Vx.png?f=fotoalbum_large

    Afbeeldingslocatie: https://tweakers.net/i/qfxvhh8aYHi5gXTT7VHuzFm2WiY=/800x/filters:strip_exif()/f/image/F1XWjg7o7xodWTMjgV4r1hr8.png?f=fotoalbum_large

    Please help :)

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 17:10
@MakhouT Wat heb je onder Local (linkerscherm onder je VMs) storage draaien? ISO's die veel opslag pakken?

Alles went behalve een Twent.
nggyu nglyd


  • MakhouT
  • Registratie: September 2016
  • Laatst online: 07:51
Quad schreef op woensdag 13 mei 2026 @ 21:31:
@MakhouT Wat heb je onder Local (linkerscherm onder je VMs) storage draaien? ISO's die veel opslag pakken?
Enkele ISO's, nog geen 10GBAfbeeldingslocatie: https://tweakers.net/i/CTyN7MhZEjOe-SlXtFD3A4zLE6w=/800x/filters:strip_exif()/f/image/dbXwIu9ZY8VOxNW42je6BziR.png?f=fotoalbum_large

EDIT: Blijkbaar heb ik heel wat backups staan, geen idee hoe die daar terechtkomen. Net even zitten zoeken en blijkbaar worden ze maandelijks aangemaakt. Ik kan mij wel niet herinneren dat ik dit had ingesteld. Maar dat heb ik dan waarschijnlijk (ooit) eens gedaan.

[ Voor 19% gewijzigd door MakhouT op 13-05-2026 21:37 ]


  • edwin2021
  • Registratie: Oktober 2020
  • Laatst online: 17:44
Wat mij daarbij helpt is een logboek bijhouden. Gewoon simpel txt bestandje waarin ik bij hou welke aanpassingen ik doe. Met F5 simpel datum/tijd invoegen.

Helpt bij troubleshooten en bij een evt rebuild.

Waarom een txt file. Simpelweg omdat dat supersnel werkt en altijd leesbaar is.

[ Voor 16% gewijzigd door edwin2021 op 14-05-2026 07:52 ]

Pagina: 1 ... 67 68 Laatste