• batumulia
  • Registratie: Mei 2007
  • Laatst online: 01-05 20:07
Hoi allemaal, zojuist ook begonnen met Proxmox, en ik overdenk het hele gedoe een beetje denk ik. Ik wil proxmox om mijn hele stack van apps op 1 plek te krijgen (staan nu op verschillende machines). Ik heb in de proxmox server 2x26tb hdd, 1x1tb nvme, 1x2tb ssd. Ik heb de van HDDs een ZFS pool gemaakt (mirror) en van de nvme een single flash pool. Ik heb een simpele CT gemaakt met SMB er op en een data mountpoint gemaakt met de volledige 26tb van de HDDs. Denk ik goed dat ik nu in principe verschillende CTs kan opstarten, service er op kan zetten en kan wijzen naar de SMB share? Bijv, plex/*arr-stack?

Steam/Origin/Uplay: Batumulia | Star Citizen GoT organisation / Referral code | Gamerig


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 02-05 00:56
Daniel. schreef op zaterdag 25 april 2026 @ 02:23:
[...]


Ben al aardig op weg gekomen. Ik wilde graag bepaalde shares die ik aan containers wil koppelen kunnen beheren via SMB om er ook bestanden op te zetten. Voor de videos heb ik via de terminal een LVM RAID0 Setup draaien. Die heeft 2 8TB schijven aan elkaar geknoopt en heb ik een folder op gemaakt videos. Die koppel ik onder water aan de LXC aan de plex(deze moet ik nog maken) en op een andere container heb ik TurnKey Fileserver draaien en zo heb ik die folder gekoppeld aan een SMB Share en het werkt. :)

Toevallig is deze video (YouTube: Host NAS inside LXC Container | TurnKey FileServer LXC Template | Pr...) precies zoals ik het zocht, maar via andere handleidingen had ik het al voor elkaar gekregen maar kreeg de SMB share nog niet aan de praat zoals ik het wilde. In OMV moet je het koppelen aan een disk, maar ik wilde het koppelen aan een folder.

Begin het door te krijgen. Best leuk spul en ook mooi dat je je container helemaal om zeep kan helpen omdat je toch zo een backup en of een nieuwe in de lucht gooit.
Kijk eens aan :) Ik ben zelf wel benieuwd waarom je voor RAID 0 hebt gekozen?

https://dontasktoask.com/


  • thaan
  • Registratie: Oktober 2004
  • Laatst online: 12:36
batumulia schreef op zaterdag 25 april 2026 @ 16:49:
Hoi allemaal, zojuist ook begonnen met Proxmox, en ik overdenk het hele gedoe een beetje denk ik. Ik wil proxmox om mijn hele stack van apps op 1 plek te krijgen (staan nu op verschillende machines). Ik heb in de proxmox server 2x26tb hdd, 1x1tb nvme, 1x2tb ssd. Ik heb de van HDDs een ZFS pool gemaakt (mirror) en van de nvme een single flash pool. Ik heb een simpele CT gemaakt met SMB er op en een data mountpoint gemaakt met de volledige 26tb van de HDDs. Denk ik goed dat ik nu in principe verschillende CTs kan opstarten, service er op kan zetten en kan wijzen naar de SMB share? Bijv, plex/*arr-stack?
Ik heb op mijn proxmox server een VM draaien met OMV. OMV krijgt de SATA controller doorgelust waardoor hij volledig beheer heeft over de harddisks, en OMV dus SMB shares kan aanbieden aan de andere LXC's. Dan heb je er namelijk gewoon een beheer interface voor, kun je OMV zo instellen dat je 2x26TB schijven draaien in een setup die jij wilt (RAID1 of JBOD), kun je eventueel een derde schijf toevoegen die Snapraid draait, etc.
Ik heb ook 26TB schijven maar dan 3 stuks. Ik gebruik er 2 voor data via Mergerfs en 1 voor Snapraid.
Dan is het dus maar 1 schijf die aangeboden wordt via SMB aan de *arr-stack, en zorgt OMV voor het verdelen over de 2 schijven via Mergerfs en zo nu en dan een Snapraid sync draaien om te zorgen dat een kapotte schijf vervangen kan worden.

  • Daniel.
  • Registratie: April 2009
  • Laatst online: 12:36
orvintax schreef op zaterdag 25 april 2026 @ 16:52:
[...]

Kijk eens aan :) Ik ben zelf wel benieuwd waarom je voor RAID 0 hebt gekozen?
Staan alleen maar video's en series op die niet belangrijk zijn om redundant uit te voeren.

<GoTHC>Daniel#23781 | Mijn PC


  • rachez
  • Registratie: Januari 2003
  • Laatst online: 02-05 20:09
Daniel. schreef op zaterdag 25 april 2026 @ 19:17:
[...]


Staan alleen maar video's en series op die niet belangrijk zijn om redundant uit te voeren.
Dan heb je over het algemeen geen raid 0 nodig uit performance overwegingen en het geeft meer risico op data verlies ook al is het niet belangrijk.

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 12:52
Daniel. schreef op zaterdag 25 april 2026 @ 19:17:
[...]


Staan alleen maar video's en series op die niet belangrijk zijn om redundant uit te voeren.
Waarschijnlijk ben je dan beter af met iets als MergerFS. Dan heb je gewoon X hardeschijven met hun eigen filesystem. Waarvan MergerFS vervolgens een samengestelde weergave maakt die je weer ergens mount. Je plaatst bestanden dan in de samengevoegde "map" en MergerFS bepaalt automatisch op welke HDD die het bestand opslaat. En met lezen trekt die het ook automatisch van de juiste HDD af. En overlijdt een HDD heb je nog steeds de resterende HDDs / partities met hun eigen bestanden die je gewoon zelfstandig kunt uitlezen.

Dat is in ieder geval hoe ik MergerFS begrijp. Gebruik het zelf niet :p

  • Daniel.
  • Registratie: April 2009
  • Laatst online: 12:36
RobertMe schreef op zaterdag 25 april 2026 @ 20:15:
[...]

Waarschijnlijk ben je dan beter af met iets als MergerFS. Dan heb je gewoon X hardeschijven met hun eigen filesystem. Waarvan MergerFS vervolgens een samengestelde weergave maakt die je weer ergens mount. Je plaatst bestanden dan in de samengevoegde "map" en MergerFS bepaalt automatisch op welke HDD die het bestand opslaat. En met lezen trekt die het ook automatisch van de juiste HDD af. En overlijdt een HDD heb je nog steeds de resterende HDDs / partities met hun eigen bestanden die je gewoon zelfstandig kunt uitlezen.

Dat is in ieder geval hoe ik MergerFS begrijp. Gebruik het zelf niet :p
Ja dat is ook een optie. Anders moet ik daar induiken. Het gaat mij er gewoon om dat ik één grote dumpplek heb. Ik had ooit 8TB, dat was toen niet genoeg en in mijn luiheid heb ik toen maar nog ééntje van 8TB gekocht.

Ik heb er wel 4 van 3TB en die wil ik wel mirroren. Wat raden jullie aan. ZFS is ook een optie maar dat was geen aanraden voor consumenten hardeschijven. Dus ik laat mij graag adviseren.

Ben inmiddels aan de haal gegaan met Docker en gebruik toch portainer omdat het script van https://community-scripts.org/scripts?q=docker automatisch ook de agent van portainer installeert en had het in no time werkend.
Afbeeldingslocatie: https://tweakers.net/i/ukTIoTELRcmmulU1J71J5dV1Wh0=/232x232/filters:strip_exif()/f/image/R6HwLRhshHzos5cFke3e6AIO.png?f=fotoalbum_tile

[ Voor 29% gewijzigd door Daniel. op 25-04-2026 20:40 ]

<GoTHC>Daniel#23781 | Mijn PC


  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 12:52
Daniel. schreef op zaterdag 25 april 2026 @ 20:38:
Ik heb er wel 4 van 3TB en die wil ik wel mirroren. Wat raden jullie aan. ZFS is ook een optie maar dat was geen aanraden voor consumenten hardeschijven. Dus ik laat mij graag adviseren.
Ik heb al een jaar of 10 thuisservers van ZFS draaien en nog 0 issues gehad. Zeker niet met/door ZFS HDDs. If anything eerder door een gebrek aan RAM (/default config van ZFS die 50% van RAM voor ARC mag/wil gebruiken).

  • mujentas
  • Registratie: November 2012
  • Laatst online: 12:44
batumulia schreef op zaterdag 25 april 2026 @ 16:49:
Hoi allemaal, zojuist ook begonnen met Proxmox, en ik overdenk het hele gedoe een beetje denk ik. Ik wil proxmox om mijn hele stack van apps op 1 plek te krijgen (staan nu op verschillende machines). Ik heb in de proxmox server 2x26tb hdd, 1x1tb nvme, 1x2tb ssd. Ik heb de van HDDs een ZFS pool gemaakt (mirror) en van de nvme een single flash pool. Ik heb een simpele CT gemaakt met SMB er op en een data mountpoint gemaakt met de volledige 26tb van de HDDs. Denk ik goed dat ik nu in principe verschillende CTs kan opstarten, service er op kan zetten en kan wijzen naar de SMB share? Bijv, plex/*arr-stack?
Je hoeft in principe niet naar de SMB share te verwijzen. Je kunt de zfs pool mounten in je container.

Ik heb zelf ook een zfs pool op de proxmox host. Dat werkt prima. Ik gebruik alleen een smb share voor bijvoorbeeld Windows. De containers gebruiken gewoon de mount.

  • batumulia
  • Registratie: Mei 2007
  • Laatst online: 01-05 20:07
mujentas schreef op zaterdag 25 april 2026 @ 21:30:
[...]


Je hoeft in principe niet naar de SMB share te verwijzen. Je kunt de zfs pool mounten in je container.

Ik heb zelf ook een zfs pool op de proxmox host. Dat werkt prima. Ik gebruik alleen een smb share voor bijvoorbeeld Windows. De containers gebruiken gewoon de mount.
Dank je, ik heb nu inderdaad de ZFS pool aan de container gemount. Dat werkt sneller en beter :) wel een SMB container (met Cockpit) gemaakt zodat ik er makkelijk vanaf een ander systeem op kan kijken.

Steam/Origin/Uplay: Batumulia | Star Citizen GoT organisation / Referral code | Gamerig


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 02-05 00:56
Daniel. schreef op zaterdag 25 april 2026 @ 19:17:
[...]


Staan alleen maar video's en series op die niet belangrijk zijn om redundant uit te voeren.
Ik denk dat het in dit geval niet uitmaakt. Maar je kunt ook voor een JBOD achtige structuur gaan. Dan heb je nog het voordeel dat als 1 disk kapot gaat je niet meteen alles kwijt bent. Het voordeel van RAID 0 is meer snelheid, maar ook dat is hier dus verwaarloosbaar.

https://dontasktoask.com/


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 02-05 00:56
RobertMe schreef op zaterdag 25 april 2026 @ 21:24:
[...]

Ik heb al een jaar of 10 thuisservers van ZFS draaien en nog 0 issues gehad. Zeker niet met/door ZFS HDDs. If anything eerder door een gebrek aan RAM (/default config van ZFS die 50% van RAM voor ARC mag/wil gebruiken).
@Daniel. Ik sluit me hier volledig bij aan. Waar heb je vandaan dat ZFS niet zou werken met consumenten HDDs?

https://dontasktoask.com/


  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 08:39
orvintax schreef op dinsdag 28 april 2026 @ 22:03:
[...]

Ik denk dat het in dit geval niet uitmaakt. Maar je kunt ook voor een JBOD achtige structuur gaan. Dan heb je nog het voordeel dat als 1 disk kapot gaat je niet meteen alles kwijt bent. Het voordeel van RAID 0 is meer snelheid, maar ook dat is hier dus verwaarloosbaar.
Dat is me wat te kort door de bocht - de snelheidswinst van raid 0 is aanzienlijk.
De duur van een backup naar een raid-0 volume (met spindle disks) is ongeveer 66% dan diezelfde backup naar een enkele, lokaal aangesloten (spindle) disk - al dan niet uit een JBOD.

makes it run like clockwork


  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 10:19
orvintax schreef op dinsdag 28 april 2026 @ 22:06:
[...]

@Daniel. Ik sluit me hier volledig bij aan. Waar heb je vandaan dat ZFS niet zou werken met consumenten HDDs?
SMR disks in combinatie met oudere ZFS versies was anders behoorlijk drama. Tegenwoordig is ZFS veel slimmer bij resilver en scrub.

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 12:52
_JGC_ schreef op dinsdag 28 april 2026 @ 22:28:
[...]

SMR disks in combinatie met oudere ZFS versies was anders behoorlijk drama. Tegenwoordig is ZFS veel slimmer bij resilver en scrub.
Dat is natuurlijk een specifieke subset van "consumenten hardware". En SMR is altijd drama en staat los van ZFS bij mijn weten. Alleen bij een resilver zou je een best groot probleem kunnen krijgen door SMR. En een aantal jaren terug hebben we in het ZFS topic nog kunnen volgen hoe iemand zijn resilver verliep na het vervangen van een Seagate 2,5" 4/5TB schijfje (dus SMR). En dat liep goed af, alleen was het dus traag waardoor je extra risico loopt dat iets mis gaat.,

  • Daniel.
  • Registratie: April 2009
  • Laatst online: 12:36
Ik las op internet dat het niet aan te raden wordt op consumenten hardware.

<GoTHC>Daniel#23781 | Mijn PC


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 02-05 00:56
Airw0lf schreef op dinsdag 28 april 2026 @ 22:21:
[...]


Dat is me wat te kort door de bocht - de snelheidswinst van raid 0 is aanzienlijk.
De duur van een backup naar een raid-0 volume (met spindle disks) is ongeveer 66% dan diezelfde backup naar een enkele, lokaal aangesloten (spindle) disk - al dan niet uit een JBOD.
Ik had het dan ook heel specifiek over de usecase die OP beschreef. Namelijk: "Staan alleen maar video's en series op die niet belangrijk zijn om redundant uit te voeren."

https://dontasktoask.com/


  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 10:19
Daniel. schreef op dinsdag 28 april 2026 @ 23:29:
Ik las op internet dat het niet aan te raden wordt op consumenten hardware.
Ja en nee.
Voor 100% betrouwbare werking van ZFS wil je ECC geheugen. Dat zit meestal niet in consumentenhardware, maar alleen in server/workstation hardware.

ZFS berekent een checksum bij het opslaan van je data, bij het teruglezen wordt die checksum vergeleken en als die niet klopt heb je datacorruptie. Die datacorruptie heb je bij elk filesystem, maar ZFS kan het detecteren en evt automatisch corrigeren terwijl een ander filesystem je gewoon corrupte data teruggeeft.

ECC vermindert de kans op bitflips en corrupte data of corrupte checksums, maar is zeker geen vereiste voor ZFS.

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 02-05 00:56
Daniel. schreef op dinsdag 28 april 2026 @ 23:29:
Ik las op internet dat het niet aan te raden wordt op consumenten hardware.
Ik gok dat hier word gerefereerd naar het ZFS + ECC RAM dogma dat vooral een paar jaar terug heel hard werd geroepen. En laat ik voorop stellen dat professionele hardware betrouwbaarder is dan consumenten hardware. Maar er is naar mijn mening niks dat ZFS meer ongeschikt maakt voor consumenten hardware dan een andere storage stack.

https://dontasktoask.com/


  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 12:52
_JGC_ schreef op woensdag 29 april 2026 @ 12:24:
[...]

Ja en nee.
Voor 100% betrouwbare werking van ZFS wil je ECC geheugen. Dat zit meestal niet in consumentenhardware, maar alleen in server/workstation hardware.
Volgens mij is, een soort van, ECC wel weer onderdeel van DDR5?

En AMD doet ECC volgens mij wel onofficieel op consumenten hardware. En Intel weet niet wat ze wil. Ik heb een i3-9100 waar het wel op zit, net zoals de Pentium van toen. Maar de i5 en i7 zat het niet op. Daarna (10th gen) was er geen ECC (/alleen op Xeon). Tegenwoordig zit het meen ik weer wel op bepaalde consumenten CPUs maar dan weer juist "de bovenkant" (i5 / i7 / .... Of hoe het tegenwoordig heet).

  • jeroen3
  • Registratie: Mei 2010
  • Nu online
@orvintax mwa, ZFS heeft nog steeds behoefte aan vrij veel geheugen. En het bezit mogelijkheden die echt puur voor speciale enterprise use cases zijn. Zoals deduplicatie en L2ARC.
Als simpele "redundant storage" is ZFS uitstekend.

ZFS zal zonder ECC geheugen prima werken. Alleen je data in het geheugen (ARC) is niet beschermd.
Het is pas weer beschermd als het de pci bus op gaat naar de sata controllers.
@RobertMe DDR5 heeft error detectie op de data lijnen, niet het geheugen zelf.

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 02-05 00:56
jeroen3 schreef op woensdag 29 april 2026 @ 12:33:
@orvintax mwa, ZFS heeft nog steeds behoefte aan vrij veel geheugen. En het bezit mogelijkheden die echt puur voor speciale enterprise use cases zijn. Zoals deduplicatie en L2ARC.
Als simpele "redundant storage" is ZFS uitstekend.
Misschien heb ik het wat verwarrend opgeschreven. Maar mijn punt is dat elk filesystem baat heeft bij ECC/correct werkend geheugen. Ze gebruiken het immers allemaal. Ja, ZFS gebruikt misschien relatief meer RAM vanwege ARC, waardoor je het argument kan maken dat het daardoor meer baat heeft bij ECC geheugen. Maar ik vind dat een zwak argument.

Mijn argument was zeker niet dat ZFS niet/minder geschikt is voor professionele doeleinden.

https://dontasktoask.com/


  • maxxie85
  • Registratie: Augustus 2015
  • Laatst online: 06:49
_JGC_ schreef op woensdag 29 april 2026 @ 12:24:
[...]

Ja en nee.
Voor 100% betrouwbare werking van ZFS wil je ECC geheugen. Dat zit meestal niet in consumentenhardware, maar alleen in server/workstation hardware.
Ik zie dit nog steeds zovaak genoemd worden.
Maar door de ontwikkaars van ZFS is dit al keer op keer ontkracht.
Koop kwaliteit geheugen. Dat is belangrijker dan of het ECC is of niet. Er zitten genoeg check mechanismes in ZFS dat ECC geen vereiste is voor betere data integriteit.

  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 10:19
maxxie85 schreef op donderdag 30 april 2026 @ 14:42:
[...]


Ik zie dit nog steeds zovaak genoemd worden.
Maar door de ontwikkaars van ZFS is dit al keer op keer ontkracht.
Koop kwaliteit geheugen. Dat is belangrijker dan of het ECC is of niet. Er zitten genoeg check mechanismes in ZFS dat ECC geen vereiste is voor betere data integriteit.
Wat is kwaliteit?
Maar ook ECC geheugen kan kapot... belangrijk is hoe de geheugencontroller daarmee omgaat en of de rapportage door het OS wordt ondersteund.

Weet nog van die 16 servers met 4x2GB Kingston ECC geheugen destijds. Om de haverklap uitval en geen idee waar het aan lag. Memtest kon niks vinden na 3 dagen testen want ECC kon niet uit en de chipset gaf geen feedback bij corruptie. Op een gegeven moment als een server uitviel trokken we alle 4 geheugenmodules eruit en kwam daar nieuwe in, we hadden blijkbaar een batch rot geheugen ingekocht destijds.

  • lolgast
  • Registratie: November 2006
  • Laatst online: 12:59
Ik zit een beetje met een ‘intern dilemma’. Ik heb momenteel 2 PVE nodes. 1 draait altijd, 1 draait slechts sporadisch. Beide hebben ruimte voor 1 NVME en beide zijn momenteel ingericht met LVM + EXT4. De nodes beschikken over een i5-12500T met 64GB.

Ik begin de behoefte te krijgen om toch soort van HA te gebruiken en zit daarom te denken aan o.a. ZFS. Qua resources echter is het echt van de zotte om deze machines weg te doen, ik heb voorlopig ruimte zat om te groeien en ik verwacht weinig nieuws uit te rollen. Ik zit er daarom aan te denken om ZFS op een single disk te gaan draaien op beide nodes en via async mijn HA-achtige wens te vervullen. Wat denken jullie daarvan?

Data/Media komt op shared storage, ik gebruik voornamelijk LXC’s met uitzondering van Home-Assistant en Nextcloud, dat draait in VM’s.

Qua netwerk zou ik voor beide nodes een USB-C -> 2.5gbe adapter aanschaffen zodat ZFS zijn data buiten management data om kan wegschrijven

  • batumulia
  • Registratie: Mei 2007
  • Laatst online: 01-05 20:07
Zijn er hier leden die bekend zijn met een kernel panic veroorzaakt door ZFS(?)
Ik heb een VM draaien met docker, arrstack en sabnzbd. En bij downloaden van veel bestanden lijkt de ZFS stack te crashen (en daarmee de hele node). Heb RAM al een nacht laten draaien, daar kwamen geen errors uit. Ik kwam deze bugreport tegen op de github van openzfs, en lijkt als het goed is met de volgende release opgelost te worden in een patch: https://github.com/openzfs/zfs/issues/15918 maar ik vraag me af of ik niet misschien in de verkeerde hoek zit te kijken en misschien nog iets anders na kan kijken?
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
Apr 30 13:47:00 minastirith kernel: usercopy: Kernel memory overwrite attempt detected to vmalloc (offset 992400, size 232304)!
Apr 30 13:47:00 minastirith kernel: ------------[ cut here ]------------
Apr 30 13:47:00 minastirith kernel: kernel BUG at mm/usercopy.c:102!
Apr 30 13:47:00 minastirith kernel: Oops: invalid opcode: 0000 [#65] SMP PTI
Apr 30 13:47:00 minastirith kernel: CPU: 0 UID: 101001 PID: 3200 Comm: smbd[192.168.1. Tainted: P      D W  O        7.0.0-3-pve #1 PREEMPT(lazy) 
Apr 30 13:47:00 minastirith kernel: Tainted: [P]=PROPRIETARY_MODULE, [D]=DIE, [W]=WARN, [O]=OOT_MODULE
Apr 30 13:47:00 minastirith kernel: Hardware name: Dell Inc. Precision 3630 Tower/0Y2K8N, BIOS 2.26.0 12/08/2023
Apr 30 13:47:00 minastirith kernel: RIP: 0010:usercopy_abort+0x78/0x7a
Apr 30 13:47:00 minastirith kernel: Code: ac 67 19 86 eb 0e 48 c7 c2 9f f9 1b 86 48 c7 c7 49 85 18 86 56 48 89 fe 48 c7 c7 20 46 0d 86 51 48 89 c1 41 52 e8 98 4b fd ff <0f> 0b 4d 89 e0 4c 89 c9 44 89 ea 31 f6 48 c7 c7 f6 67 19 86 e8 6f
Apr 30 13:47:00 minastirith kernel: RSP: 0018:ffffcf1d077eb730 EFLAGS: 00010246
Apr 30 13:47:00 minastirith kernel: RAX: 000000000000005b RBX: ffffcf1d1669b490 RCX: 0000000000000000
Apr 30 13:47:00 minastirith kernel: RDX: 0000000000000000 RSI: 0000000000000000 RDI: 0000000000000000
Apr 30 13:47:00 minastirith kernel: RBP: ffffcf1d077eb748 R08: 0000000000000000 R09: 0000000000000000
Apr 30 13:47:00 minastirith kernel: R10: 0000000000000000 R11: 0000000000000000 R12: 0000000000038b70
Apr 30 13:47:00 minastirith kernel: R13: 0000000000000000 R14: ffffcf1d166d4000 R15: 0000000000038b70
Apr 30 13:47:00 minastirith kernel: FS:  0000762a5e0af6c0(0000) GS:ffff8cbca4f0f000(0000) knlGS:0000000000000000
Apr 30 13:47:00 minastirith kernel: CS:  0010 DS: 0000 ES: 0000 CR0: 0000000080050033
Apr 30 13:47:00 minastirith kernel: CR2: 000061564c720000 CR3: 000000010d32e003 CR4: 00000000003726f0
Apr 30 13:47:00 minastirith kernel: Call Trace:
Apr 30 13:47:00 minastirith kernel:  <TASK>
Apr 30 13:47:00 minastirith kernel:  __check_object_size.cold+0x31/0xeb
Apr 30 13:47:00 minastirith kernel:  zfs_uiomove_iter+0xa6/0x100 [zfs]
Apr 30 13:47:00 minastirith kernel:  zfs_uiomove+0x36/0x60 [zfs]
Apr 30 13:47:00 minastirith kernel:  dmu_write_uio_dnode+0xf4/0x370 [zfs]
Apr 30 13:47:00 minastirith kernel:  dmu_write_uio_dbuf+0x29/0x40 [zfs]
Apr 30 13:47:00 minastirith kernel:  zfs_write+0x5b8/0xed0 [zfs]
Apr 30 13:47:00 minastirith kernel:  zpl_iter_write+0x140/0x1e0 [zfs]
Apr 30 13:47:00 minastirith kernel:  vfs_write+0x274/0x490
Apr 30 13:47:00 minastirith kernel:  __x64_sys_pwrite64+0x98/0xd0
Apr 30 13:47:00 minastirith kernel:  x64_sys_call+0x1d12/0x2390
Apr 30 13:47:00 minastirith kernel:  do_syscall_64+0x11c/0x14e0
Apr 30 13:47:00 minastirith kernel:  ? do_syscall_64+0x311/0x14e0
Apr 30 13:47:00 minastirith kernel:  ? do_futex+0x105/0x260
Apr 30 13:47:00 minastirith kernel:  ? __x64_sys_futex+0x127/0x200
Apr 30 13:47:00 minastirith kernel:  ? restore_fpregs_from_fpstate+0x3d/0xc0
Apr 30 13:47:00 minastirith kernel:  ? switch_fpu_return+0x62/0x100
Apr 30 13:47:00 minastirith kernel:  ? do_syscall_64+0x311/0x14e0
Apr 30 13:47:00 minastirith kernel:  ? __wake_up_locked_key+0x18/0x30
Apr 30 13:47:00 minastirith kernel:  ? eventfd_write+0xe3/0x220
Apr 30 13:47:00 minastirith kernel:  ? security_file_permission+0x5b/0x170
Apr 30 13:47:00 minastirith kernel:  ? rw_verify_area+0x57/0x190
Apr 30 13:47:00 minastirith kernel:  ? futex_hash+0x88/0xa0
Apr 30 13:47:00 minastirith kernel:  ? futex_wake+0xa8/0x1d0
Apr 30 13:47:00 minastirith kernel:  ? do_futex+0x18e/0x260
Apr 30 13:47:00 minastirith kernel:  ? __x64_sys_futex+0x127/0x200
Apr 30 13:47:00 minastirith kernel:  ? x64_sys_call+0x198e/0x2390
Apr 30 13:47:00 minastirith kernel:  ? do_syscall_64+0x15a/0x14e0
Apr 30 13:47:00 minastirith kernel:  ? exc_page_fault+0x92/0x1c0
Apr 30 13:47:00 minastirith kernel:  entry_SYSCALL_64_after_hwframe+0x76/0x7e
Apr 30 13:47:00 minastirith kernel: RIP: 0033:0x762a8a7ca555
Apr 30 13:47:00 minastirith kernel: Code: Unable to access opcode bytes at 0x762a8a7ca52b.
Apr 30 13:47:00 minastirith kernel: RSP: 002b:0000762a5e0ae980 EFLAGS: 00000293 ORIG_RAX: 0000000000000012
Apr 30 13:47:00 minastirith kernel: RAX: ffffffffffffffda RBX: 0000000000400000 RCX: 0000762a8a7ca555
Apr 30 13:47:00 minastirith kernel: RDX: 0000000000400000 RSI: 000061564c56fb70 RDI: 000000000000001e
Apr 30 13:47:00 minastirith kernel: RBP: 0000762a5e0ae9a0 R08: 0000000000000000 R09: 0000000000000000
Apr 30 13:47:00 minastirith kernel: R10: 00000000747b7000 R11: 0000000000000293 R12: 00000000747b7000
Apr 30 13:47:00 minastirith kernel: R13: 0000000000400000 R14: 000061564c56fb70 R15: 000000000000001e
Apr 30 13:47:00 minastirith kernel:  </TASK>
Apr 30 13:47:00 minastirith kernel: Modules linked in: vfio_pci vfio_pci_core vfio_iommu_type1 vfio iommufd cfg80211 nfsd auth_rpcgss nfs_acl lockd grace veth tcp_diag inet_diag ebtable_filter ebtables ip_set ip6table_raw iptable_raw ip6table_filter ip6_tables iptable_filter nf_tables bonding tls sunrpc binfmt_misc nfnetlink_log mei_lb mei_gsc xe drm_gpusvm_helper gpu_sched drm_gpuvm drm_ttm_helper drm_exec drm_suballoc_helper snd_hda_codec_intelhdmi snd_hda_codec_hdmi snd_hda_codec_alc269 snd_hda_codec_realtek_lib snd_hda_scodec_component snd_hda_codec_generic snd_sof_pci_intel_cnl snd_sof_intel_hda_generic soundwire_intel snd_sof_intel_hda_sdw_bpt snd_sof_intel_hda_common snd_soc_hdac_hda snd_sof_intel_hda_mlink intel_rapl_msr snd_sof_intel_hda intel_rapl_common soundwire_cadence snd_sof_pci intel_uncore_frequency intel_uncore_frequency_common snd_sof_xtensa_dsp snd_sof snd_sof_utils intel_tcc_cooling snd_soc_acpi_intel_match x86_pkg_temp_thermal snd_soc_acpi_intel_sdca_quirks intel_powerclamp soundwire_generic_allocation snd_soc_sdw_utils
Apr 30 13:47:00 minastirith kernel:  coretemp sch_fq_codel snd_soc_acpi platform_profile soundwire_bus kvm_intel snd_soc_sdca mei_hdcp mei_pxp i915 crc8 dell_smm_hwmon kvm snd_soc_avs snd_hda_intel snd_soc_hda_codec dell_wmi snd_hda_ext_core snd_hda_codec dell_smbios snd_soc_core dell_wmi_sysman snd_hda_core irqbypass snd_compress snd_intel_dspcfg ghash_clmulni_intel dcdbas drm_buddy snd_intel_sdw_acpi ac97_bus aesni_intel rapl firmware_attributes_class snd_hwdep dell_wmi_descriptor snd_pcm_dmaengine ttm cmdlinepart intel_cstate intel_pmc_core snd_pcm pcspkr dell_wmi_aio spi_nor drm_display_helper pmt_telemetry intel_wmi_thunderbolt sparse_keymap wmi_bmof pmt_discovery mtd snd_timer cec pmt_class ee1004 mei_me intel_pmc_ssram_telemetry input_leds snd rc_core mei intel_vsec intel_pch_thermal i2c_algo_bit soundcore acpi_pad mac_hid zfs(PO) spl(O) msr vhost_net vhost vhost_iotlb tap efi_pstore nfnetlink dmi_sysfs ip_tables x_tables autofs4 btrfs libblake2b xor raid6_pq dm_thin_pool dm_persistent_data dm_bio_prison dm_bufio hid_generic usbmouse
Apr 30 13:47:00 minastirith kernel:  usbkbd usbhid hid nvme nvme_core e1000e ahci i2c_i801 xhci_pci spi_intel_pci i2c_mux spi_intel video nvme_keyring intel_lpss_pci libahci i2c_smbus nvme_auth intel_lpss xhci_hcd hkdf idma64 wmi pinctrl_cannonlake
Apr 30 13:47:00 minastirith kernel: ---[ end trace 0000000000000000 ]---
Apr 30 13:47:00 minastirith kernel: RIP: 0010:usercopy_abort+0x78/0x7a
Apr 30 13:47:00 minastirith kernel: Code: ac 67 19 86 eb 0e 48 c7 c2 9f f9 1b 86 48 c7 c7 49 85 18 86 56 48 89 fe 48 c7 c7 20 46 0d 86 51 48 89 c1 41 52 e8 98 4b fd ff <0f> 0b 4d 89 e0 4c 89 c9 44 89 ea 31 f6 48 c7 c7 f6 67 19 86 e8 6f
Apr 30 13:47:00 minastirith kernel: RSP: 0018:ffffcf1d05d87910 EFLAGS: 00010246
Apr 30 13:47:00 minastirith kernel: RAX: 000000000000005c RBX: ffffcf1d3d812d50 RCX: 0000000000000000
Apr 30 13:47:00 minastirith kernel: RDX: 0000000000000000 RSI: 0000000000000000 RDI: 0000000000000000
Apr 30 13:47:00 minastirith kernel: RBP: ffffcf1d05d87928 R08: 0000000000000000 R09: 0000000000000000
Apr 30 13:47:00 minastirith kernel: R10: 0000000000000000 R11: 0000000000000000 R12: 000000000002f2b0
Apr 30 13:47:00 minastirith kernel: R13: 0000000000000000 R14: ffffcf1d3d842000 R15: 000000000002f2b0
Apr 30 13:47:00 minastirith kernel: FS:  0000762a800f36c0(0000) GS:ffff8cbca4f0f000(0000) knlGS:0000000000000000
Apr 30 13:47:00 minastirith kernel: CS:  0010 DS: 0000 ES: 0000 CR0: 0000000080050033
Apr 30 13:47:00 minastirith kernel: CR2: 0000762a6d8ce990 CR3: 000000010d32e003 CR4: 00000000003726f0
Apr 30 13:47:00 minastirith kernel: oom_reaper: reaped process 2901 (smbd[192.168.1.), now anon-rss:0kB, file-rss:0kB, shmem-rss:4kB
Apr 30 13:47:00 minastirith kernel: RIP: 0010:usercopy_abort+0x78/0x7a
Apr 30 13:47:00 minastirith kernel: Code: ac 67 19 86 eb 0e 48 c7 c2 9f f9 1b 86 48 c7 c7 49 85 18 86 56 48 89 fe 48 c7 c7 20 46 0d 86 51 48 89 c1 41 52 e8 98 4b fd ff <0f> 0b 4d 89 e0 4c 89 c9 44 89 ea 31 f6 48 c7 c7 f6 67 19 86 e8 6f
Apr 30 13:47:00 minastirith kernel: RSP: 0018:ffffcf1d05d87910 EFLAGS: 00010246
Apr 30 13:47:00 minastirith kernel: RAX: 000000000000005c RBX: ffffcf1d3d812d50 RCX: 0000000000000000
Apr 30 13:47:00 minastirith kernel: RDX: 0000000000000000 RSI: 0000000000000000 RDI: 0000000000000000
Apr 30 13:47:00 minastirith kernel: RBP: ffffcf1d05d87928 R08: 0000000000000000 R09: 0000000000000000
Apr 30 13:47:00 minastirith kernel: R10: 0000000000000000 R11: 0000000000000000 R12: 000000000002f2b0
Apr 30 13:47:00 minastirith kernel: R13: 0000000000000000 R14: ffffcf1d3d842000 R15: 000000000002f2b0
Apr 30 13:47:00 minastirith kernel: FS:  0000762a5e0af6c0(0000) GS:ffff8cbca4f0f000(0000) knlGS:0000000000000000
Apr 30 13:47:00 minastirith kernel: CS:  0010 DS: 0000 ES: 0000 CR0: 0000000080050033
Apr 30 13:47:00 minastirith kernel: CR2: 000061564e9ae000 CR3: 000000010d32e003 CR4: 00000000003726f0
Apr 30 13:47:00 minastirith kernel: audit: type=1400 audit(1777549620.482:312): apparmor="DENIED" operation="sendmsg" class="file" namespace="root//lxc-100_<-var-lib-lxc>" profile="rsyslogd" name="/run/systemd/journal/dev-log" pid=2254 comm="systemd-journal" requested_mask="r" denied_mask="r" fsuid=100000 ouid=100000
Apr 30 13:47:00 minastirith kernel: audit: type=1400 audit(1777549620.483:313): apparmor="DENIED" operation="sendmsg" class="file" namespace="root//lxc-100_<-var-lib-lxc>" profile="rsyslogd" name="/run/systemd/journal/dev-log" pid=2254 comm="systemd-journal" requested_mask="r" denied_mask="r" fsuid=100000 ouid=100000

Steam/Origin/Uplay: Batumulia | Star Citizen GoT organisation / Referral code | Gamerig


  • tjanssen
  • Registratie: Augustus 2012
  • Niet online
@batumulia voordat deze PR in een release zit ben je wel even verder. Daarna begint het wachten voordat Proxmox zijn openzfs een update geeft. Al met al kunnen hier maanden overheen gaan...

  • tjanssen
  • Registratie: Augustus 2012
  • Niet online
Ik wil dit weekend mijn Proxmox een update geven van 8 naar 9. In de Proxmox wiki staat iin de procedure deze stap beschreven:
code:
1
2
sed -i 's/bookworm/trixie/g' /etc/apt/sources.list
sed -i 's/bookworm/trixie/g' /etc/apt/sources.list.d/pve-enterprise.list
Echter, ik heb ook nog deze staan:
code:
1
2
root@pve:/etc/apt/sources.list.d# cat /etc/apt/sources.list.d/pve-install-repo.list 
deb http://download.proxmox.com/debian/pve bookworm pve-no-subscription
Moet ik deze repo ook naar trixie zetten? Of heb ik deze repo niet (meer) nodig?

  • commentator
  • Registratie: Mei 2004
  • Laatst online: 02-05 18:52
tjanssen schreef op vrijdag 1 mei 2026 @ 13:36:
Ik wil dit weekend mijn Proxmox een update geven van 8 naar 9. In de Proxmox wiki staat iin de procedure deze stap beschreven:
code:
1
2
sed -i 's/bookworm/trixie/g' /etc/apt/sources.list
sed -i 's/bookworm/trixie/g' /etc/apt/sources.list.d/pve-enterprise.list
Echter, ik heb ook nog deze staan:
code:
1
2
root@pve:/etc/apt/sources.list.d# cat /etc/apt/sources.list.d/pve-install-repo.list 
deb http://download.proxmox.com/debian/pve bookworm pve-no-subscription
Moet ik deze repo ook naar trixie zetten? Of heb ik deze repo niet (meer) nodig?
je moet in ieder geval zorgen dat als je apt-get update draait er nergens meer bookworm staat
zelf heb ik die install repo eerder al verwijderd

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 02-05 00:56
lolgast schreef op donderdag 30 april 2026 @ 22:24:
Ik zit een beetje met een ‘intern dilemma’. Ik heb momenteel 2 PVE nodes. 1 draait altijd, 1 draait slechts sporadisch. Beide hebben ruimte voor 1 NVME en beide zijn momenteel ingericht met LVM + EXT4. De nodes beschikken over een i5-12500T met 64GB.

Ik begin de behoefte te krijgen om toch soort van HA te gebruiken en zit daarom te denken aan o.a. ZFS. Qua resources echter is het echt van de zotte om deze machines weg te doen, ik heb voorlopig ruimte zat om te groeien en ik verwacht weinig nieuws uit te rollen. Ik zit er daarom aan te denken om ZFS op een single disk te gaan draaien op beide nodes en via async mijn HA-achtige wens te vervullen. Wat denken jullie daarvan?

Data/Media komt op shared storage, ik gebruik voornamelijk LXC’s met uitzondering van Home-Assistant en Nextcloud, dat draait in VM’s.

Qua netwerk zou ik voor beide nodes een USB-C -> 2.5gbe adapter aanschaffen zodat ZFS zijn data buiten management data om kan wegschrijven
ZFS "shined" natuurlijk met meerdere/veel disks. Maar het kan nog altijd nuttig zijn/voordelen bieden met een enkele disk. Het ligt er aan wat je wilt bereiken.

Denk aan snapshotting, encryption, het makkelijk verplaatsen van data met zfs send/receive, het kan ook nog altijd corruptie detecteren. Maar herstellen gaat hem niet worden.

[ Voor 9% gewijzigd door orvintax op 01-05-2026 13:48 ]

https://dontasktoask.com/


  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 12:52
orvintax schreef op vrijdag 1 mei 2026 @ 13:47:
Maar herstellen gaat hem niet worden.
Het herstellen van? User errors? Kan prima met snapshots / replicatie. Bad sectors? Kan als je meerdere copies opslaat / op laat slaan (is een dataset? (Of pool) setting voor). Volledige uitval van een disk ga je inderdaad niet kunnen opvangen. Maar met de juiste instellingen kun je mogelijk wel bad sectors of aanverwanten herstellen. Geen idee of SSDs zoiets als bad sectors hebben. Denk het wel in de vorm van de cellen die dan 1/2/3/4 bits per stuk opslaan (bij respectievelijk SLC, MLC, TLC en QLC). Maar hoe waarschijnlijk een defecte cel is? Vs dat een hele chip uitvalt.

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 02-05 00:56
RobertMe schreef op vrijdag 1 mei 2026 @ 14:03:
[...]

Het herstellen van? User errors? Kan prima met snapshots / replicatie. Bad sectors? Kan als je meerdere copies opslaat / op laat slaan (is een dataset? (Of pool) setting voor). Volledige uitval van een disk ga je inderdaad niet kunnen opvangen. Maar met de juiste instellingen kun je mogelijk wel bad sectors of aanverwanten herstellen. Geen idee of SSDs zoiets als bad sectors hebben. Denk het wel in de vorm van de cellen die dan 1/2/3/4 bits per stuk opslaan (bij respectievelijk SLC, MLC, TLC en QLC). Maar hoe waarschijnlijk een defecte cel is? Vs dat een hele chip uitvalt.
Ik had het specifiek over corruptie. Ja, het is mogelijk om dezelfde data meerdere keren op te slaan op dezelfde disk. Daarmee zou je dus wel weer de redundantie hebben tegen corruptie. Goede toevoeging :)

https://dontasktoask.com/


  • lolgast
  • Registratie: November 2006
  • Laatst online: 12:59
orvintax schreef op vrijdag 1 mei 2026 @ 13:47:
[...]

ZFS "shined" natuurlijk met meerdere/veel disks. Maar het kan nog altijd nuttig zijn/voordelen bieden met een enkele disk. Het ligt er aan wat je wilt bereiken.

Denk aan snapshotting, encryption, het makkelijk verplaatsen van data met zfs send/receive, het kan ook nog altijd corruptie detecteren. Maar herstellen gaat hem niet worden.
Nee herstellen e.d. snap ik, er is niets om mee te herstellen. Ik wil met name wat meer zekerheid qua downtime als een host het laat afweten.

Hoe werkt dat snapshotting eigenlijk als je Proxmox er overheen gebruikt. Als ik vanuit de GUI een snapshot maak (zoals ik nu ook doe als ik dat nodig vind), gebruikt Proxmox dan automatisch de ZFS functie of moet ik dan bewust via CLI een ZFS snapshot maken?

Ik snap dat het een beetje een ‘manke’ setup wordt maar zoals ik zei, deze hardware opzij schuiven voelt echt als kapitaalvernietiging. Ik draai nu op 1 lokale NVME disk met een kopie van de back-ups naar een USB-disk dus ik durf al op het randje te leven ;)
offtopic:
Ik stuur de PBS backups ook naar Backblaze B2 storage

  • commentator
  • Registratie: Mei 2004
  • Laatst online: 02-05 18:52
lolgast schreef op vrijdag 1 mei 2026 @ 15:35:
[...]

Nee herstellen e.d. snap ik, er is niets om mee te herstellen. Ik wil met name wat meer zekerheid qua downtime als een host het laat afweten.

Hoe werkt dat snapshotting eigenlijk als je Proxmox er overheen gebruikt. Als ik vanuit de GUI een snapshot maak (zoals ik nu ook doe als ik dat nodig vind), gebruikt Proxmox dan automatisch de ZFS functie of moet ik dan bewust via CLI een ZFS snapshot maken?

Ik snap dat het een beetje een ‘manke’ setup wordt maar zoals ik zei, deze hardware opzij schuiven voelt echt als kapitaalvernietiging. Ik draai nu op 1 lokale NVME disk met een kopie van de back-ups naar een USB-disk dus ik durf al op het randje te leven ;)
offtopic:
Ik stuur de PBS backups ook naar Backblaze B2 storage
je kunt er ook 1 extra sdd aan hangen en daar pbs backups ook nog naar schrijven

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

lolgast schreef op vrijdag 1 mei 2026 @ 15:35:
[...]
Hoe werkt dat snapshotting eigenlijk als je Proxmox er overheen gebruikt. Als ik vanuit de GUI een snapshot maak (zoals ik nu ook doe als ik dat nodig vind), gebruikt Proxmox dan automatisch de ZFS functie of moet ik dan bewust via CLI een ZFS snapshot maken?
Ja, dat worden gewoon ZFS-snapshots op de achtergrond. De functie vereist zelfs dat de gebruikte storage backend snapshots kan maken.
Pagina: 1 ... 67 68 Laatste