Acties:
  • 0 Henk 'm!

  • Flappie
  • Registratie: Februari 2001
  • Laatst online: 13-10 20:06
Navi schreef op dinsdag 16 september 2025 @ 20:40:
[...]


Moet je niet gewoon even --clear-needs-check-flag toevoegen aan de options?
Ja, dat had ik geprobeerd maar dan deed mijn storage het niet meer en konden de vm's dus niet starten.

Uiteindelijk maar gewoon de update gedaan. Tijdens het update proces werd ik gevraagd of ik lvm.conf wilde overschrijving met een nieuwe default versie. Dat maar gedaan en na de upgrade werkte alles naar behoren ook zonder de no-mappings parameter.

Ik vraag me eigenlijk nu vooral af waarom die check word gedaan als de upgrade toch een nieuwe default lvm.conf installeert.

  • sloth
  • Registratie: Januari 2010
  • Niet online
Hoe maken jullie offsite backups van VMs of containers?

Wat ik wil doen is automatisch een VM backuppen naar s3 storage. Wat ik nu al heb:

Automatische backup job van de VM in PVE
LXC met rclone en een bind mount naar de PVE host backup locatie (RO)
rclone copy naar AWS s3 bucket met beperkte permissions

Wat nog moet gebeuren is een cron job oid in de container of op de host om bijvoorbeeld 1x per maand de rclone copy uit te voeren.

Dit lijkt wel zo een houtje touwtje oplossing...
PBS heb ik ook overwogen. Vanaf versie 4 heb je ook s3 support in preview. Iemand daar ervaring mee? Of andere opties?

Acties:
  • +2 Henk 'm!

  • nassau
  • Registratie: December 2000
  • Laatst online: 13-10 12:30
sloth schreef op zaterdag 20 september 2025 @ 10:38:
Hoe maken jullie offsite backups van VMs of containers?

Wat ik wil doen is automatisch een VM backuppen naar s3 storage. Wat ik nu al heb:

Automatische backup job van de VM in PVE
LXC met rclone en een bind mount naar de PVE host backup locatie (RO)
rclone copy naar AWS s3 bucket met beperkte permissions

Wat nog moet gebeuren is een cron job oid in de container of op de host om bijvoorbeeld 1x per maand de rclone copy uit te voeren.

Dit lijkt wel zo een houtje touwtje oplossing...
PBS heb ik ook overwogen. Vanaf versie 4 heb je ook s3 support in preview. Iemand daar ervaring mee? Of andere opties?
PBS is zoveel makkelijker om dit te regelen …

ik heb het als een VM draaien op mijn NAS. Alle backups naar een NFS share. Vanuit NAS een rsync job naar een externe storagebox (Hetzner). Draai ook nog een zelfde replicatie naar een externe SSD voor de zekerheid.

S3 in 4.0 zou goed moeten werken, zelf nog geen ervaring mee.

Acties:
  • +1 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 10:04
Vandaag mijn PVE 8 >9 upgrade ( duurde een uur) gedaan en ook gelijk PBS 3>4
Maar LXC upgrade moet ik nog even uitvogelen. Ze werken allemaal maar zitten nog wel op bookworm.

Mijn LXC update stappen (zou wellicht beter kunnen maar werkt ;) )
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
apt full-upgrade

sed -i 's/bookworm/trixie/g' /etc/apt/sources.list

apt update

apt upgrade --without-new-pkgs -y

apt full-upgrade -y

apt autoremove --purge -y
reboot
## check_version: 
cat /etc/*-release

^^ PS bestaand doet ook ergens nog een python update en als je LXC software daar kritish over is dan goed om het monitoren (of in ieder geval backup vooraf)

[ Voor 59% gewijzigd door The-Source op 20-09-2025 17:43 ]

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • +1 Henk 'm!

  • HellStorm666
  • Registratie: April 2007
  • Laatst online: 12-10 15:48

HellStorm666

BMW S1000XR / Audi S6 Avant C7

Voor debian 13 kan je tegenwoordig ook
code:
1
apt dist-upgrade -y --update
doen.
Die
code:
1
--update
kan er sowieso altijd achter, waardoor ie zelf een apt update doet als t nodig is.

[ Voor 8% gewijzigd door HellStorm666 op 23-09-2025 19:47 ]

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666
19x Q.Cell G5 325wp op APsystems QS1


Acties:
  • 0 Henk 'm!

  • BJozi
  • Registratie: Augustus 2024
  • Laatst online: 12-10 16:49
Ik heb hulp nodig met iets dat makkelijker in mijn hoofd had geweest.

Ik heb een 1tb nvme waarop proxmox is geïnstalleerd. Proxmox heeft de nodige partitions gemaakt met als gevolg dat ik 800+gb ruimte heb (voor denk ik containers).

Voorheen had ik een kleine os drive, nu deze groter is wilde ik de download map voor sabnzbd (lxc) in dat 800gb volume maken. Ik kan alleen niet vinden hoe ik dit kan doen? Chatgpt maakt het alleen maar meer verwarrend, heeft iemand een tutorial die dit goed uitgelegd?

Acties:
  • 0 Henk 'm!

  • H143
  • Registratie: Juli 2006
  • Laatst online: 08:57
sinds kort sluiten mijn containers automatisch af en starten vervolgens ook weer vanzelf
ik heb nog niet kunnen vinden wat het is helaas heb ik niet veel verstand van Linux
kan iemand mij opweg helpen waar dit probleem vandaan kan komen?
Afbeeldingslocatie: https://tweakers.net/i/exH39lz6cTCcQLAPrgjOHcU8hRw=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/UgU0XIICNcv7CpsG3BbLpuga.png?f=user_large

Acties:
  • 0 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 04:22
Lijkt me in ieder geval vanuit de Proxmox host zelf want als je een LXC een shutdown geeft vanuit de LXC zefl zie je geen 'Stop'.

Staat er een rare cronjob actief ofzo? crontab -l even draaien en kijken of daar iets van pct restart .. in voorkomt

Acties:
  • 0 Henk 'm!

  • H143
  • Registratie: Juli 2006
  • Laatst online: 08:57
lolgast schreef op vrijdag 3 oktober 2025 @ 22:30:
Lijkt me in ieder geval vanuit de Proxmox host zelf want als je een LXC een shutdown geeft vanuit de LXC zefl zie je geen 'Stop'.

Staat er een rare cronjob actief ofzo? crontab -l even draaien en kijken of daar iets van pct restart .. in voorkomt
ik had de volgende regels erin staan
code:
1
2
@reboot (sleep 60 && echo "powersave" | tee /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor)
0 0 * * 0 PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin /bin/bash -c "$(wget -qLO - https://github.com/community-scripts/ProxmoxVE/raw/main/misc/update-lxcs-cron.sh)" >>/var/log/update-lxcs-cron.log 2>/dev/null


deze heb ik verwijderd maar helas geen soelaas

Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 10:23
H143 schreef op vrijdag 3 oktober 2025 @ 22:54:
[...]

ik had de volgende regels erin staan
code:
1
2
@reboot (sleep 60 && echo "powersave" | tee /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor)
0 0 * * 0 PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin /bin/bash -c "$(wget -qLO - https://github.com/community-scripts/ProxmoxVE/raw/main/misc/update-lxcs-cron.sh)" >>/var/log/update-lxcs-cron.log 2>/dev/null
offtopic:
"Doe elke zondag om middernacht een script downloaden van internet en uitvoeren als root", * ouch *. Als die helper scripts geïnfecteerd worden met malware heb je het niet eens in de gaten.

Acties:
  • 0 Henk 'm!

  • hansat
  • Registratie: December 2012
  • Laatst online: 13-10 22:00
Ik weet niet of deze al eerder in dit topic is vermeld maar bij deze ProxMenux
https://github.com/MacRimi/ProxMenux

een hele goede tool tenminste voor mij

Acties:
  • 0 Henk 'm!

  • Cardinal
  • Registratie: Maart 2002
  • Laatst online: 01:25
@hansat heb je screenshots oid? is het vergelijkbaar met pulse?

Acties:
  • 0 Henk 'm!

  • H143
  • Registratie: Juli 2006
  • Laatst online: 08:57
H143 schreef op vrijdag 3 oktober 2025 @ 22:01:
sinds kort sluiten mijn containers automatisch af en starten vervolgens ook weer vanzelf
ik heb nog niet kunnen vinden wat het is helaas heb ik niet veel verstand van Linux
kan iemand mij opweg helpen waar dit probleem vandaan kan komen?
[Afbeelding]
Het lijkt nu opgelost beide lxc draaide docker in met elk hun eigen containers en heb ze gecreëerd uit een backup (backup was een lxc met alleen docker zonder conteiners)
Gister de lxc weer opnieuw opgebouwd en docker en de containers erin en het probleem is opgelost..

Acties:
  • 0 Henk 'm!

  • Barryvdh
  • Registratie: Juni 2003
  • Laatst online: 13-10 19:38
Cardinal schreef op zaterdag 4 oktober 2025 @ 19:58:
@hansat heb je screenshots oid? is het vergelijkbaar met pulse?
De docs heeft voorbeelden; https://macrimi.github.io/ProxMenux/docs/introduction

Ziet er wel interessant uit, wellicht handig voor iGPU en NFS dingen ipv handmatig al die commando's.

Acties:
  • 0 Henk 'm!

  • Harmen
  • Registratie: Oktober 1999
  • Nu online

Harmen

⭐⭐⭐⭐⭐⭐

Iemand ervaringen met https://cloud-pbs.com/ ? M'n 'gratis' variant van Tuxis is vol, betaalde variant is helaas 19 euro per 1TB. Helaas is er geen kleinere variant, heb genoeg aan 300GB oid.

Whatever.


Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 08:35

Quad

Doof

Voldoet Hetzner storagebox voor je eventueel?

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 10:04
Harmen schreef op dinsdag 7 oktober 2025 @ 14:05:
Iemand ervaringen met https://cloud-pbs.com/ ? M'n 'gratis' variant van Tuxis is vol, betaalde variant is helaas 19 euro per 1TB. Helaas is er geen kleinere variant, heb genoeg aan 300GB oid.
Als je dedicated kiest klopt dat. Maar shared is per 250GB €6, te schalen tot 1TB €12,- beide ex BTW per maand.

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 08:35

Quad

Doof

Wat heeft jullie voorkeur om als virtueel NAS OS te draaien icm enkele fysieke harddrives in passtrough?
Ik heb OMV en TrueNAS met elkaar nu getest. TrueNAS leunt ernstig zwaar op je CPU/RAM door ZFS. OMV heeft ZFS niet native ingebakken (wel via extensies).
Performance met ZFS lijkt ook snel in te kakken met interne transfers tussen VM <> NAS OS. Het liefst zie ik iets als btrfs wat Synology toepast.

Ik wil graag mijn Synology uitfaseren en dus overstappen op storage binnen de server. Dit zal hogere prestaties leveren doordat de onderlinge verbinding gewoon hoger ligt dan de 1Gb via PVE - switch - NAS en weer terug.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • +1 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 09:56
@Quad Is maar net wat je precies wilt. Je kunt de raw disks doorzetten naar de VM en alles vanuit je VM managen, moet je wel CPUs en geheugen hebben om ZFS of btrfs te kunnen doen.
Je kunt ook Proxmox het hele ZFS gebeuren laten afhandelen en dan een virtuele disk sharen naar de NAS VM. Persoonlijk denk ik dat dit de betere oplossing is.

Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-10 01:21

orvintax

www.fab1an.dev

Quad schreef op woensdag 8 oktober 2025 @ 11:59:
Wat heeft jullie voorkeur om als virtueel NAS OS te draaien icm enkele fysieke harddrives in passtrough?
Ik heb OMV en TrueNAS met elkaar nu getest. TrueNAS leunt ernstig zwaar op je CPU/RAM door ZFS. OMV heeft ZFS niet native ingebakken (wel via extensies).
Performance met ZFS lijkt ook snel in te kakken met interne transfers tussen VM <> NAS OS. Het liefst zie ik iets als btrfs wat Synology toepast.

Ik wil graag mijn Synology uitfaseren en dus overstappen op storage binnen de server. Dit zal hogere prestaties leveren doordat de onderlinge verbinding gewoon hoger ligt dan de 1Gb via PVE - switch - NAS en weer terug.
Ik gebruik zelf TrueNAS. CPU gebruik kan ik me niet in vinden, dat is altijd erg laag bij mij. Maar qua RAM pakt ZFS wat die pakken kan. Belangrijke nuance is dus dat het niet wil zeggen dat ZFS zoveel RAM ook nodig heeft.

Hoe maak je de transfer tussen VM en NAS OS?

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 08:35

Quad

Doof

_JGC_ schreef op woensdag 8 oktober 2025 @ 12:23:
@Quad Is maar net wat je precies wilt. Je kunt de raw disks doorzetten naar de VM en alles vanuit je VM managen, moet je wel CPUs en geheugen hebben om ZFS of btrfs te kunnen doen.
Je kunt ook Proxmox het hele ZFS gebeuren laten afhandelen en dan een virtuele disk sharen naar de NAS VM. Persoonlijk denk ik dat dit de betere oplossing is.
En @orvintax
Ik ga dat met PVE op ZFS ook nog wel even bekijken. Dat kan pas als ik de harde schijven zelf binnen heb.
Huidige NAS heeft 2x 18TB, dat wordt dan vervangen door 3x 6/8 TB (even afhankelijk wat nu nodig is).

*arr stack, SABNzb, Plex(en Jellyfin), PBS, Immich maken er dan gebruik van. Verbinding via SMB/CIFS of NFS.
Geheugenupgrade gaat vandaag binnenkomen, dan krijgt de server 64GB om te verbruiken. Ik zou dan evt de TrueNAS instantie 16GB toe kunnen kennen.

Bij gebruik van 3 HDDs kan ik een SATA SSD nog gebruiken om in te zetten als cache binnen OMV.

Performance met OMV op een RAID5 array met btrfs lijkt sneller te zijn vooralsnog. Het kakt vooral niet in.
Dit is op een test VM met 4 virtuele disks gekoppeld.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • 0 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 09:56
Ik zou zelf gewoon voor ZFS mirror gaan ipv RAIDZ1 of RAID5 met 3 disks. Minder stroomverbruik, snellere writes en net als bij RAIDZ1 of RAID5 1 disk redundancy.

Ja je recovery tijden zijn langer omdat je disk groter is, maar 8TB duurt sowieso ook al een hele tijd, je moet gewoon backups hebben voor het geval er 2 disks sterven.

Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 10:23
Het ligt natuurlijk ook aan de gevraagde netto capaciteit. Als de vraag nu ~20TB is is een mirror van 2 disks van de gewenste capaciteit voldoende. Als je meer nodig hebt wordt het lastig (in combi met prijs)

Ik loop er nu ook tegenaan dat ik met een 3-way RAIDZ1 steeds de maximale capaciteit moet kopen :p. Begonnen met 3x 8TB 5 jaar terug. Eerst een door 14 vervangen vroegtijdig, toen een door 18 vroegtijdig. Vervolgens was ik door de capaciteit heen (effectief toen nog steeds op basis van de resterende 8TB dus 16TB netto) en een 20TB "moeten" kopen wat maar een vrij kleine sprong is vanaf de 18TB (gaat tzt maar 4 TB netto opleveren. Nu was het dan wel kleinste van 8 naar 14 is 6TB erbij en dus 12TB in netto totaal). Vervolgens is eerder dit jaar de 14TB gesneuveld (start uberhaupt niet meer met draaien en wordt ook niet herkent) en toen wel maar voor 24TB gegaan. Maar nu is de rek er ook aardig uit. Grotere modellen zijn IIRC nog veel onbetaalbaarder. Maar dit is wel de enige / goedkoooste optie als je niet voldoende hebt aan zeg ~24TB netto.

Of je moet al over stappen naar een stripe van mirrors. Dan kun je elke keer 2 disks (in mirror) aan de stripe toevoegen. En zo semi oneindig uitbreiden. Maar kost wel elke keer 2 disks extra.

Ja, ik weet dat je RAIDZ tegenwoordig ook kunt expanden met extra schijven. Maar dat voelt nogal hackish. Alhoewel die feature volgens mij ook al een jaar of 2 aanwezig is en dus wel al weer redelijk battle tested zal zijn.

Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 08:35

Quad

Doof

Ik heb nu dus een mirror van 18TB, dat is naar verwachting ruim voldoende (heb nu 9TB vrij).
Heb op de server de mogelijkheid tot maximaal 4 SATA HDD/SSDs, de PCIe zal worden gebruikt door een GPU en de 2 NVMe sloten door de SSDs voor de VMs.

De mogelijkheid voor een RAID5 (of ZRAID1) is om later nog uit te breiden met een disk door nu 3 te kiezen. Het hoeft geen state-of-the-art setup te zijn uiteindelijk, als het maar sneller is dan de huidige setup (en dat is het waarschijnlijk al wel snel).

Al die NAS OS's zijn erop gericht dat er meer services zijn om te draaien, dat is voor mij niet van belang natuurlijk. Ik wil voornamelijk dataopslag bieden aan de services die los in LXCs draaien op de Proxmox host.

In dat geval kan ik denk ik beter inderdaad Proxmox de ZFS afhandeling laten doen, dan zit er ook geen extra laag tussen.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • +1 Henk 'm!

  • DjoeC
  • Registratie: November 2018
  • Laatst online: 09:24
Even over RAID1/5/6: ALS er een probleem of onverwachte shutdown is zijn de recovery tijden lang. Mijn 8TB WD-reds (RAID1) moeten ongeveer een dag draaien om te resyncen. Raid-5 raad ik niemand meer aan omdat het risico op uitval van een 2e schijf erg groot is. Dan kom je dus op RAID6 uit (2x parity) waarmee het risico een stuk minder wordt. O ja, en een 2TB RAID-6 schijf herstellen liep ooit bij mij 3-4 dagen.....

Voor prive draai ik nu nog RAID1 (2 sets van 2x 8TB) maar ik ga binnenkort terug naar enkelvoudige opslag met automatisch folder sync - ofwel onmiddellijk via folder monitoring, ofwel dagelijks. Eerstvolgende nieuwe disks zullen 24TB of groter worden, resyncen onder RAID zou dan nog veeel langer gaan duren. Denk na over use-cases en risico's. RAID(achtig) klinkt leuk maar zorg dat je er niet van afhankelijk wordt -> Backups.....

Bovenstaande geldt (in mijn geval) voor Windows maar de concepten achter RAID zijn natuurlijk OS onafhankelijk.

Acties:
  • +2 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 10:23
DjoeC schreef op woensdag 8 oktober 2025 @ 17:31:
Even over RAID1/5/6: ALS er een probleem of onverwachte shutdown is zijn de recovery tijden lang. Mijn 8TB WD-reds (RAID1) moeten ongeveer een dag draaien om te resyncen. Raid-5 raad ik niemand meer aan omdat het risico op uitval van een 2e schijf erg groot is.
Ik heb dus al meerdere keren een disk vervangen, maar dan wel op 1x na altijd met de originele er nog in. En zelfs toen ik dan paar maanden terug daadwerkelijk een kapotte disk had en er max 14TB opnieuw gedaan moest worden (als in: 14TB disk was de kleinste) duurde die hele resilver volgens mij maar om en nabij een dag, zeg 1,5 dag max. Dus mijn N=4 ervaring tot nu toe toont aan dat de kans op uitval tijdens een resilver minder dan 25% is. Uiteraard nog steeds een hoog percentage, maar misschien kan ik nog wel 10x een disk vervangen zonder uitval, en blijft het percentage dus zakken. En max 1,5e dag voor ergens tussen de 8 en 14 TB te rebuilden/resilveren vind ik ook nog wel meevallen.
Bovenstaande geldt (in mijn geval) voor Windows maar de concepten achter RAID zijn natuurlijk OS onafhankelijk.
Ja en nee. ZFS is toch wel iets anders dan "RAID". Aangezien ZFS zowel een volume manager als filesystem is. Geen idee hoe dat overigens bij Windows Storage Spaces(?) zit, of je daarop nog steeds NTFS (/fs naar keuze) draait of dat dat ook zowel een filesystem als volume manager is.

Dingen die ZFS AFAIK ook afwijkend kan doen (sinds een jaar of 2, 3 pas) is sequentieel met de data om gaan. Dus in ieder geval bij een replace waar de originele disk er nog in zit sequentieel de oude disk lezen en naar de nieuwe over zetten. Incl. alle "filesystem" checks dan (checksumming etc) die netjes worden toegepast, dus het is niet letterlijk "lees X MB van de oude schijf in en schrijf die 1 op 1 naar de nieuwe schijf", er zit nog steeds "logica" achter in wat die het doet incl. controle of de oude data "correct" is. En ook het scrubben kan al verschillende jaren sequentieel. Bij mijn weten zijn dat toch zaken die traditionele RAID (/alleen de volume manager) niet kunnen omdat die geen weet hebben van de data/....

Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 08:35

Quad

Doof

Backups is voor mij het punt niet. Dat is nu en dat wordt wel geregeld.
Voor mij is RAID een redundantie waarbij de boel blijft draaien en bruikbaar blijft terwijl ondertussen een drive vervangen wordt waarna de rebuild bezig kan. En of dat 8 uur of 48 uur duurt is niet zo spannend voor thuis.

Ik ben puur op zoek naar een mogelijkheid voor de laagste resourceverbruik in combinatie met voldoende opslag en prestaties.

En dat gevoel heb ik bij TrueNAS bij lange na niet op dit moment.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-10 01:21

orvintax

www.fab1an.dev

Quad schreef op woensdag 8 oktober 2025 @ 13:16:
[...]

En @orvintax
Ik ga dat met PVE op ZFS ook nog wel even bekijken. Dat kan pas als ik de harde schijven zelf binnen heb.
Huidige NAS heeft 2x 18TB, dat wordt dan vervangen door 3x 6/8 TB (even afhankelijk wat nu nodig is).

*arr stack, SABNzb, Plex(en Jellyfin), PBS, Immich maken er dan gebruik van. Verbinding via SMB/CIFS of NFS.
Geheugenupgrade gaat vandaag binnenkomen, dan krijgt de server 64GB om te verbruiken. Ik zou dan evt de TrueNAS instantie 16GB toe kunnen kennen.

Bij gebruik van 3 HDDs kan ik een SATA SSD nog gebruiken om in te zetten als cache binnen OMV.

Performance met OMV op een RAID5 array met btrfs lijkt sneller te zijn vooralsnog. Het kakt vooral niet in.
Dit is op een test VM met 4 virtuele disks gekoppeld.
Wat ik wel een vervelend nadeel vind aan de Proxmox ZFS route is dat je gaat moeten werken met virtuele disks. Ik ben bewust voor een Truenas VM gegaan zodat mijn hele HDD pool dynamisch beschikbaar is. Het is gewoon een filesystem waar je tegen praat. Ik hoef dus mijn pool niet te gaan segmenteren.

Als je trouwens op 1 node draait is de overhead minimaal. Vanwege VirtIO gaat dat allemaal lokaal waardoor in mijn geval de disks gewoon de bottleneck blijven.

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-10 01:21

orvintax

www.fab1an.dev

Quad schreef op woensdag 8 oktober 2025 @ 17:19:
Ik heb nu dus een mirror van 18TB, dat is naar verwachting ruim voldoende (heb nu 9TB vrij).
Heb op de server de mogelijkheid tot maximaal 4 SATA HDD/SSDs, de PCIe zal worden gebruikt door een GPU en de 2 NVMe sloten door de SSDs voor de VMs.

De mogelijkheid voor een RAID5 (of ZRAID1) is om later nog uit te breiden met een disk door nu 3 te kiezen. Het hoeft geen state-of-the-art setup te zijn uiteindelijk, als het maar sneller is dan de huidige setup (en dat is het waarschijnlijk al wel snel).

Al die NAS OS's zijn erop gericht dat er meer services zijn om te draaien, dat is voor mij niet van belang natuurlijk. Ik wil voornamelijk dataopslag bieden aan de services die los in LXCs draaien op de Proxmox host.

In dat geval kan ik denk ik beter inderdaad Proxmox de ZFS afhandeling laten doen, dan zit er ook geen extra laag tussen.
Heb je die drie disks al? Mij lijkt het persoonlijk logischer om eerst die twee (die je zeker al hebt) in te zitten als mirror. Daar heb je voorlopig in je eigen woorden genoeg aan. Je kunt dan later altijd nog twee nieuwe toevoegen als extra vdev.

Het voordeel hiervan is dat je nu dan nog niet hoeft te gaan anticiperen op later. Als je nu er een extra van 18TB gaat kopen, dan moet je er later als je wilt uitbreiden ook zo een bijzetten. Door het voor nu te houden bij een mirror, kun je straks bijvoorbeeld ook 2x 24TB toevoegen.

Het andere voordeel is ook dat je met een stripe + mirror meer IOPS krijgt, terwijl met enkel de stripe je meer throughput krijgt. En dat eerste lijkt me wenselijker voor een HDD setup.

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-10 01:21

orvintax

www.fab1an.dev

Quad schreef op woensdag 8 oktober 2025 @ 18:45:
En dat gevoel heb ik bij TrueNAS bij lange na niet op dit moment.
Ben wel benieuwd waar dat vandaan komt. TrueNAS is Debian + OpenZFS met een sausje erover. Je kunt ook services uitzetten die je niet gebruikt om het efficienter te maken.

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 10:23
orvintax schreef op woensdag 8 oktober 2025 @ 20:18:
[...]

Ben wel benieuwd waar dat vandaan komt. TrueNAS is Debian + OpenZFS met een sausje erover. Je kunt ook services uitzetten die je niet gebruikt om het efficienter te maken.
TrueNAS is toch BSD (FreeBSD, waar ook OpenZFS in zit)? Debian based is TrueNAS Scale bij mijn weten? (En "scale" is niet benoemd geworden tot nu toe)

Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-10 01:21

orvintax

www.fab1an.dev

RobertMe schreef op woensdag 8 oktober 2025 @ 20:23:
[...]

TrueNAS is toch BSD (FreeBSD, waar ook OpenZFS in zit)? Debian based is TrueNAS Scale bij mijn weten? (En "scale" is niet benoemd geworden tot nu toe)
Je hebt in princiepe gelijk. Alleen is de BSD versie tegenwoordig TrueNAS Legacy/ TrueNAS CORE. TrueNAS Scale noemen ze nu ook TrueNAS CE. Ze gaan CORE versie uitfaseren dus tegenwoordig is Scale de normale.

https://dontasktoask.com/


Acties:
  • +1 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 08:35

Quad

Doof

orvintax schreef op woensdag 8 oktober 2025 @ 20:12:
[...]

Wat ik wel een vervelend nadeel vind aan de Proxmox ZFS route is dat je gaat moeten werken met virtuele disks. Ik ben bewust voor een Truenas VM gegaan zodat mijn hele HDD pool dynamisch beschikbaar is. Het is gewoon een filesystem waar je tegen praat. Ik hoef dus mijn pool niet te gaan segmenteren.

Als je trouwens op 1 node draait is de overhead minimaal. Vanwege VirtIO gaat dat allemaal lokaal waardoor in mijn geval de disks gewoon de bottleneck blijven.
Ja dat bedacht ik mij net ook, je hebt alsnog iets nodig waar je SMB/cifs en NFS service op regelt met de authenticatie. Dus dat lijkt alsnog af te vallen.
orvintax schreef op woensdag 8 oktober 2025 @ 20:17:
[...]

Heb je die drie disks al? Mij lijkt het persoonlijk logischer om eerst die twee (die je zeker al hebt) in te zitten als mirror. Daar heb je voorlopig in je eigen woorden genoeg aan. Je kunt dan later altijd nog twee nieuwe toevoegen als extra vdev.

Het voordeel hiervan is dat je nu dan nog niet hoeft te gaan anticiperen op later. Als je nu er een extra van 18TB gaat kopen, dan moet je er later als je wilt uitbreiden ook zo een bijzetten. Door het voor nu te houden bij een mirror, kun je straks bijvoorbeeld ook 2x 24TB toevoegen.

Het andere voordeel is ook dat je met een stripe + mirror meer IOPS krijgt, terwijl met enkel de stripe je meer throughput krijgt. En dat eerste lijkt me wenselijker voor een HDD setup.
Ik heb nu in de Synology 2x MG09 18TB zitten. Die wil ik samen met de Synology weg doen..
  • Het geluid van de schijven is echt heftig, alsof er constant een koffieapparaat staat te pruttelen. Tevens lijkt mijn vrouw dit 's nachts te horen.
  • 1Gb netwerksnelheid updown is dan max 500Mbps met acties als SabNZB.
Ik zit dus te azen op een nieuwe setup van 3x 6TB of 3x 8TB met 1 disk in parity voor redundancy. Ik begrijp dat zoiets langzamer kan zijn maar ik verwacht dat de snelheid hoger ligt dan 1Gb als de data vanuit het VirtIO netwerk wordt aangesproken of wordt geschreven.
orvintax schreef op woensdag 8 oktober 2025 @ 20:18:
[...]

Ben wel benieuwd waar dat vandaan komt. TrueNAS is Debian + OpenZFS met een sausje erover. Je kunt ook services uitzetten die je niet gebruikt om het efficienter te maken.
Het is weliswaar wel gebaseerd op een test van ca 30 minuten klikken, kijken en een testsetup opbouwen met 3x een virtuele disk vanaf een SATA SSD. Ik zie net echter dat TrueNAS Connect heeft aangekondigd, dit maakt het ook wel weer interessant.
Ik ga het eerst maar eens uitwerken en uitzoeken en dan een beslissing maken, geen haast.

Mijn PVE is voor nu voorzien van een nieuwe behuizing en een memory upgrade naar 64GB. :)

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

In het geval van LXC kan je eenzelfde dataset ook delen doormiddel van bind mounts, en voor KVM heb je tegenwoordig VirtioFS (maar dat heb ik zelf nog nooit gebruikt). Op die manier kan je voorkomen dat je intern op de server de storage alsnog met netwerkprotocollen aan elkaar moet knopen.

Acties:
  • 0 Henk 'm!

  • stormfly
  • Registratie: Juli 2001
  • Laatst online: 07:53
Quad schreef op woensdag 8 oktober 2025 @ 22:53:
[...]

Ik heb nu in de Synology 2x MG09 18TB zitten. Die wil ik samen met de Synology weg doen..
  • Het geluid van de schijven is echt heftig, alsof er constant een koffieapparaat staat te pruttelen. Tevens lijkt mijn vrouw dit 's nachts te horen.
  • 1Gb netwerksnelheid updown is dan max 500Mbps met acties als SabNZB.
Misschien niet helemaal relevant maar deel het toch, ik ben zelf begonnen met het afbouwen van Synology vanwege hun achterblijven de hardware specs en de opmerkelijke stap tot het boycotten van bepaalde disken.

De TerraMaster F4 SSD is als aanvulling gekomen, 4x NVMe NAS en een 5Gbps port, ideaal voor VM's over NFS. Qua software is DSM het ultieme product, daar komt TerraMaster niet in de buurt. Bijkomend voordeel meer ruimte over in meterkast, minder stroom verbruik (11watt 4x NVMe) en geen gepruttel meer. En een enorme performance vanuit de N95 CPU. 2TB NVMe is nu betaalbaar aan het worden dus je moet misschien wel iets anders nadenken over je storage verdeling. Mijn DS1019+ draait nog als backup server voor wat taken en gaat zeker niet weg, staat alleen op zondag aan als de backups lopen.

Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-10 01:21

orvintax

www.fab1an.dev

dcm360 schreef op woensdag 8 oktober 2025 @ 23:09:
In het geval van LXC kan je eenzelfde dataset ook delen doormiddel van bind mounts, en voor KVM heb je tegenwoordig VirtioFS (maar dat heb ik zelf nog nooit gebruikt). Op die manier kan je voorkomen dat je intern op de server de storage alsnog met netwerkprotocollen aan elkaar moet knopen.
Bindmounts zijn ook nog een goeie ja :) Ik ben wel benieuwd of iemand hier al ervaring heeft met VirtioFS? Het is wel een FUSE filesystem dus dat is wel nadelig voor de snelheid. Ik vraag me dan af wat sneller zou zijn NFS over een VirtIO netwerk of FUSE.

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 08:35

Quad

Doof

dcm360 schreef op woensdag 8 oktober 2025 @ 23:09:
In het geval van LXC kan je eenzelfde dataset ook delen doormiddel van bind mounts, en voor KVM heb je tegenwoordig VirtioFS (maar dat heb ik zelf nog nooit gebruikt). Op die manier kan je voorkomen dat je intern op de server de storage alsnog met netwerkprotocollen aan elkaar moet knopen.
Bindmounts werk ik nu ook al mee voor de LXC's. De PVE servers verzorgen de koppeling naar de NAS toe.
Ik had zelf bedacht dat dit zo ongeveer wel blijft bestaan, anders moet ik elke container die hier gebruik van maakt langs gaan en de mounts aanpassen.
stormfly schreef op donderdag 9 oktober 2025 @ 08:09:
[...]


Misschien niet helemaal relevant maar deel het toch, ik ben zelf begonnen met het afbouwen van Synology vanwege hun achterblijven de hardware specs en de opmerkelijke stap tot het boycotten van bepaalde disken.

De TerraMaster F4 SSD is als aanvulling gekomen, 4x NVMe NAS en een 5Gbps port, ideaal voor VM's over NFS. Qua software is DSM het ultieme product, daar komt TerraMaster niet in de buurt. Bijkomend voordeel meer ruimte over in meterkast, minder stroom verbruik (11watt 4x NVMe) en geen gepruttel meer. En een enorme performance vanuit de N95 CPU. 2TB NVMe is nu betaalbaar aan het worden dus je moet misschien wel iets anders nadenken over je storage verdeling. Mijn DS1019+ draait nog als backup server voor wat taken en gaat zeker niet weg, staat alleen op zondag aan als de backups lopen.
Hm ja mooi apparaatje. Maar voor mijn huidige setup geen optie verwacht ik. Ik heb nu (en straks) 2x NVMe SSDs voor de boot en voor de VMs/LXCs draaien. Backups van PVE/ M365 en overige data (Plex/fotos enz) gaan naar de NAS opslag. De belangrijkste data (foto's/M365) wordt weer weggezet bij Hetzner. Gevoelsmatig heb ik het wel goed voor elkaar en is het doel om van 3 naar 1 machine te gaan goed te realiseren.
Alleen de juiste keuze voor het OS van de NAS binnen een VM op PVE is iets waar ik goed naar moet kijken.

Ik ga dat weer oppakken zodra de keuze voor schijven zijn gemaakt en deze binnen zijn. Het blijft uiteindelijk maar een thuismachine.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • 0 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 13-10 22:13
Is er ook een manier om te zorgen dat één LXC of VM je hele systeem niet kan platleggen?
Ik was daar straks wat aan het testen met een LXC en ik had die wat weinig ram gegeven en daardoor was mijn hele proxmox host niet meer te bereiken.
Uiteindelijk de host kunnen rebooten maar handig is dat niet natuurlijk.
Pagina: 1 ... 61 62 Laatste