Gisteren had ik net 7.0 RC2 geïnstalleerd
. Vandaag upgrade naar 7.0. Beide keren zonder problemen
.
zijn er nog breaking changes of andere dingen die je moet fixen voor je upgrade?
Hier juist wel problemen met een upgrade. 2x geprobeerd en 2 keer komt de unraid sever niet meer online.
Het lijkt erop dat je dit met de network.cfg op de usb moet fixen. Dit lukte mij niet op unraid V7.0 maar wel onder V6.X.X waar ik gewoonweg een backup van had.
Verder lijkt wel alles gewoon op te starten maar is de weginterface niet te bereiken. Heb zelfs een keer gehad dat de VM wel te bereiken was maar de webinterface uit bleef. Natuurlijk adres gecontroleerd dit was 100% juist.
Meer mensen met dit probleem?
Gezien ik toch wel graag een keer naar 7 wil zou ik ook graag willen weten waarom het juist nu mis gaat, en alle update vooraf nooit problemen hier mee gehad heb.
Ps. heb een kontron K3843-B dus een intel nic dus het probleem wat met Realtek is valt hier niet onder.
Het lijkt erop dat je dit met de network.cfg op de usb moet fixen. Dit lukte mij niet op unraid V7.0 maar wel onder V6.X.X waar ik gewoonweg een backup van had.
Verder lijkt wel alles gewoon op te starten maar is de weginterface niet te bereiken. Heb zelfs een keer gehad dat de VM wel te bereiken was maar de webinterface uit bleef. Natuurlijk adres gecontroleerd dit was 100% juist.
Meer mensen met dit probleem?
Gezien ik toch wel graag een keer naar 7 wil zou ik ook graag willen weten waarom het juist nu mis gaat, en alle update vooraf nooit problemen hier mee gehad heb.
Ps. heb een kontron K3843-B dus een intel nic dus het probleem wat met Realtek is valt hier niet onder.
[ Voor 26% gewijzigd door K!K op 12-01-2025 15:54 ]
Hier een probleemloze update van 6.12.x vanuit het OS menu, wel eerst een backup gemaakt van de flash drive.
Na een reboot draait het weer als vanouds. Ik heb mij nog niet verdiept in de vernieuwingen in 7.
Onlangs wel geëxperimenteerd met tailscale en deze kan kan je nu native in docker instellen, daar ben ik wel benieuwd naar.
Ik draaide nog een reversed proxy met open poorten in de router en openbaar beschikbare URLs op het web, daar wilde ik sowieso vanaf.
Na een reboot draait het weer als vanouds. Ik heb mij nog niet verdiept in de vernieuwingen in 7.
Onlangs wel geëxperimenteerd met tailscale en deze kan kan je nu native in docker instellen, daar ben ik wel benieuwd naar.
Ik draaide nog een reversed proxy met open poorten in de router en openbaar beschikbare URLs op het web, daar wilde ik sowieso vanaf.
Hoe draait 7.0 bij iedereen die heeft geupdate?
* MisteRMeesteR draait nog op 6.12.11 en wil eigk wachten op 7.0.1 oid
* MisteRMeesteR draait nog op 6.12.11 en wil eigk wachten op 7.0.1 oid
[ Voor 15% gewijzigd door MisteRMeesteR op 16-01-2025 19:38 ]
www.google.nl
Ik wacht eigenlijk altijd bij Unraid tot de eerste bugfixes zijn gedaan. Wacht wel tot 7.0.x of 7.x. Binnenkort maar eerst eens updaten naar de laatste 6.12 x versie.MisteRMeesteR schreef op donderdag 16 januari 2025 @ 19:37:
Hoe draait 7.0 bij iedereen die heeft geupdate?
* MisteRMeesteR draait nog op 6.12.11 en wil eigk wachten op 7.0.1 oid
Ik heb nog geen problemen ervaren. Dag van release al geupdatetMisteRMeesteR schreef op donderdag 16 januari 2025 @ 19:37:
Hoe draait 7.0 bij iedereen die heeft geupdate?
* MisteRMeesteR draait nog op 6.12.11 en wil eigk wachten op 7.0.1 oid
Share and Enjoy!
Zojuist voor de 3e keer de update geprobeerd. Nu vooraf de network.cfg al gecontroleerd en ervoor gezorgd dat deze juist is. Hierna werkte V7.0.0 gewoon zoals verwacht.
Voorheen deed ik nooit iets met deze file maar blijkbaar is er op de achtergrond iets veranderd wat dit noodzakelijk maakt om te hebben. Anders kwam de server telkens niet meer online in mijn vorige update pogingen.
Voorheen deed ik nooit iets met deze file maar blijkbaar is er op de achtergrond iets veranderd wat dit noodzakelijk maakt om te hebben. Anders kwam de server telkens niet meer online in mijn vorige update pogingen.
Best asap updaten naar de meest recente versie.
Vanmorgen een mail ontvangen dat er beveiligingsissues zijn met oudere versies: https://newsletter.unraid...-vulnerability-disclosure
Vanmorgen een mail ontvangen dat er beveiligingsissues zijn met oudere versies: https://newsletter.unraid...-vulnerability-disclosure
:no_upscale():strip_icc():strip_exif()/f/image/Pc57QJvTKoDK6Ytz58iVfq1a.jpg?f=user_large)
Iemand enig idee?
Is kort na de 7.0 update begonnen maar vermoed niet dat het gerelateerd is.
De installatie/config heb ik al op een andere usb stick omgezet maar blijf het dus nog krijgen.
Server draait maar loopt vast en bij reboot krijg ik dit dus.
Iemand al gelijkaardig meegemaakt?

Edit: gloednieuwe usb stick, andere usb poorten ook al geprobeerd.
[ Voor 6% gewijzigd door masauri op 30-01-2025 19:53 ]
@masauri Welke usb poorten heb je geprobeerd? Een USB2.0 poort pakken als je moederbord die heeft wilt nog wel eens helpen.
Beide, USB 2.0 en USB 3.0.Hedgy schreef op donderdag 30 januari 2025 @ 20:25:
@masauri Welke usb poorten heb je geprobeerd? Een USB2.0 poort pakken als je moederbord die heeft wilt nog wel eens helpen.
Weet je zeker dat de stick bootable is?masauri schreef op donderdag 30 januari 2025 @ 19:24:
[...]
Edit: gloednieuwe usb stick, andere usb poorten ook al geprobeerd.
Gemaakt met de unraid usb creation software
Weet je zeker dat je systeem van de Unraid flash wil booten? Heb zelf weleens gehad dat er op het moederbord nog een SD kaartje zat welke als first boot device stond ingesteld. Kun je booten via het boot-menu en daar de 100% juiste USB flash selecteren?masauri schreef op donderdag 30 januari 2025 @ 19:24:
[Afbeelding]
Iemand enig idee?
Is kort na de 7.0 update begonnen maar vermoed niet dat het gerelateerd is.
De installatie/config heb ik al op een andere usb stick omgezet maar blijf het dus nog krijgen.
Server draait maar loopt vast en bij reboot krijg ik dit dus.
Iemand al gelijkaardig meegemaakt?![]()
Edit: gloednieuwe usb stick, andere usb poorten ook al geprobeerd.
www.google.nl
Draait sinds sept. 2021 zonder problemen.MisteRMeesteR schreef op donderdag 30 januari 2025 @ 21:17:
[...]
Weet je zeker dat je systeem van de Unraid flash wil booten? Heb zelf weleens gehad dat er op het moederbord nog een SD kaartje zat welke als first boot device stond ingesteld. Kun je booten via het boot-menu en daar de 100% juiste USB flash selecteren?
Indertijd ingesteld door ed (space invader youtube kanaal)
Heeft vorig jaar nog alle configs bijgewerkt.
Draaide als een zonnetje tot vorige week na de 7.0 update.
Edit: kan morgen nogmaals proberen in de bios te kijken dat hij goed ingesteld staat.
Maar vind t zo frappant dat hij er ineens uit klapt.
Hij was gewoon een bestand via sonar aan het binnen halen...
[ Voor 14% gewijzigd door masauri op 30-01-2025 21:35 ]
"In theorie" doordat unraid in het geheugen draait zou je de usb stick eruit moeten kunnen halen en zou unraid moeten blijven draaien. Dat is waarschijnlijk ook de reden waarom de usb sticks vaak falen tijdens of na een update.masauri schreef op donderdag 30 januari 2025 @ 21:34:
[...]
Draait sinds sept. 2021 zonder problemen.
Indertijd ingesteld door ed (space invader youtube kanaal)
Heeft vorig jaar nog alle configs bijgewerkt.
Draaide als een zonnetje tot vorige week na de 7.0 update.
Edit: kan morgen nogmaals proberen in de bios te kijken dat hij goed ingesteld staat.
Maar vind t zo frappant dat hij er ineens uit klapt.
Hij was gewoon een bestand via sonar aan het binnen halen...
Als je meerdere usb stick heb geprobeerd dan zou ik niet verwachten dat alle usb sticks stuk zijn maar dat er iets anders fouten geeft?
Als het eerst goed draaide en na de update naar 7.0.0 fout lijkt te gaan, kan je toch downgraden naar de vorige versie? Dan kan je al je hardware uitsluiten... Usb stick wordt alleen gelezen bij opstarten en geschreven bij config aanpassingen/update van unRAID.
Computer nr 486 denk ik..
@masauri , lijkt erop dat je USB stick geen GUID meer heeft als ik het scherm zo zie?
Zelf nog niet bijgewerkt naar 7.0.0 want verbouwingen aan het doen en NAS staat bij mijn ouders en niet meteen een netwerk aansluiting waar deze nu staat. Als de server terug op zijn plaats staat zullen de bugs er vast en zeker wel uit zijn, hoewel heb zelf nog nooit problemen gehad met updates, hout vasthouden
Ben zelf nog altijd aan het spelen met idee om een nieuwe server te bouwen, dit keer in een rack mount case met een Intel Core i5-13500 op een Z690 mobo. Een LSI 9300-16i heb ik reeds liggen en getest gehad in de huidige server om te zien of deze werkte, wat het geval was. Die HBA wordt wel serieus warm op de heatsink dus gaan we een fan shroud erop monteren + Noctua fan om het zaakje koel te houden.
Alleen de server case is nog een vraagstuk, eventueel een Inter-Tech 4U-4724 (24 bays) maar de afwerking van deze is minder dan bijvoorbeeld de Silverstone RM43-320-RS (20 bays) die wel €250 duurder is dan de Inter-Tech. De Silverstone is wel een stuk beter afgewerkt (minder scherpe randen) en waar de rack rails ook reeds bij zijn, niet dat dit de grote kost is.
Maar een ander voordeel, lijkt me toch want nog geen ervaring met rack mount cases, van de Silverstone is dat er per rij van schijven een backplane is, dus 5 in totaal voor de 20 bays. Terwijl er bij de Inter-Tech maar 2 backplanes zijn, dus als er eentje uitvalt ben je meteen 12 schijven kwijt en moet je maar zien aan een nieuwe backplane te komen.
Zijn er mensen die gebruik maken van een rack mount case, zo ja welke hebben jullie en wat zijn de ervaringen hiermee?
Zelf nog niet bijgewerkt naar 7.0.0 want verbouwingen aan het doen en NAS staat bij mijn ouders en niet meteen een netwerk aansluiting waar deze nu staat. Als de server terug op zijn plaats staat zullen de bugs er vast en zeker wel uit zijn, hoewel heb zelf nog nooit problemen gehad met updates, hout vasthouden
Ben zelf nog altijd aan het spelen met idee om een nieuwe server te bouwen, dit keer in een rack mount case met een Intel Core i5-13500 op een Z690 mobo. Een LSI 9300-16i heb ik reeds liggen en getest gehad in de huidige server om te zien of deze werkte, wat het geval was. Die HBA wordt wel serieus warm op de heatsink dus gaan we een fan shroud erop monteren + Noctua fan om het zaakje koel te houden.
Alleen de server case is nog een vraagstuk, eventueel een Inter-Tech 4U-4724 (24 bays) maar de afwerking van deze is minder dan bijvoorbeeld de Silverstone RM43-320-RS (20 bays) die wel €250 duurder is dan de Inter-Tech. De Silverstone is wel een stuk beter afgewerkt (minder scherpe randen) en waar de rack rails ook reeds bij zijn, niet dat dit de grote kost is.
Maar een ander voordeel, lijkt me toch want nog geen ervaring met rack mount cases, van de Silverstone is dat er per rij van schijven een backplane is, dus 5 in totaal voor de 20 bays. Terwijl er bij de Inter-Tech maar 2 backplanes zijn, dus als er eentje uitvalt ben je meteen 12 schijven kwijt en moet je maar zien aan een nieuwe backplane te komen.
Zijn er mensen die gebruik maken van een rack mount case, zo ja welke hebben jullie en wat zijn de ervaringen hiermee?
Om op deze 2 dingen in te haken:StefaanDG schreef op zaterdag 8 februari 2025 @ 11:33:
@masauri , lijkt erop dat je USB stick geen GUID meer heeft als ik het scherm zo zie?
Zijn er mensen die gebruik maken van een rack mount case, zo ja welke hebben jullie en wat zijn de ervaringen hiermee?
1) bij unraid connect zie ik de guid wel staan en herkent hij die ook.
Vannacht is ergens mijn server weer down gegaan met tzelfde issue.
Bij een testing gebeurde het toen ik een flash backup wilde laten maken.
Daar zit vermoedelijk ergens een issue in.
In die richting zit ik nu te denken.
2) ik gebruik zelf een server rack. Met hotswap bays.
In principe kan je op een schap ook een normale pc case droppen.
Ja het is minder mooi maar kan wel goedkoper zijn.
En dan zit je met makkelijker gebruik van onderdelen.
https://www.fantec.de/pro.../2161_fantec_src_2012x07/StefaanDG schreef op zaterdag 8 februari 2025 @ 13:12:
Dat is wel bizar dan.
Welke case heb je dan precies?
De rest staat in men wenslijst openbaar.
als ik in unraid een foundryVTT docker installeer vraagt deze om een locatie voor de gamedata
dus ik maak een default share
- datadir = foundrydata
- export = yes
- type = public
hierna wordt de docker netjes aangemaakt, de gameserver gedownload etc.
echter wil ik hierna in de share foundrydata/data/worlds een backup van mijjn game plaatsen (via samba)
en dan geeft windows (11) de fout dat de dir aan iemand anders is gegeven en dat ik de map eerst moet vrijgeven om toegang te krijgen
nou kreeg je vroeger tenminste korte (en duidelijke) foutcodes waarop je kon google'n maar met zo'n vage omschrijving krijg ik werkelijk NULL nuttige hits.
mijn eerste gedachte is natuurlijk dat het hier op permissions of locked files gaat.
de docker is echter niet gestart dus optie nr 2 zou ik niet helemaal begrijpen.
en volgens de filemanager van unraid zou permission voor die files op nobody staan
iemand een idee hoe / waar ik moet beginnen met zoeken?
dus ik maak een default share
- datadir = foundrydata
- export = yes
- type = public
hierna wordt de docker netjes aangemaakt, de gameserver gedownload etc.
echter wil ik hierna in de share foundrydata/data/worlds een backup van mijjn game plaatsen (via samba)
en dan geeft windows (11) de fout dat de dir aan iemand anders is gegeven en dat ik de map eerst moet vrijgeven om toegang te krijgen
nou kreeg je vroeger tenminste korte (en duidelijke) foutcodes waarop je kon google'n maar met zo'n vage omschrijving krijg ik werkelijk NULL nuttige hits.
mijn eerste gedachte is natuurlijk dat het hier op permissions of locked files gaat.
de docker is echter niet gestart dus optie nr 2 zou ik niet helemaal begrijpen.
en volgens de filemanager van unraid zou permission voor die files op nobody staan
iemand een idee hoe / waar ik moet beginnen met zoeken?
De map is nu toegewezen aan de user van Docker (uid 99 of 100?)
Jij hebt een ander uid in unraid. Vandaar dat het niet lukt.
Dat kan je door bij instellingen de permissies van de mappen of schijven te herstellen.
Waar het staat weet ik zo niet even vanbuiten.
Als je met MobaXterm gebruikt heb je dat issue niet.
Daarmee log je in als root.
Zelf gebruik ik dat om bestanden over te zetten als ik het niet via verkenner kan doen.
Jij hebt een ander uid in unraid. Vandaar dat het niet lukt.
Dat kan je door bij instellingen de permissies van de mappen of schijven te herstellen.
Waar het staat weet ik zo niet even vanbuiten.
Als je met MobaXterm gebruikt heb je dat issue niet.
Daarmee log je in als root.
Zelf gebruik ik dat om bestanden over te zetten als ik het niet via verkenner kan doen.
Gisterenavond is dus de server wéér plots vastgelopen, is er een mogelijkheid om logs na te kijken zodat ik misschien kan zien wat de trigger was?
Gruwelijk, maar dit probleem heb ik ook een tijd gehad en syslog staat in RAM dus na een crash is het weg. Je kunt syslog server aanzetten en dan elders je logs opslaan. Echter mogelijk kan je ook een monitor aansluiten en kijken of er een kernel panic in beeld is.masauri schreef op dinsdag 11 februari 2025 @ 10:57:
Gisterenavond is dus de server wéér plots vastgelopen, is er een mogelijkheid om logs na te kijken zodat ik misschien kan zien wat de trigger was?
ik heb een monitor aangesloten , maar die laat gewoon een bevroren beeld zien...DieterKoblenz schreef op dinsdag 11 februari 2025 @ 11:37:
[...]
Gruwelijk, maar dit probleem heb ik ook een tijd gehad en syslog staat in RAM dus na een crash is het weg. Je kunt syslog server aanzetten en dan elders je logs opslaan. Echter mogelijk kan je ook een monitor aansluiten en kijken of er een kernel panic in beeld is.
Syslog laten opslaan op een cache disk (of array) om te zien of een je aanwijzing kan vinden. Nooit laten opslaan op je usb-stick. Daardoor degradeert je USB te snel.masauri schreef op dinsdag 11 februari 2025 @ 11:53:
[...]
ik heb een monitor aangesloten , maar die laat gewoon een bevroren beeld zien...
Op de monitor je syslog openen. dan kan je op de monitor de laatste meldingen zien.masauri schreef op dinsdag 11 februari 2025 @ 11:53:
[...]
ik heb een monitor aangesloten , maar die laat gewoon een bevroren beeld zien...
code:
1
| tail -f /var/log/syslog |
Zijn er hier nog mensen die een mail gekregen hebben van unraid?
Mail komt van Unraid zelf en niet van Limetech zelf. Dus vind het wat raar eigenlijk.
Waarom zouden ze dan nog oude gebruikers de mogelijkheid geven om het oude model nog te kunnen gebruiken?
Mail komt van Unraid zelf en niet van Limetech zelf. Dus vind het wat raar eigenlijk.
Vind het extra raar omdat ze van model veranderd zijn naar per jaar betalen.Hello there,
We’re reaching out to let you know that the price to upgrade your Basic or Plus license will be increasing on June 2nd, 2025 (in 2 weeks).
Basic ➡️ Plus will increase by $30.
Basic ➡️ Pro & Plus ➡️ Pro will increase by $40.
Don’t worry—you’ll still save over $50 compared to buying our comparable Lifetime license at full price, while Unraid Plus remains an accessible intermediate option with support for up to 12 devices.
Waarom zouden ze dan nog oude gebruikers de mogelijkheid geven om het oude model nog te kunnen gebruiken?
Ik heb ook snel nog een upgrade gedaan naar Unlitmited voordat zij dit verwijderen. Ben ik nog tenminste futureproof.Asterion schreef op zaterdag 24 mei 2025 @ 12:18:
Zijn er hier nog mensen die een mail gekregen hebben van unraid?
Mail komt van Unraid zelf en niet van Limetech zelf. Dus vind het wat raar eigenlijk.
[...]
Vind het extra raar omdat ze van model veranderd zijn naar per jaar betalen.
Waarom zouden ze dan nog oude gebruikers de mogelijkheid geven om het oude model nog te kunnen gebruiken?
Heb deze ook gekregen in men spam. Momenteel heb ik een plus. Ik denk niet dat ik ga upgraden met 8/12 devicesAsterion schreef op zaterdag 24 mei 2025 @ 12:18:
Zijn er hier nog mensen die een mail gekregen hebben van unraid?
Mail komt van Unraid zelf en niet van Limetech zelf. Dus vind het wat raar eigenlijk.
[...]
Vind het extra raar omdat ze van model veranderd zijn naar per jaar betalen.
Waarom zouden ze dan nog oude gebruikers de mogelijkheid geven om het oude model nog te kunnen gebruiken?
Na al eens op magische wijze een licentie te zijn kwijtgeraakt omdat ik hem een jaar of 2 niet gebruikt had, nu dit weer, ik weet al zeker dat ik ruim voordat unraid verlengt moet worden ik ga overstappen naar iets anders.
vooral nu ik van een andere tweaker las dat freenas van k8s is afgestapt ten behoeve van docker, en er in principe ook altijd nog mediavault is dat je zou kunnen gebruiken (al vind ik mediavault eigenlijk best wel een *K*U*T* systeem met een teleurstellende interface...) ik ga gewoon niet jaar op jaar op jaar meer betalen vooor deze software zoveel voegt het gewoon niet toe...
vooral nu ik van een andere tweaker las dat freenas van k8s is afgestapt ten behoeve van docker, en er in principe ook altijd nog mediavault is dat je zou kunnen gebruiken (al vind ik mediavault eigenlijk best wel een *K*U*T* systeem met een teleurstellende interface...) ik ga gewoon niet jaar op jaar op jaar meer betalen vooor deze software zoveel voegt het gewoon niet toe...
.. Kwijt geraakt?i-chat schreef op zondag 25 mei 2025 @ 21:45:
Na al eens op magische wijze een licentie te zijn kwijtgeraakt omdat ik hem een jaar of 2 niet gebruikt had, nu dit weer, ik weet al zeker dat ik ruim voordat unraid verlengt moet worden ik ga overstappen naar iets anders.
vooral nu ik van een andere tweaker las dat freenas van k8s is afgestapt ten behoeve van docker, en er in principe ook altijd nog mediavault is dat je zou kunnen gebruiken (al vind ik mediavault eigenlijk best wel een *K*U*T* systeem met een teleurstellende interface...) ik ga gewoon niet jaar op jaar op jaar meer betalen vooor deze software zoveel voegt het gewoon niet toe...
Heb je contact opgenomen? Ik heb al jaren een ongebruikte lifetime license (oude pro) die nog steeds actief is. Dus wat is er precies gebeurd?
ooit een licentie gekregen van iemand die het voor mij had gekocht, destijds had ik nog een janlul@gmail-acount zeg maar dus toen ik over ging naar me@domain.nl heb ik in de licentie mij mail veranderd, toen een tijdje unraid geprobeert op een oude desktop nooit heel serieus maar toen ik een paar maanden terug de usb-stick pakte uit de oude spullen lade, bleek deze niet meer te werken en was mijn account verdwenen (iig niet meer te vinden via me@domain (oude mail-account heb ik geen toegang meer toe). all in all ben ik die gewoon kwijt (natuurlijk ook gewoon ergens wel een flink deel eigen schuld - dat snap ik, maar als ik dan een nieuwe licentie koop die nu ineens jaarlijks is om dan na een paar maanden al te lezen dat dat prijsplan gewoon een gevalletje ieder-jaar-inflatie-correct-van-20% wordt dan ben ik daar heel snel klaar mee. het geeft me ook niet het vertrouwen om dan nu te zeggen: ik koop het wel af (eenmalig) voordat de prijs gaat stijgen.
Om oude gebruikers nog de kans te geven om meer schijven te gaan gebruiken en toch levenslange upgrades te krijgen, zonder meteen de duurdere Lifetime licentie te nemen. Dat de prijs omhoog gaat is natuurlijk jammer, maar voor mensen die van plan zijn Unraid een paar jaar te gebruiken is dit natuurlijk nog steeds wel gunstiger dan het alternatief waarbij gebruikers ieder jaar moeten betalen om OS upgrades te krijgen.Asterion schreef op zaterdag 24 mei 2025 @ 12:18:
Vind het extra raar omdat ze van model veranderd zijn naar per jaar betalen.
Waarom zouden ze dan nog oude gebruikers de mogelijkheid geven om het oude model nog te kunnen gebruiken?
Voor de goede orde: die mail waar Asterion het over heeft, gaat niet over de nieuwe jaarlijkse kosten voor OS upgrades.Die prijs is al sinds de aankondiging meer dan een jaar geleden $36. Dat bedrag gaat ongetwijfeld de komende jaren stijgen, maar om nu te zeggen dat het ieder jaar 20% gaat zijn lijkt me overdreven.i-chat schreef op maandag 26 mei 2025 @ 07:27:(...) maar als ik dan een nieuwe licentie koop die nu ineens jaarlijks is om dan na een paar maanden al te lezen dat dat prijsplan gewoon een gevalletje ieder-jaar-inflatie-correct-van-20% wordt dan ben ik daar heel snel klaar mee. het geeft me ook niet het vertrouwen om dan nu te zeggen: ik koop het wel af (eenmalig) voordat de prijs gaat stijgen.
Redelijk recent ben ik overgestapt van Unraid 6 naar 7.0 en eigenlijk direct door naar 7.1, maar ik ben er eigenlijk niet heel erg blij mee
. Waar Unraid 6 voor mij altijd enorm stabiel was, loop ik nu toch tegen kleine problemen aan die relatief veel tijd kosten.
De afgelopen week was af en toe mijn server onbereikbaar en dat werd ook steeds erger. Gisterochtend ben ik daar eens in gedoken en kwam ik tegen dat kswapd0 enorm veel CPU vrat. Maar ik heb helemaal geen swap geconfigureerd
. Echter ging het systeem swappen bij 16GB of 50% geheugengebruik. De andere 16GB was beschikbaar volgens top en free, maar blijkbaar niet te gebruiken? Een reboot loste dit probleem uiteindelijk op en ik kan u ook weer gewoon mijn 32GB gebruiken
. Het enige vermoeden wat ik heb is dat de iGPU een sloot geheugen heeft geclaimed, want ook /dev/shm was zo goed als leeg. Dit was niet de eerste keer dat ik dit zag.
Na de reboot om bovenstaand probleem op te lossen kreeg ik ook Host Access to Custom Networks in Docker met geen mogelijkheid meer aan de praat
. Normaal moest ik sowieso na een reboot het vinkje een keer omzetten om dit te laten werken, maar ook dat werkte nu niet.
Ik kwam verschillende posts op het Unraid forum tegen met vergelijkbare issues sinds 7.1(.2). Maar helaas zonder oplossing. Uiteindelijk heb ik hiervoor de Docker service gestopt en handmatig maar het shim netwerk aangemaakt:
Normaal gebruikte ik de ipvlan driver, maar die moest ik ook inwisselen voor macvlan om het weer te laten werken.
Niet het einde van de wereld, maar vooral vervelend omdat de oorzaak niet echt duidelijk is.

De afgelopen week was af en toe mijn server onbereikbaar en dat werd ook steeds erger. Gisterochtend ben ik daar eens in gedoken en kwam ik tegen dat kswapd0 enorm veel CPU vrat. Maar ik heb helemaal geen swap geconfigureerd

Na de reboot om bovenstaand probleem op te lossen kreeg ik ook Host Access to Custom Networks in Docker met geen mogelijkheid meer aan de praat
Ik kwam verschillende posts op het Unraid forum tegen met vergelijkbare issues sinds 7.1(.2). Maar helaas zonder oplossing. Uiteindelijk heb ik hiervoor de Docker service gestopt en handmatig maar het shim netwerk aangemaakt:
ip link add shim-br0 link br0 type macvlan mode bridge ip link set shim-br0 up
Normaal gebruikte ik de ipvlan driver, maar die moest ik ook inwisselen voor macvlan om het weer te laten werken.
Niet het einde van de wereld, maar vooral vervelend omdat de oorzaak niet echt duidelijk is.
Hoi allen,
Ik ben momenteel bezig met een nieuwe server samen te stellen maar wanneer ik een harde schijf wil wissen in unraid kan ik kiezen tussen xfs, btrs en zfs.
Ik heb verder geen speciale eisen aan het systeem. Het zal enkele dockers draaien, een VM en voor de rest dient het als backup van mijn documenten, foto's en films.
ECC geheugen heb ik niet, dat had ik al begrepen dat ZFS dat wel "vereist" om beter te kunnen werken.
Als ik chatgpt een vergelijking laat maken dan kom ik eigenlijk tot de conclusie dat ik gewoon beter voor xfs kies?
Ik ben momenteel bezig met een nieuwe server samen te stellen maar wanneer ik een harde schijf wil wissen in unraid kan ik kiezen tussen xfs, btrs en zfs.
Ik heb verder geen speciale eisen aan het systeem. Het zal enkele dockers draaien, een VM en voor de rest dient het als backup van mijn documenten, foto's en films.
ECC geheugen heb ik niet, dat had ik al begrepen dat ZFS dat wel "vereist" om beter te kunnen werken.
Als ik chatgpt een vergelijking laat maken dan kom ik eigenlijk tot de conclusie dat ik gewoon beter voor xfs kies?
"vroeger" was in unraid een disk toevoegen in de array met de parity disk.Asterion schreef op vrijdag 13 juni 2025 @ 13:16:
Ik ben momenteel bezig met een nieuwe server samen te stellen maar wanneer ik een harde schijf wil wissen in unraid kan ik kiezen tussen xfs, btrs en zfs.
Als je dit doet is xfs prima. Voordeel van btrs en zfs zijn dat je snapshots kunt maken (wat handig kan zijn) .
Maar xfs is wel de meest volwassene optie, dus zeker ook een goede keus.
Als je met unraid7 een nieuwe server aanmaakt hoef je geen array mee te maken, je kunt ook alleen maar pools maken. Dan is de keus lastiger, maar blijft een keuze. Er is een rede dat je de keus hebt.
Zelf heb ik gekozen om films, documenten enzo ze in een array te houden, en voor vm's en dockers een zfs pool te maken (3disken) en voor caching een btrfs. Maar niet met een hele duidelijke rede.
voor zfs is ecc geheugen fijn, maar niet noodzakelijk.ECC geheugen heb ik niet, dat had ik al begrepen dat ZFS dat wel "vereist" om beter te kunnen werken.
[ Voor 0% gewijzigd door canonball op 13-06-2025 14:20 . Reden: div typo's ]
Mijn setup ziet er eigenlijk als volgt uit:
HDD - Parity disk
HDD - Persoonlijke data
HDD - Media
SSD - appdata (docker en vm)
Mijn vorige setup heb ik gewoon alles als array toegevoegd. Loont het de moeite om de SSD als pool in te zetten? Er is immers maar één?
Dan loont het ook volgens mij niet echt de moeite om voor zfs te gaan?
Cache heb ik wel al naar btrfs omgezet, dat leek ook het slimste volgens chatgpt.
Zijn pools ook beschermd door de parity disk of ben je je data kwijt als de schijf crasht?
HDD - Parity disk
HDD - Persoonlijke data
HDD - Media
SSD - appdata (docker en vm)
Mijn vorige setup heb ik gewoon alles als array toegevoegd. Loont het de moeite om de SSD als pool in te zetten? Er is immers maar één?
Dan loont het ook volgens mij niet echt de moeite om voor zfs te gaan?
Cache heb ik wel al naar btrfs omgezet, dat leek ook het slimste volgens chatgpt.
Zijn pools ook beschermd door de parity disk of ben je je data kwijt als de schijf crasht?
@Asterion Een SSD zou ik niet in de array zetten, want dan heb je geen TRIM support. Dat houdt in dat de performance naar verloop van tijd (enorm) afneemt doordat niet gebruikte sectoren niet opgeruimd worden. Ik heb dus alleen mijn HDD"s in de array zitten. Mijn SSD's (meerdere) zijn losse pools per disk.
Ik heb zelf alles op xfs zitten. Ik heb met btrfs al een paar keer een crash / corruptie meegemaakt en (gedeeltelijke) recovery vond ik enorm veel voeten in de aarde hebben. Bij xfs kun je dan de data nog (gedeeltelijk) bereiken. Ook niet ideaal, maar beter dan niets.
Parity is ook geen backup! De kans dat een disk crash ook een tweede of derde schijf meeneemt, eventueel bij een rebuild, is altijd aanwezig. Daarnaast kan het rebuilden van grote disks erg lang duren. Ik gebruik dus op deze machine al 700 dagen geen parity, maar heb mijn backups op meerdere tiers en locaties ingericht.
Ik heb zelf alles op xfs zitten. Ik heb met btrfs al een paar keer een crash / corruptie meegemaakt en (gedeeltelijke) recovery vond ik enorm veel voeten in de aarde hebben. Bij xfs kun je dan de data nog (gedeeltelijk) bereiken. Ook niet ideaal, maar beter dan niets.
Parity is ook geen backup! De kans dat een disk crash ook een tweede of derde schijf meeneemt, eventueel bij een rebuild, is altijd aanwezig. Daarnaast kan het rebuilden van grote disks erg lang duren. Ik gebruik dus op deze machine al 700 dagen geen parity, maar heb mijn backups op meerdere tiers en locaties ingericht.
@alex3305 Goeie tip, dat wist ik niet. De SSD komt dus in een pool te staan. Dat geldt ook voor een M.2 aangezien dat ondergronds hetzelfde is?
Een parity is geen backup, dat weet ik. Heb daarom ook nog een externe backup van alle belangrijke documenten.
Een parity is geen backup, dat weet ik. Heb daarom ook nog een externe backup van alle belangrijke documenten.
Een SSD is een SSD.Asterion schreef op vrijdag 13 juni 2025 @ 20:18:
@alex3305 Goeie tip, dat wist ik niet. De SSD komt dus in een pool te staan. Dat geldt ook voor een M.2 aangezien dat ondergronds hetzelfde is?
Een parity is geen backup, dat weet ik. Heb daarom ook nog een externe backup van alle belangrijke documenten.
parity is een eerstelijns 'recovery' tool als je parity goed hebt lopen is het vaak de makkelijkste en meest recente backup die je kunt hebben, snapshotted parity zoals unraid dat doet is wat dat betreft weer wat minder goed, maar altijd sneller dan incremental backups.
maar als je stelt dat parity geen backup is dan zeg ik, je hele schijf kopiëren naar een USB-schijf is ook geen backup (er kunnen immers copy-errors hebben opgetreden en een file-check over usb kost je onmogelijk veel tijd dus dat doe je liever ook niet al te vaak.
dan kom je eigenlijk al weer bij deze gemeenheid: 1 back up is geen backup 2 backups is een halve backup 3 backup is pas e(e)n echte backup (pun intended)
maar als je stelt dat parity geen backup is dan zeg ik, je hele schijf kopiëren naar een USB-schijf is ook geen backup (er kunnen immers copy-errors hebben opgetreden en een file-check over usb kost je onmogelijk veel tijd dus dat doe je liever ook niet al te vaak.
dan kom je eigenlijk al weer bij deze gemeenheid: 1 back up is geen backup 2 backups is een halve backup 3 backup is pas e(e)n echte backup (pun intended)
Nu sla ik toch wel even steil achterover.
Ik heb de voorbije dagen redelijk wat Docker containers aangemaakt.
Toen ik wou inloggen via ssh en geen connectie kreeg heb ik de server herstart.
Nu zijn al deze containers verdwenen tussen 2 weken en nu.
Ik heb wel nog alle datamappen staan in de appdata folder maar ze staan niet in het overzicht?
Heeft iemand een idee waar ik moet beginnen zoeken naar de oorzaak?
Nu is er wel immens veel werk verloren.
Ik heb de voorbije dagen redelijk wat Docker containers aangemaakt.
Toen ik wou inloggen via ssh en geen connectie kreeg heb ik de server herstart.
Nu zijn al deze containers verdwenen tussen 2 weken en nu.
Ik heb wel nog alle datamappen staan in de appdata folder maar ze staan niet in het overzicht?
Heeft iemand een idee waar ik moet beginnen zoeken naar de oorzaak?
Nu is er wel immens veel werk verloren.
Adem in, adem uitAsterion schreef op vrijdag 11 juli 2025 @ 15:30:
Nu sla ik toch wel even steil achterover.
Ik heb de voorbije dagen redelijk wat Docker containers aangemaakt.
Toen ik wou inloggen via ssh en geen connectie kreeg heb ik de server herstart.
Nu zijn al deze containers verdwenen tussen 2 weken en nu.![]()
![]()
Ik heb wel nog alle datamappen staan in de appdata folder maar ze staan niet in het overzicht?
Heeft iemand een idee waar ik moet beginnen zoeken naar de oorzaak?
Nu is er wel immens veel werk verloren.
Als je een nieuwe container wilt maken, kan je uit de template lijst verschillende dockers selecteren.
Wanneer je deze aanklikt dan komen alle oude instellingen terug en hoef je enkel nog op "apply" te klikken.
De waarom vraag kan ik niet beantwoorden maar je bent binnen no-time weer "online".
Bedankt voor de tip.kevi-n1 schreef op vrijdag 11 juli 2025 @ 19:57:
[...]
Adem in, adem uit
Als je een nieuwe container wilt maken, kan je uit de template lijst verschillende dockers selecteren.
Wanneer je deze aanklikt dan komen alle oude instellingen terug en hoef je enkel nog op "apply" te klikken.
De waarom vraag kan ik niet beantwoorden maar je bent binnen no-time weer "online".
Ik zie echter wel dat instellingen die ik gemaakt heb ongedaan zijn gemaakt.
Er zijn zelfs containers terug gekomen die ik verwijderd had.
Het is alsof er een snapshot genomen is waar hij na de reboot terug is gegaan.
Edit:
Met behulp van Chatgpt even in de logs gedoken. Daaruit blijkt dat alle wijzigingen sinds vorige maand niet naar de flashdrive zijn weggeschreven en dus alles verloren is gegaan na de reboot.
Worden normaal alle wijzigingen weggeschreven naar de flashdrive wanneer men afsluit of herstart of gebeurd dit tussentijds ook?
[ Voor 19% gewijzigd door Asterion op 11-07-2025 20:46 ]
De flash drive wordt enkel beschreven wanneer er wijzigingen zijn en dat moet wel standaard gebeuren.Asterion schreef op vrijdag 11 juli 2025 @ 20:32:
[...]
Bedankt voor de tip.
Ik zie echter wel dat instellingen die ik gemaakt heb ongedaan zijn gemaakt.
Er zijn zelfs containers terug gekomen die ik verwijderd had.
Het is alsof er een snapshot genomen is waar hij na de reboot terug is gegaan.
Edit:
Met behulp van Chatgpt even in de logs gedoken. Daaruit blijkt dat alle wijzigingen sinds vorige maand niet naar de flashdrive zijn weggeschreven en dus alles verloren is gegaan na de reboot.
Worden normaal alle wijzigingen weggeschreven naar de flashdrive wanneer men afsluit of herstart of gebeurd dit tussentijds ook?
Voor de rest draait alles in het RAM geheugen.
Dan wordt het een nieuwe usb stick.
Dat risico wil ik niet meer opnieuw dat het de volgende reboot weer mis gaat.
Dat risico wil ik niet meer opnieuw dat het de volgende reboot weer mis gaat.
En (als je dit nog niet hebt) de plugins: 'appdata backup' & 'appdata cleanup' installeren.Asterion schreef op vrijdag 11 juli 2025 @ 22:02:
Dan wordt het een nieuwe usb stick.
Dat risico wil ik niet meer opnieuw dat het de volgende reboot weer mis gaat.
De eerste om een backup te maken van je appdata map en usb stick. De tweede om (als je een container verwijderd) ook daadwerkelijke de volledige bijbehorende appdata map op te ruimen.
Ik vind de Appdata backup echt de meest onzinnige plugin die er bestaat. Welke aardappel verzint het om de Docker service daarvoor te stoppen
? Ik snap best dat dat het veiligste is, maar regel dan als je bezig bent je backups gewoon correct in.
Ik gebruik nu al enkele jaren Kopia voor mijn backups. Dat is een deduplicerende backup tool. Ook als container te installeren via de apps store. De initiële opzet is niet bijster complex, maar wel even iets waar je op moet letten. Daarna heb je eigenlijk geen omkijken meer naar.
Mijn appdata en flash drive worden elke 4 / 6 uur gebackupt naar een externe disk:
/f/image/9fzF903yM0EClus1iGWhJ1UM.png?f=fotoalbum_large)
Deze backup schrijf ik daarna ook weg naar twee remote locaties.
Met mijn retentie policy heb ik eveneens genoeg mogelijkheden om bij problemen nog zaken te restoren:
/f/image/PZ3YBD4QOeWP2bVEdAY83C2R.png?f=fotoalbum_large)
En de backup is via de webinterface benaderbaar en browsebaar:
:strip_exif()/f/image/oThuxZLHMEBaOdE00pVGpHHT.png?f=user_large)
Omdat Kopia comprimerend én deduplicerend werkt is mijn backup 'maar' 440GB. Terwijl 1 snapshot al 530GB zou moeten zijn.
Bovenstaand heeft natuurlijk geen zin als de configuratie niet wordt weggeschreven
.
@Asterion Veel werk verloren valt ook wel weer mee. Daarnaast, als het zo belangrijk was, had je wellicht ook de tijd moeten nemen om het te documenteren
.

Ik gebruik nu al enkele jaren Kopia voor mijn backups. Dat is een deduplicerende backup tool. Ook als container te installeren via de apps store. De initiële opzet is niet bijster complex, maar wel even iets waar je op moet letten. Daarna heb je eigenlijk geen omkijken meer naar.
Mijn appdata en flash drive worden elke 4 / 6 uur gebackupt naar een externe disk:
/f/image/9fzF903yM0EClus1iGWhJ1UM.png?f=fotoalbum_large)
Deze backup schrijf ik daarna ook weg naar twee remote locaties.
Met mijn retentie policy heb ik eveneens genoeg mogelijkheden om bij problemen nog zaken te restoren:
/f/image/PZ3YBD4QOeWP2bVEdAY83C2R.png?f=fotoalbum_large)
En de backup is via de webinterface benaderbaar en browsebaar:
:strip_exif()/f/image/oThuxZLHMEBaOdE00pVGpHHT.png?f=user_large)
Omdat Kopia comprimerend én deduplicerend werkt is mijn backup 'maar' 440GB. Terwijl 1 snapshot al 530GB zou moeten zijn.
Bovenstaand heeft natuurlijk geen zin als de configuratie niet wordt weggeschreven

@Asterion Veel werk verloren valt ook wel weer mee. Daarnaast, als het zo belangrijk was, had je wellicht ook de tijd moeten nemen om het te documenteren
Sinds Unraid 7 heb ik eigenlijk een beetje een gek probleem. Ik ben niet 100% zeker of het door Unraid 7 komt, maar het is wel toevallig dat het sinds toen is gaan spelen. Af en toe is mijn server niet meer bereikbaar. Of eigenlijk heel traag. Het komt vast door een proces die helemaal uit de klauwen loopt, maar als ik mijn Beszel monitoring ga bekijken zie ik niets geks:
/f/image/uyv96D7KghULQc7eO8r6FI76.png?f=fotoalbum_large)
Wat ik wel zie op zo'n moment is dat kswapd0 en kcompactd0 nagenoeg alle CPU cycles opsnoepen. Als ik een of meerdere containers stop (bijv. Plex of Paperless-ngx) dan normaliseert het weer. Een reboot lost het sowieso op.
Ik heb geen swap ingesteld en volgens free of top heb ik op zo'n moment ook voldoende geheugen:
Als ik echter een stress test draai dan gaat dit ook goed:
En doe ik hetzelfde met 'teveel' geheugen krijg ik ook netjes een fail:
Gek genoeg is daarna de buff/cache wel een heel stuk leger, maar volgens mij betekend dat niets.
Het enige echte aanknopingspunt of iets wat echt heel vreemd is, is dat mijn Caddy setup met caddy-docker-proxy compleet stopt met werken. Het is dus net of Docker API / Socket niet meer bereikbaar is
. Maar ik zie daar verder niets geks terug. Ook niet in de Unraid logging.
Vergelijkbare problemen heb ik ook gevonden op het Unraid forum, maar zonder resultaat. Ik vind het wel jammer want Unraid 6 was enorm stabiel.
/f/image/uyv96D7KghULQc7eO8r6FI76.png?f=fotoalbum_large)
Wat ik wel zie op zo'n moment is dat kswapd0 en kcompactd0 nagenoeg alle CPU cycles opsnoepen. Als ik een of meerdere containers stop (bijv. Plex of Paperless-ngx) dan normaliseert het weer. Een reboot lost het sowieso op.
Ik heb geen swap ingesteld en volgens free of top heb ik op zo'n moment ook voldoende geheugen:
root@LeeTower:~# free -h total used free shared buff/cache available Mem: 31Gi 17Gi 2.6Gi 4.1Gi 15Gi 13Gi Swap: 0B 0B 0B
Als ik echter een stress test draai dan gaat dit ook goed:
root@LeeTower:~# docker run -ti --rm polinux/stress stress --cpu 1 --io 1 --vm 4 --vm-bytes 4G --timeout 10s stress: info: [1] dispatching hogs: 1 cpu, 1 io, 4 vm, 0 hdd stress: info: [1] successful run completed in 10s
En doe ik hetzelfde met 'teveel' geheugen krijg ik ook netjes een fail:
root@LeeTower:~# docker run -ti --rm polinux/stress stress --cpu 1 --io 1 --vm 8 --vm-bytes 4G -- timeout 10s stress: info: [1] dispatching hogs: 1 cpu, 1 io, 8 vm, 0 hdd stress: FAIL: [1] (415) <-- worker 11 got signal 9 stress: WARN: [1] (417) now reaping child worker processes stress: FAIL: [1] (451) failed run completed in 3s
Gek genoeg is daarna de buff/cache wel een heel stuk leger, maar volgens mij betekend dat niets.
root@LeeTower:~# free -h total used free shared buff/cache available Mem: 31Gi 14Gi 15Gi 4.1Gi 5.6Gi 16Gi Swap: 0B 0B 0B
Het enige echte aanknopingspunt of iets wat echt heel vreemd is, is dat mijn Caddy setup met caddy-docker-proxy compleet stopt met werken. Het is dus net of Docker API / Socket niet meer bereikbaar is
Vergelijkbare problemen heb ik ook gevonden op het Unraid forum, maar zonder resultaat. Ik vind het wel jammer want Unraid 6 was enorm stabiel.
Ik had er ook last van, de echte oorzaak weet ik niet maar het gaat hier weer een tijdje goed.alex3305 schreef op donderdag 17 juli 2025 @ 12:18:
Sinds Unraid 7 heb ik eigenlijk een beetje een gek probleem. Ik ben niet 100% zeker of het door Unraid 7 komt, maar het is wel toevallig dat het sinds toen is gaan spelen. Af en toe is mijn server niet meer bereikbaar. Of eigenlijk heel traag.
Mijn vermoeden was krusader, die heb ik nu gestopt en er sinsdien geen last meer van. Het is bij mij begonnen een paar weken geleden, lang nadat ik na versie 7 ben gegaan, en krusader is zover ik zie afgelopen tijd niet update. Het blijft voor mij dus een vermoeden, maar mocht je ook krusader gebruiken, probeer die dan eens een tijdje te stoppen.
@canonball Ik moest googlen wat Krusader is
. Dus nee, die gebruik ik niet
.
Ik gebruikte eerder ook veelvuldig /dev/shm maar daar ben ik ook maar mee gestopt om dit probleem te tacklen. Dat hielp overigens wel, maar uiteindelijk komt het toch terug.
Ik heb het vermoeden dat er iets misgaat in de berekening van het beschikbare geheugen. Het swappen gebeurt als ik circa 50% van het beschikbare geheugen daadwerkelijk in gebruik heb. Als ik de Beszel stats mag geloven ligt het ook niet aan de Docker containers, want daar veranderd niets, of weinig.
/f/image/41Ye9OIyoyfygNS71GldtzD9.png?f=fotoalbum_large)
Wat ik voornamelijk zo gek vind is dat de OOM killer niet getriggerd wordt, maar dat het systeem wel als een malloot gaat swappen. Bij Debian / Ubuntu systemen gaat dat in mijn ervaring toch aardig hand in hand.
Overigens post een user hier ongeveer hetzelfde en als ik dus de sysctl commando's overneem, kalmeert het systeem direct. Super vaag
Ik gebruikte eerder ook veelvuldig /dev/shm maar daar ben ik ook maar mee gestopt om dit probleem te tacklen. Dat hielp overigens wel, maar uiteindelijk komt het toch terug.
Ik heb het vermoeden dat er iets misgaat in de berekening van het beschikbare geheugen. Het swappen gebeurt als ik circa 50% van het beschikbare geheugen daadwerkelijk in gebruik heb. Als ik de Beszel stats mag geloven ligt het ook niet aan de Docker containers, want daar veranderd niets, of weinig.
/f/image/41Ye9OIyoyfygNS71GldtzD9.png?f=fotoalbum_large)
Wat ik voornamelijk zo gek vind is dat de OOM killer niet getriggerd wordt, maar dat het systeem wel als een malloot gaat swappen. Bij Debian / Ubuntu systemen gaat dat in mijn ervaring toch aardig hand in hand.
Overigens post een user hier ongeveer hetzelfde en als ik dus de sysctl commando's overneem, kalmeert het systeem direct. Super vaag
WebUI niet beschikbaar is in veel gevallen dat de eerste cpu core (core 0) vol benut wordt door bijv een docker. Het % van totaal cpu gebruik heb je dan niet zoveel aan, want 100% van 1 core als je er bijv 16 hebt is niet veel, iets van 6%.alex3305 schreef op donderdag 17 juli 2025 @ 12:18:
...
Vergelijkbare problemen heb ik ook gevonden op het Unraid forum, maar zonder resultaat. Ik vind het wel jammer want Unraid 6 was enorm stabiel.
Veel van Unraid en daarbij het WebUI draait vrijwel exclusief op die core 0 en soms core 1.
Sinds ik dit heb ontdekt ben ik ook standaard zwaardere en onvertrouwde dockers/vms gaan excluden van het gebruik van core 0 en core 1, aangezien deze geprefereerd worden door Unraid. Sindsdien heb ik geen problemen meer gehad met een onbereikbare WebUI.
Dit probleem kwam dan ook wel voor in vorige Unraid versies.
Het zou tevens ook nog door teveel IOps kunnen zijn van iets. Deze zijn ook vrij singlethreaded en kunnen dan ook die WebUI op core 0 in de weg gaan zitten.
Waarom Limetech de WebUI niet een hogere prioriteit geeft snap ik niet helemaal verder, maar dat terzijde.
[ Voor 19% gewijzigd door ErikRedbeard op 21-07-2025 22:43 ]
@ErikRedbeard Goede gedachte, maar die vlieger gaat bij mij niet op. Ik heb door middel van taskset de Unraid processen op andere (E-)cores draaien
. Tegelijkertijd is het ook niet één core die belast wordt. Ik kijk uiteraard niet alleen in Beszel, maar dat snap jij natuurlijk wel. kswapd0 en kcompactd0 pakken ergens tussen de 4 en 8 cores met een belasting van rond de 80-120
. Dat heurt niet zo. De Unraid processen komen niet eens voor in de top (pun intended).
De hoge IOPS gedachte is eveneens een goede poging die snel strandt. De meeste van mijn processen draaien langs shfs heen omdat deze inderdaad niet erg geoptimaliseerd is. Ook niet verwonderlijk aangezien het volgens mij door middel van FUSE gaat.
Het systeem vermoed ergens uit geheugen te zijn of de behoefte krijgen om geheugen te compacten. Maar dat raakt kant noch wal omdat ik - bijvoorbeeld vorige week - nog zo'n 30-50% geheugen vrij heb, al dan niet in shared/buffers. De kernel is het hier blijkbaar ook mee eens aangezien er eveneens geen oom-killer getriggerd wordt. Dan moet er iets gaar zijn. Of dat dan een Unraid proces is, een configuratie of mijn hardware, dat weet ik niet. Maar het klopt niet.
Sinds ik vorige week het compacten en swappiness heb uitgezet met ...
... draait het systeem alweer een week (zonder reboot) als een zonnetje.
/f/image/rNBU8IwWUSNVUJ8oISMoalOo.png?f=fotoalbum_large)
Toen ik echter als test de bovenstaande sysctl instellingen terugzette op de oorspronkelijke waardes ging het weer mis. Maar in ieder geval werkt het nu.

De hoge IOPS gedachte is eveneens een goede poging die snel strandt. De meeste van mijn processen draaien langs shfs heen omdat deze inderdaad niet erg geoptimaliseerd is. Ook niet verwonderlijk aangezien het volgens mij door middel van FUSE gaat.
Het systeem vermoed ergens uit geheugen te zijn of de behoefte krijgen om geheugen te compacten. Maar dat raakt kant noch wal omdat ik - bijvoorbeeld vorige week - nog zo'n 30-50% geheugen vrij heb, al dan niet in shared/buffers. De kernel is het hier blijkbaar ook mee eens aangezien er eveneens geen oom-killer getriggerd wordt. Dan moet er iets gaar zijn. Of dat dan een Unraid proces is, een configuratie of mijn hardware, dat weet ik niet. Maar het klopt niet.
Sinds ik vorige week het compacten en swappiness heb uitgezet met ...
sysctl -w vm.swappiness=0 sysctl -w vm.compaction_proactiveness=0 sysctl -w vm.extfrag_threshold=1000
... draait het systeem alweer een week (zonder reboot) als een zonnetje.
/f/image/rNBU8IwWUSNVUJ8oISMoalOo.png?f=fotoalbum_large)
Toen ik echter als test de bovenstaande sysctl instellingen terugzette op de oorspronkelijke waardes ging het weer mis. Maar in ieder geval werkt het nu.
Ik ging er inderdaad vanuit dat je een vrij standaard setup draaide, maar misschien dat het iemand anders helpt verder.
De shares draaien inderdaad via FUSE wat nogal een hog kan zijn. Inderdaad gewoon vermijden met container folders en dergelijke zolang je niet de functies van de share nodig hebt voor iets.
[ Voor 6% gewijzigd door ErikRedbeard op 22-07-2025 15:17 ]
Geen probleemErikRedbeard schreef op dinsdag 22 juli 2025 @ 15:17:
Ik ging er inderdaad vanuit dat je een vrij standaard setup draaide, maar misschien dat het iemand anders helpt verder.
Voor read-only taken of grote bulk acties gebruik ik het wel, maar daar is het ook voor bedoeld. Alle Docker (app)data staat op SSD en wordt direct benaderd ipv shfs. Behalve als het echt niet anders kan.De shares draaien inderdaad via FUSE wat nogal een hog kan zijn. Inderdaad gewoon vermijden met container folders en dergelijke zolang je niet de functies van de share nodig hebt voor iets.
Er gebeurt wel iets vreemds overigens met loads met hoge iops. Wanneer het systeem dus problemen heeft met swap/compact en ik een load start met veel iops wordt het systeem eveneens onmogelijk traag. Bijvoorbeeld ncdu. Ook wanneer dit via een directe mount gaat (bijv. /mnt/system). Vooralsnog heb ik dit eveneens onder geheugen tekort geschaard, maar misschien is dat ook niet de gehele waarheid. Dit is wederom niet meer voorgekomen.
Hoi allen,
Voor het vervangen van mijn oude synology 412+ heb ik onlangs een Aoostar WTR PRO (amd) aangeschaft.
Ik ben nog redelijk nieuw in het server OS gebeuren en na een redelijk geslaagde poging met Truenas viel mijn oog op Unraid (met zijn vele apps) en heb ik inmiddels een trial versie draaien.
Specs:
AMD Ryzen 7 5825U
32gb ram
2x nvme 2Tb als cache drives in mirror voor apps/containers/vm's.
2x 12 Tb Seagate Ironwolfs Pro (1 parity en 1 data)
Nas zal voornamelijk gebruikt worden als media server (ARR stacks), foto opslag ipv iCloud en documenten.
Nu heb ik een 3e 12Tb schijf klaarliggen maar vind het eigenlijk onnodig deze in de 'beveiligde' array te hangen omdat bijvoorbeeld muziek en film makkelijk opnieuw te vinden is (origineel staat in de kast natuurlijk).
Hoe pakken jullie dit aan? Als ik de drive toe wil voegen zie ik alleen de keuze cache of toevoegen aan de array.
Voor het vervangen van mijn oude synology 412+ heb ik onlangs een Aoostar WTR PRO (amd) aangeschaft.
Ik ben nog redelijk nieuw in het server OS gebeuren en na een redelijk geslaagde poging met Truenas viel mijn oog op Unraid (met zijn vele apps) en heb ik inmiddels een trial versie draaien.
Specs:
AMD Ryzen 7 5825U
32gb ram
2x nvme 2Tb als cache drives in mirror voor apps/containers/vm's.
2x 12 Tb Seagate Ironwolfs Pro (1 parity en 1 data)
Nas zal voornamelijk gebruikt worden als media server (ARR stacks), foto opslag ipv iCloud en documenten.
Nu heb ik een 3e 12Tb schijf klaarliggen maar vind het eigenlijk onnodig deze in de 'beveiligde' array te hangen omdat bijvoorbeeld muziek en film makkelijk opnieuw te vinden is (origineel staat in de kast natuurlijk).
Hoe pakken jullie dit aan? Als ik de drive toe wil voegen zie ik alleen de keuze cache of toevoegen aan de array.
Je hebt op unRAID een enkele array, maar kan sinds 6.9 meerdere pools aanmaken. Die hoeven niet per se als cache te dienen.
Ik heb zelf bijvoorbeeld een 2e pool met een wat oudere/tragere SSD (voorheen een HDD) om downloads naar toe te schrijven. Daarvoor wil ik m'n array niet laten draaien, en m'n snelle cache SSD niet mee belasten.
Ik heb zelf bijvoorbeeld een 2e pool met een wat oudere/tragere SSD (voorheen een HDD) om downloads naar toe te schrijven. Daarvoor wil ik m'n array niet laten draaien, en m'n snelle cache SSD niet mee belasten.
Komt d'r in, dan kö-j d’r oet kieken
Ik download nu ook op de cache pool (nvme's) en laat het dan via mover verplaatsen naar de array. Die laatste kan ik dus vervangen door een 2e data pool.D4NG3R schreef op donderdag 31 juli 2025 @ 13:20:
Je hebt op unRAID een enkele array, maar kan sinds 6.9 meerdere pools aanmaken. Die hoeven niet per se als cache te dienen.
Ik heb zelf bijvoorbeeld een 2e pool met een wat oudere/tragere SSD (voorheen een HDD) om downloads naar toe te schrijven. Daarvoor wil ik m'n array niet laten draaien, en m'n snelle cache SSD niet mee belasten.
Ga ik proberen, thanks!
Toen ik net met unRAID begon werden SSD's nog iets minder stevig gebakken en was ik binnen een jaar door 70% van de durability van m'n cache SSD heen gevreten grotendeels door downloads.rsvmark schreef op donderdag 31 juli 2025 @ 13:26:
[...]
Ik download nu ook op de cache pool (nvme's) en laat het dan via mover verplaatsen naar de array.
Maar goed, dat is inmiddels ook alweer een jaar of 7-8 geleden met een vrij kleine SSD. Op moderne SSD's is het wat minder relevant. Desalniettemin probeer ik dat soort intensieve schrijfacties op m'n cache te voorkomen.
Yes, je kan de 3e schijf toevoegen als 2e pool, en 'gewoon' de mover zaken tussen de array/pool1/pool2 laten schuiven.Die laatste kan ik dus vervangen door een 2e data pool.
Ga ik proberen, thanks!
[ Voor 6% gewijzigd door D4NG3R op 31-07-2025 13:38 ]
Komt d'r in, dan kö-j d’r oet kieken
Was dit niet door een bug in Unraid als er btrfs werd gebruikt voor de cache? Kan het verkeerd voorhebben. Nu mijn cache gebruikt reeds een tijd zfs.D4NG3R schreef op donderdag 31 juli 2025 @ 13:33:
[...]
Toen ik net met unRAID begon werden SSD's nog iets minder stevig gebakken en was ik binnen een jaar door 70% van de durability van m'n cache SSD heen gevreten grotendeels door downloads.
[...]
Ben zelf ook reeds een tijd aan het denken om een nieuwe Unraid server op te zetten, niet dat de originele niet meer voldoet maar de HDD's koel houden in de Node 804 case is toch een dingetje.
Zit zelf te tobben om of wel een rack mount server te bouwen en in de berging te plaatsen daar heeft die ademruimte genoeg en dan heb 'k ook geen last van het eventuele geluid. Of een off-shelf NAS zoals de Aoostar WTR MAX of de Ugreen NASync DXP8800 Plus. Wel flink aan de prijs die laatste, voor wat meer kan ik zeker de zelfbouw route nemen.
Mijn droom case momenteel is de 45HomeLab HL15 2.0 maar ja die kost ook een aardige duit om maar niet te spreken over shipping en invoerrechten.
Ik heb oprecht geen idee, destijds (2017-18) had ik een oude 128GB MX100 als cache in m'n servertje zitten, beestje was in een kleine 13 maanden van 7% lifetime used naar 71% gevlogen.StefaanDG schreef op donderdag 31 juli 2025 @ 14:02:
[...]
Was dit niet door een bug in Unraid als er btrfs werd gebruikt voor de cache? Kan het verkeerd voorhebben. Nu mijn cache gebruikt reeds een tijd zfs.
Zal op een moderne (en vooral; grotere) SSD absoluut niet zo hard gaan, desalniettemin slinger ik downloads nog altijd eerst lekker naar een losse SSD waar ik weinig om geef voordat ze elders in hun geheel worden weggeschreven.
Komt d'r in, dan kö-j d’r oet kieken
Mijn primaire 1TB Samsung SSD heb ik volgens mij met de bouw van mijn Unraid machine in de zomer van 2023 in gebruik genomen. Daarvan zegt SMART nu dat deze 20% verbruikt is met 133TB geschreven. Maar ik doe 'alles' met deze disk. Alle appdata, Docker containers, Linux ISO's downloaden, etc. Met een lineaire aftakeling (en dat is niet zo) zou deze disk dus nog bijna 8 jaar mee moeten kunnen. Ik geloof dat wel, maar vind het zeker niet onredelijk.
De 1TB Crucial P1 die ernaast zit is een jaartje ouder, maar heeft 'maar' 30TB bytes written en daardoor nog 98% levensduur. Die zal ik dus sowieso niet snel verslijten.
Opslag blijft voor mij een gebruiksproduct. Heb ik ook een mooi excuus om te upgraden
.
De 1TB Crucial P1 die ernaast zit is een jaartje ouder, maar heeft 'maar' 30TB bytes written en daardoor nog 98% levensduur. Die zal ik dus sowieso niet snel verslijten.
Opslag blijft voor mij een gebruiksproduct. Heb ik ook een mooi excuus om te upgraden
Hoe regelen jullie docker container updates in Unraid? Als ik een beetje google zijn veel mensen nogal panisch over automatische updates, wat ik in principe wel begrijp. Nu heb ik mijn nieuwe unraid server met 16 docker containers ongeveer 6 weken lopen en voor 14 van de 16 containers zijn updates beschikbaar. Ik ben dus toch maar, handmatig, begonnen met updaten maar ik ben niet van plan om dat op deze manier te blijven doen aangezien het nogal wat tijd kost.
Chatgpt adviseert om handmatig te updaten en evt van tevoren de change logs te bekijken en achteraf te testen.
Hoe doen jullie dit? Ik zag dat CA Backup de mogelijkheid biedt om automatisch updates uit te laten voeren na een succesvolle backup, dat lijkt mij bijvoorbeeld wel prettig.
Chatgpt adviseert om handmatig te updaten en evt van tevoren de change logs te bekijken en achteraf te testen.
Hoe doen jullie dit? Ik zag dat CA Backup de mogelijkheid biedt om automatisch updates uit te laten voeren na een succesvolle backup, dat lijkt mij bijvoorbeeld wel prettig.
Ik trek zelf wekelijks een backup van m'n containers, dus in het ergste geval kan ik de boel wel reverten. Maar heel eerlijk is dat nog nooit nodig geweest, er zijn wel een aantal containers welke ik handmatig even een versie terug heb gezet. (en een enkele container blijft daar ook op)
Ik klik af en toe op update all containers, wil wel graag weten wanneer het nu precies fout is gegaan i.p.v. eerst te moeten zoeken of er niet toevallig een update is geweest.
Ik klik af en toe op update all containers, wil wel graag weten wanneer het nu precies fout is gegaan i.p.v. eerst te moeten zoeken of er niet toevallig een update is geweest.
Komt d'r in, dan kö-j d’r oet kieken
Bij mij staat alles op automatisch. Daar heb ik nog geen problemen mee gehad voorlopig.
Elke nacht een appdata backup
Elke nacht automatisch update van sommige containers, andere doe ik handmatig.
Kapot? Gewoon restoren. Ik draai niks bedrijfskritisch
Elke nacht automatisch update van sommige containers, andere doe ik handmatig.
Kapot? Gewoon restoren. Ik draai niks bedrijfskritisch
Share and Enjoy!
Dat laatste lijkt mij ook het grootste struikelblok. Ik laat elke nacht een appdata backup maken en er worden er slechts 3 bewaard. In het slechtste geval kom je er later achter dat een container kapot is gegaan en heb je geen goede backup meer. Ik denk dat jouw oplossing een goede is.D4NG3R schreef op maandag 4 augustus 2025 @ 12:23:
Ik trek zelf wekelijks een backup van m'n containers, dus in het ergste geval kan ik de boel wel reverten. Maar heel eerlijk is dat nog nooit nodig geweest, er zijn wel een aantal containers welke ik handmatig even een versie terug heb gezet. (en een enkele container blijft daar ook op)
Ik klik af en toe op update all containers, wil wel graag weten wanneer het nu precies fout is gegaan i.p.v. eerst te moeten zoeken of er niet toevallig een update is geweest.
Dat is ook een beetje mijn gedachte. Het is heel prettig als alles gewoon blijft werken, maar het blijft hobby. Hoe lang bewaar je jouw backups? Wat is jouw instelling?WCA schreef op maandag 4 augustus 2025 @ 12:32:
Elke nacht een appdata backup
Elke nacht automatisch update van sommige containers, andere doe ik handmatig.
Kapot? Gewoon restoren. Ik draai niks bedrijfskritisch
Goed om te horen. Ik neig er toch ook sterk naar om het maar gewoon te proberen met een goede backupstrategie. Het probleem is dat ik niet alle containers dagelijks gebruik, dus als er 1 kapot gaat kan het zijn dat ik daar pas veel later achter kom.Stefuit schreef op maandag 4 augustus 2025 @ 12:32:
Bij mij staat alles op automatisch. Daar heb ik nog geen problemen mee gehad voorlopig.
7 dagen bewaren, en ik cross-sync mijn backups via Syncthing nog naar een maat van me toe.SaN schreef op maandag 4 augustus 2025 @ 12:53:
[...]
Dat is ook een beetje mijn gedachte. Het is heel prettig als alles gewoon blijft werken, maar het blijft hobby. Hoe lang bewaar je jouw backups? Wat is jouw instelling?
Is wellicht wat overkill maar ik heb zat ruimte, maat van me ook.
Share and Enjoy!
Helder. Ik laat ze naar een aparte schijf buiten de array schrijven. Wellicht kijk ik nog eens naar een offsite backup optie voor eens in de week bijvoorbeeld voor het geval er iets met de kast gebeurt.WCA schreef op maandag 4 augustus 2025 @ 13:44:
[...]
7 dagen bewaren, en ik cross-sync mijn backups via Syncthing nog naar een maat van me toe.
Is wellicht wat overkill maar ik heb zat ruimte, maat van me ook.
Grootste angst is voor mij dat het misschien eens voorkomt dat het langer duurt voordat ik het door heb dat er een container kapot is gegaan. Vandaar dat ik de backups nu 28 dagen laat bewaren maar met 18gb per backup is dat straks 500gb aan backupruimte. Opzich niet zo erg op een 3tb schijf die eigenlijk nergens anders voor wordt gebruikt, maar het kan netter.
Ik zou het liefst hebben dat backups van de laatste week allemaal worden bewaard en dan vervolgens 5 backups van de 5 weken daarvoor. Misschien eens een scriptje maken of een meer geavanceerd backupprogramma proberen.
Ik beheer mijn Docker containers buiten Unraid om met Docker Compose. Updates doe ik met automatisch met Renovate en Forgejo Actions. Daar heb ik een hele tijd geleden alweer iets over geschreven in het Docker topic.
Dit zorgt ervoor dat ik precies kan zien wat wanneer gewijzigd is, en dus eventueel ook kan ingrijpen. Deze automatische updates gebeuren alleen overdag. Eveneens heb ik sommige updates zo ingesteld dat deze goedkeuring vereisen. Bijvoorbeeld bij Home Assistant en Zigbee2MQTT. Ik heb namelijk geen zin in onverwachte verrassingen.
Docker Compose (en Docker Swarm) installeer en configureer ik overigens met Ansible in plaats van de kant-en-klare Docker Compose uit de Apps store. Dit is niets meer dan de GitHub release uitpakken in /usr/local/lib/docker/cli-plugins/ en de juiste 0755 permissie meegeven. Deze houdt ik eveneens up to date met Renovate.
Backups maak ik met een Kopia container. Na de opzet heb ik hier geen omkijken meer naar en mijn appdata backups blijven tot één jaar bewaard. Door de deduplication neemt dit ook niet bijster veel ruimte in. Database snapshots maak ik live met de Postgres of MariaDB/MySQL tooling. Dit is ook niets meer dan een oneliner:
De database data / WALs houdt ik buiten de backup omdat deze waarschijnlijk toch niet (correct) te restoren zijn.
Denk er overigens aan dat backups alleen nuttig zijn als je ook regelmatig de restore test
. Een backup zonder restore (test) is geen backup, maar waardeloze bytes.
Dit zorgt ervoor dat ik precies kan zien wat wanneer gewijzigd is, en dus eventueel ook kan ingrijpen. Deze automatische updates gebeuren alleen overdag. Eveneens heb ik sommige updates zo ingesteld dat deze goedkeuring vereisen. Bijvoorbeeld bij Home Assistant en Zigbee2MQTT. Ik heb namelijk geen zin in onverwachte verrassingen.
Docker Compose (en Docker Swarm) installeer en configureer ik overigens met Ansible in plaats van de kant-en-klare Docker Compose uit de Apps store. Dit is niets meer dan de GitHub release uitpakken in /usr/local/lib/docker/cli-plugins/ en de juiste 0755 permissie meegeven. Deze houdt ik eveneens up to date met Renovate.
Backups maak ik met een Kopia container. Na de opzet heb ik hier geen omkijken meer naar en mijn appdata backups blijven tot één jaar bewaard. Door de deduplication neemt dit ook niet bijster veel ruimte in. Database snapshots maak ik live met de Postgres of MariaDB/MySQL tooling. Dit is ook niets meer dan een oneliner:
# PostgreSQL docker exec -i immich-database /bin/bash -c 'PGPASSWORD=$POSTGRES_PASSWORD pg_dumpall --username=$POSTGRES_USER' > /mnt/applications/appdata/immich/database.sql # MariaDB / MySQL docker exec -i home-assistant-database sh -c 'mariadb-dump --all-databases > /var/lib/mysql/dump.sql'
De database data / WALs houdt ik buiten de backup omdat deze waarschijnlijk toch niet (correct) te restoren zijn.
Denk er overigens aan dat backups alleen nuttig zijn als je ook regelmatig de restore test
Wow.. Haha bedankt! Gemini had het ook al over het nut van een restore test. Ik ga ernaar kijken.alex3305 schreef op maandag 4 augustus 2025 @ 13:57:
Ik beheer mijn Docker containers buiten Unraid om met Docker Compose. Updates doe ik met automatisch met Renovate en Forgejo Actions. Daar heb ik een hele tijd geleden alweer iets over geschreven in het Docker topic.
Dit zorgt ervoor dat ik precies kan zien wat wanneer gewijzigd is, en dus eventueel ook kan ingrijpen. Deze automatische updates gebeuren alleen overdag. Eveneens heb ik sommige updates zo ingesteld dat deze goedkeuring vereisen. Bijvoorbeeld bij Home Assistant en Zigbee2MQTT. Ik heb namelijk geen zin in onverwachte verrassingen.
Docker Compose (en Docker Swarm) installeer en configureer ik overigens met Ansible in plaats van de kant-en-klare Docker Compose uit de Apps store. Dit is niets meer dan de GitHub release uitpakken in /usr/local/lib/docker/cli-plugins/ en de juiste 0755 permissie meegeven. Deze houdt ik eveneens up to date met Renovate.
Backups maak ik met een Kopia container. Na de opzet heb ik hier geen omkijken meer naar en mijn appdata backups blijven tot één jaar bewaard. Door de deduplication neemt dit ook niet bijster veel ruimte in. Database snapshots maak ik live met de Postgres of MariaDB/MySQL tooling. Dit is ook niets meer dan een oneliner:
# PostgreSQL docker exec -i immich-database /bin/bash -c 'PGPASSWORD=$POSTGRES_PASSWORD pg_dumpall --username=$POSTGRES_USER' > /mnt/applications/appdata/immich/database.sql # MariaDB / MySQL docker exec -i home-assistant-database sh -c 'mariadb-dump --all-databases > /var/lib/mysql/dump.sql'
De database data / WALs houdt ik buiten de backup omdat deze waarschijnlijk toch niet (correct) te restoren zijn.
Denk er overigens aan dat backups alleen nuttig zijn als je ook regelmatig de restore test. Een backup zonder restore (test) is geen backup, maar waardeloze bytes.
Ondanks dat ik beter weet, moet ik zeggen dat ik eigenlijk nooit echt geplande restore tests doen. Wel ongeplande, als ik iets kapot gemaakt hebSaN schreef op maandag 4 augustus 2025 @ 14:02:
[...]
Wow.. Haha bedankt! Gemini had het ook al over het nut van een restore test. Ik ga ernaar kijken.
Share and Enjoy!
Nadat ik relatief recent naar Unifi ben overgestapt heb ik vandaag eindelijk de moeite genomen om ook VLANs in te regelen op mijn Unraid machine. Ik zag hier een beetje tegen op door de enorm moeizame ervaring van een kennis van me, maar die zorgen waren uiteindelijk onterecht.
In Unifi heb ik allereerst een VLAN aangemaakt met ID 40:
/f/image/t3YYmvCAK4biL1ULAIMIjhLf.png?f=fotoalbum_large)
Ik heb daarna dat VLAN toegevoegd met dezelfde instellingen in Unraid's Network Settings:
/f/image/FO68ZhVoFZLACBVgoqo0wAqx.png?f=fotoalbum_large)
EDIT Ik had hier eerder staan dat IPv4 Address Assignment op None moest staan, maar dat klopt niet. Dit moet Automatic zijn. De None optie werkt maar maakt geen bridge of shims aan waardoor container <> container communicatie niet werkt. De Static optie is ook mogelijk, maar ik houd het liever dynamisch.
En vervolgens ook toegewezen in Docker Settings:
/f/image/sObIAgXP3QkWa3a6EO3rOGbs.png?f=fotoalbum_large)
Dat was het eigenlijk
.
Na het aanpassen van het netwerk in de Compose definitie, werkte dit out of the box.
In Unifi heb ik allereerst een VLAN aangemaakt met ID 40:
/f/image/t3YYmvCAK4biL1ULAIMIjhLf.png?f=fotoalbum_large)
Ik heb daarna dat VLAN toegevoegd met dezelfde instellingen in Unraid's Network Settings:
/f/image/FO68ZhVoFZLACBVgoqo0wAqx.png?f=fotoalbum_large)
EDIT Ik had hier eerder staan dat IPv4 Address Assignment op None moest staan, maar dat klopt niet. Dit moet Automatic zijn. De None optie werkt maar maakt geen bridge of shims aan waardoor container <> container communicatie niet werkt. De Static optie is ook mogelijk, maar ik houd het liever dynamisch.
En vervolgens ook toegewezen in Docker Settings:
/f/image/sObIAgXP3QkWa3a6EO3rOGbs.png?f=fotoalbum_large)
Dat was het eigenlijk

Na het aanpassen van het netwerk in de Compose definitie, werkte dit out of the box.
[ Voor 14% gewijzigd door alex3305 op 04-08-2025 16:24 ]
En dat ging goed?WCA schreef op maandag 4 augustus 2025 @ 14:05:
[...]
Ondanks dat ik beter weet, moet ik zeggen dat ik eigenlijk nooit echt geplande restore tests doen. Wel ongeplande, als ik iets kapot gemaakt heb
Ik heb sinds kort ZFS geïnstalleerd voor mijn cache waar mijn dockers en vm's op staan. Moet alleen nog eens kijken om automatische snapshots te nemen en deze in de array te plaatsen. Moet het nu manueel doen
Als je dat moest doen kan je zeer snel herbeginnen moest er toch iets mis gaan.
Spaceinvaderone heeft hiervoor een video gemaakt hoe je dit moet doen. Alleen voor automatische snapshots gebruikt hij een ZFS schijf in de array. Dus weet ik niet of dit zal werken als je geen ZFS schijf hebt.
Als je dat moest doen kan je zeer snel herbeginnen moest er toch iets mis gaan.
Spaceinvaderone heeft hiervoor een video gemaakt hoe je dit moet doen. Alleen voor automatische snapshots gebruikt hij een ZFS schijf in de array. Dus weet ik niet of dit zal werken als je geen ZFS schijf hebt.
Heb iets geks aan de hand, kan plots niet meer via mijn gebruikersnaam en wachtwoord inloggen.
Via tailscale wel zonder problemen.
2 dockers doen ook ineens raar..
Die van sabnzb geeft me dit:
___. .__ .__
\_ |__ |__| ____ | |__ ____ ___ ___
| __ \| |/ \| | \_/ __ \\ \/ /
| \_\ \ | | \ Y \ ___/ > <
|___ /__|___| /___| /\___ >__/\_ \
\/ \/ \/ \/ \/
https://hub.docker.com/u/binhex/
2025-08-12 21:16:10.492360 [info] Host is running unRAID
2025-08-12 21:16:10.521416 [info] System information: Linux 7d0e52c9c61a 6.12.24-Unraid #1 SMP PREEMPT_DYNAMIC Sat May 3 00:12:52 PDT 2025 x86_64 GNU/Linux
2025-08-12 21:16:10.551453 [info] Application name: 'sabnzbdvpn'
2025-08-12 21:16:10.582937 [info] Base image release tag: '2025072801'
2025-08-12 21:16:10.621702 [info] Output image release tag: '4.5.2-1-03'
2025-08-12 21:16:10.679685 [info] PUID defined as '99'
2025-08-12 21:16:10.728942 [info] PGID defined as '100'
2025-08-12 21:16:10.788370 [info] UMASK defined as '000'
2025-08-12 21:16:10.827723 [info] Permissions already set for '/config'
2025-08-12 21:16:10.867236 [info] Deleting files in /tmp (non recursive)...
2025-08-12 21:16:10.917944 [info] VPN_ENABLED defined as 'no'
2025-08-12 21:16:10.947912 [warn] !!IMPORTANT!! VPN IS SET TO DISABLED', YOU WILL NOT BE SECURE
2025-08-12 21:16:11.007530 [warn] ENABLE_SOCKS not defined (via -e ENABLE_SOCKS), defaulting to 'no'
2025-08-12 21:16:11.106799 [info] ENABLE_PRIVOXY defined as 'yes'
2025-08-12 21:16:11.198085 [info] Starting Supervisor...
2025-08-12 21:16:11,488 INFO Included extra file "/etc/supervisor/conf.d/sabnzbdvpn.conf" during parsing
2025-08-12 21:16:11,488 INFO Set uid to user 0 succeeded
2025-08-12 21:16:11,500 INFO RPC interface 'supervisor' initialized
2025-08-12 21:16:11,501 CRIT Server 'unix_http_server' running without any HTTP authentication checking
2025-08-12 21:16:11,502 INFO supervisord started with pid 7
2025-08-12 21:16:12,504 INFO spawned: 'start-script' with pid 75
2025-08-12 21:16:12,506 INFO spawned: 'watchdog-script' with pid 76
2025-08-12 21:16:12,509 DEBG 'start-script' stdout output:
[info] VPN not enabled, skipping configuration of VPN
2025-08-12 21:16:12,510 INFO success: start-script entered RUNNING state, process has stayed up for > than 0 seconds (startsecs)
2025-08-12 21:16:12,510 INFO success: watchdog-script entered RUNNING state, process has stayed up for > than 0 seconds (startsecs)
2025-08-12 21:16:12,510 DEBG fd 9 closed, stopped monitoring <POutputDispatcher at 23119098092176 for <Subprocess at 23119097297760 with name start-script in state RUNNING> (stdout)>
2025-08-12 21:16:12,510 DEBG fd 11 closed, stopped monitoring <POutputDispatcher at 23119097733008 for <Subprocess at 23119097297760 with name start-script in state RUNNING> (stderr)>
2025-08-12 21:16:12,511 INFO exited: start-script (exit status 0; expected)
2025-08-12 21:16:12,511 DEBG received SIGCHLD indicating a child quit
2025-08-12 21:16:12,515 DEBG 'watchdog-script' stdout output:
[info] SABnzbd not running
2025-08-12 21:16:12,515 DEBG 'watchdog-script' stdout output:
[info] Attempting to start SABnzbd...
2025-08-12 21:16:13,148 DEBG 'watchdog-script' stdout output:
[info] SABnzbd process started
[info] Waiting for SABnzbd process to start listening on port 8080...
2025-08-12 21:16:13,155 DEBG 'watchdog-script' stdout output:
[info] SABnzbd process is listening on port 8080
2025-08-12 21:16:13,159 DEBG 'watchdog-script' stdout output:
[info] Privoxy not running
2025-08-12 21:16:13,162 DEBG 'watchdog-script' stdout output:
[info] Attempting to start Privoxy...
2025-08-12 21:16:14,170 DEBG 'watchdog-script' stdout output:
[info] Privoxy process started
[info] Waiting for Privoxy process to start listening on port 8118...
2025-08-12 21:16:14,174 DEBG 'watchdog-script' stdout output:
[info] Privoxy process listening on port 8118
Maar wil dus geen webgui geven of verder starten.
Nextcloud geeft me dit:
curl: (6) Could not resolve host: ghcr.io
Trying to fix docker.sock permissions internally...
Creating docker group internally with id 281
The environmental variable TZ has been set which is not supported by AIO since it only supports running in the default Etc/UTC timezone!
The correct timezone can be set in the AIO interface later on!
Initial startup of Nextcloud All-in-One complete!
You should be able to open the Nextcloud AIO Interface now on port 8080 of this server!
E.g. https://internal.ip.of.this.server:8080
⚠️ Important: do always use an ip-address if you access this port and not a domain as HSTS might block access to it later!
If your server has port 80 and 8443 open and you point a domain to your server, you can get a valid certificate automatically by opening the Nextcloud AIO Interface via:
https://your-domain-that-points-to-this-server.tld:8443
Total reclaimed space: 0B
Could not reach https://ghcr.io.
Most likely is something blocking access to it.
You should be able to fix this by following https://dockerlabs.collab...king/Configuring_DNS.html
Another solution is using https://github.com/nextcl.../tree/main/manual-install
See https://github.com/nextcl...manual-install/latest.yml
Ik weet niet waar ik het moet gaan zoeken???
Via tailscale wel zonder problemen.
2 dockers doen ook ineens raar..
Die van sabnzb geeft me dit:
___. .__ .__
\_ |__ |__| ____ | |__ ____ ___ ___
| __ \| |/ \| | \_/ __ \\ \/ /
| \_\ \ | | \ Y \ ___/ > <
|___ /__|___| /___| /\___ >__/\_ \
\/ \/ \/ \/ \/
https://hub.docker.com/u/binhex/
2025-08-12 21:16:10.492360 [info] Host is running unRAID
2025-08-12 21:16:10.521416 [info] System information: Linux 7d0e52c9c61a 6.12.24-Unraid #1 SMP PREEMPT_DYNAMIC Sat May 3 00:12:52 PDT 2025 x86_64 GNU/Linux
2025-08-12 21:16:10.551453 [info] Application name: 'sabnzbdvpn'
2025-08-12 21:16:10.582937 [info] Base image release tag: '2025072801'
2025-08-12 21:16:10.621702 [info] Output image release tag: '4.5.2-1-03'
2025-08-12 21:16:10.679685 [info] PUID defined as '99'
2025-08-12 21:16:10.728942 [info] PGID defined as '100'
2025-08-12 21:16:10.788370 [info] UMASK defined as '000'
2025-08-12 21:16:10.827723 [info] Permissions already set for '/config'
2025-08-12 21:16:10.867236 [info] Deleting files in /tmp (non recursive)...
2025-08-12 21:16:10.917944 [info] VPN_ENABLED defined as 'no'
2025-08-12 21:16:10.947912 [warn] !!IMPORTANT!! VPN IS SET TO DISABLED', YOU WILL NOT BE SECURE
2025-08-12 21:16:11.007530 [warn] ENABLE_SOCKS not defined (via -e ENABLE_SOCKS), defaulting to 'no'
2025-08-12 21:16:11.106799 [info] ENABLE_PRIVOXY defined as 'yes'
2025-08-12 21:16:11.198085 [info] Starting Supervisor...
2025-08-12 21:16:11,488 INFO Included extra file "/etc/supervisor/conf.d/sabnzbdvpn.conf" during parsing
2025-08-12 21:16:11,488 INFO Set uid to user 0 succeeded
2025-08-12 21:16:11,500 INFO RPC interface 'supervisor' initialized
2025-08-12 21:16:11,501 CRIT Server 'unix_http_server' running without any HTTP authentication checking
2025-08-12 21:16:11,502 INFO supervisord started with pid 7
2025-08-12 21:16:12,504 INFO spawned: 'start-script' with pid 75
2025-08-12 21:16:12,506 INFO spawned: 'watchdog-script' with pid 76
2025-08-12 21:16:12,509 DEBG 'start-script' stdout output:
[info] VPN not enabled, skipping configuration of VPN
2025-08-12 21:16:12,510 INFO success: start-script entered RUNNING state, process has stayed up for > than 0 seconds (startsecs)
2025-08-12 21:16:12,510 INFO success: watchdog-script entered RUNNING state, process has stayed up for > than 0 seconds (startsecs)
2025-08-12 21:16:12,510 DEBG fd 9 closed, stopped monitoring <POutputDispatcher at 23119098092176 for <Subprocess at 23119097297760 with name start-script in state RUNNING> (stdout)>
2025-08-12 21:16:12,510 DEBG fd 11 closed, stopped monitoring <POutputDispatcher at 23119097733008 for <Subprocess at 23119097297760 with name start-script in state RUNNING> (stderr)>
2025-08-12 21:16:12,511 INFO exited: start-script (exit status 0; expected)
2025-08-12 21:16:12,511 DEBG received SIGCHLD indicating a child quit
2025-08-12 21:16:12,515 DEBG 'watchdog-script' stdout output:
[info] SABnzbd not running
2025-08-12 21:16:12,515 DEBG 'watchdog-script' stdout output:
[info] Attempting to start SABnzbd...
2025-08-12 21:16:13,148 DEBG 'watchdog-script' stdout output:
[info] SABnzbd process started
[info] Waiting for SABnzbd process to start listening on port 8080...
2025-08-12 21:16:13,155 DEBG 'watchdog-script' stdout output:
[info] SABnzbd process is listening on port 8080
2025-08-12 21:16:13,159 DEBG 'watchdog-script' stdout output:
[info] Privoxy not running
2025-08-12 21:16:13,162 DEBG 'watchdog-script' stdout output:
[info] Attempting to start Privoxy...
2025-08-12 21:16:14,170 DEBG 'watchdog-script' stdout output:
[info] Privoxy process started
[info] Waiting for Privoxy process to start listening on port 8118...
2025-08-12 21:16:14,174 DEBG 'watchdog-script' stdout output:
[info] Privoxy process listening on port 8118
Maar wil dus geen webgui geven of verder starten.
Nextcloud geeft me dit:
curl: (6) Could not resolve host: ghcr.io
Trying to fix docker.sock permissions internally...
Creating docker group internally with id 281
The environmental variable TZ has been set which is not supported by AIO since it only supports running in the default Etc/UTC timezone!
The correct timezone can be set in the AIO interface later on!
Initial startup of Nextcloud All-in-One complete!
You should be able to open the Nextcloud AIO Interface now on port 8080 of this server!
E.g. https://internal.ip.of.this.server:8080
⚠️ Important: do always use an ip-address if you access this port and not a domain as HSTS might block access to it later!
If your server has port 80 and 8443 open and you point a domain to your server, you can get a valid certificate automatically by opening the Nextcloud AIO Interface via:
https://your-domain-that-points-to-this-server.tld:8443
Total reclaimed space: 0B
Could not reach https://ghcr.io.
Most likely is something blocking access to it.
You should be able to fix this by following https://dockerlabs.collab...king/Configuring_DNS.html
Another solution is using https://github.com/nextcl.../tree/main/manual-install
See https://github.com/nextcl...manual-install/latest.yml
Ik weet niet waar ik het moet gaan zoeken???
@masauri Alle containers en VM's afsluiten, eventueel Docker en array stoppen en kijken of het dan wel werkt. Eventueel rebooten en vanaf daar weer terug op gaan bouwen.
Ik ben geen kennis van Tailscale of andere VPN setups, maar als je niet meer kunt inloggen zal er vast iets mis zijn met (dubbele) poort mappings waardoor het niet meer werkt.
Daarom vind ik ook dat bridge en host networking standaard niet gebruikt moet worden.
Ik ben geen kennis van Tailscale of andere VPN setups, maar als je niet meer kunt inloggen zal er vast iets mis zijn met (dubbele) poort mappings waardoor het niet meer werkt.
Daarom vind ik ook dat bridge en host networking standaard niet gebruikt moet worden.
@masauri Zo uit het niets, of na gewijzigde instellingen of iets van een update?
( Waarom trouwens een van Binhexes z'n VPN containers draaien met Privoxy, zonder dat het VPN aspect actief is?
)
( Waarom trouwens een van Binhexes z'n VPN containers draaien met Privoxy, zonder dat het VPN aspect actief is?
Komt d'r in, dan kö-j d’r oet kieken
zo uit t niets idd...D4NG3R schreef op woensdag 13 augustus 2025 @ 11:48:
@masauri Zo uit het niets, of na gewijzigde instellingen of iets van een update?
( Waarom trouwens een van Binhexes z'n VPN containers draaien met Privoxy, zonder dat het VPN aspect actief is?)
ik heb indertijd de migratie door ed van spaceinvaders laten uitvoeren dus het heeft allemaal perfect gewerkt... tot nu dus...
Automatische update van 1 van de docker containers gehad wellicht?
[ Voor 35% gewijzigd door Flans op 13-08-2025 15:52 ]
dit kan idd wel iets zijn , al vind ik het raar dat ik daardoor niet meer zou kunnen inloggen op men server...Flans schreef op woensdag 13 augustus 2025 @ 15:51:
Automatische update van 1 van de docker containers gehad wellicht?
Het zou inderdaad niet mogen... Maar als je Sabnzbd en Nextcloud en je eigen server bij default op 8080 worden gezet. Los daarvan draaien er (als ik het goed begrijp) twee VPN'en waarvan je er 1 gebruikt. Dan zijn er wel wat mogelijkheden te bedenken.masauri schreef op woensdag 13 augustus 2025 @ 16:54:
[...]
dit kan idd wel iets zijn , al vind ik het raar dat ik daardoor niet meer zou kunnen inloggen op men server...
Ik heb sinds dit weekend een unRAID server en ben enthousiast over de webui en shares aanmaken. Heb er een jellyfin container opgezet die ook prima werkt. Het enige wat me opviel was dat er gelijk ongeveer 150 Gb ruimte bezet was? Ik heb 3 schijven erin (8TB) waarvan 1 parity. Maar dus bij deze nieuwe geformatteerde schijven direct 150 gb gebruik. Is dit normaal? Het OS staat toch op de USB?
Het meeste is ondertussen wel gezegd. Ik doe het updaten zoveel mogelijk automatisch ik heb alleen een 'vertraging' van een paar dagen toegevoegd. Daarvoor gebruik ik de plugin 'Auto Update Applications' dit werkt zowel voor plugins als voor docker. Hij wacht nu alleen (in mijn geval) 3 dagen voordat de nieuwe versie geupdate wordt. Dus als er iets mis is met een nieuwe release dan is er tegen de tijd dat het bij mij fout gaat (hopelijk) een nieuwe versieSaN schreef op maandag 4 augustus 2025 @ 12:17:
Hoe regelen jullie docker container updates in Unraid? Als ik een beetje google zijn veel mensen nogal panisch over automatische updates, wat ik in principe wel begrijp. Nu heb ik mijn nieuwe unraid server met 16 docker containers ongeveer 6 weken lopen en voor 14 van de 16 containers zijn updates beschikbaar. Ik ben dus toch maar, handmatig, begonnen met updaten maar ik ben niet van plan om dat op deze manier te blijven doen aangezien het nogal wat tijd kost.
Chatgpt adviseert om handmatig te updaten en evt van tevoren de change logs te bekijken en achteraf te testen.
Hoe doen jullie dit? Ik zag dat CA Backup de mogelijkheid biedt om automatisch updates uit te laten voeren na een succesvolle backup, dat lijkt mij bijvoorbeeld wel prettig.
@tomdh76 Schijven hebben altijd wat overhead afhankelijk van het bestandssysteem. Dit is altijd al zo geweest
. Alleen lijkt dit met de grote disks ineens enorm veel.
Ik ben de laatste dagen bezig geweest om een nieuwe usb stick te maken omdat de vorige kuren begon te tonen.
Wat ben ik daar lang met bezig geweest!
De Unraid Creator Tool werkte niet omdat er geen GUID was gevonden op de stick (Sandisk probleem blijkbaar)
De manuele methode werkte ook voor geen meter ondanks dat ik wel alle stappen kan volgen.
Een live usb van Linux Mint werkt wel gewoon. Aan de usb stick ligt het dus niet.
Mijn moederbord (Kontron D3644-B1) meerdere malen default settings.
Secure boot aan of uit
TPM aan of uit. Proberen resetten.
CMOS reset
EFI folder 'aan of uit' gezet
Moederbord ondersteund UEFI dus daar verwachtte ik geen probleem omdat Unraid dat ook gewoon ondersteund.
Moederbord heeft ook de laatste BIOS update gehad.
Uiteindelijk kwam ik erachter dat de usb ingesteld stond als GPT. Wat goed is voor UEFI dacht ik dan.
Als laatste poging heb ik dit omgezet naar MBR en je verwacht het niet maar Unraid start dus gewoon op.
Kan iemand me uitleggen waarom het met MBR wel lukt maar niet met GPT?
Het moederbord ondersteunt gewoon UEFI.
De Linux Mint Live CD werkte wel gewoon onder UEFI. Waarom Unraid dan niet?
Wat ben ik daar lang met bezig geweest!
De Unraid Creator Tool werkte niet omdat er geen GUID was gevonden op de stick (Sandisk probleem blijkbaar)
De manuele methode werkte ook voor geen meter ondanks dat ik wel alle stappen kan volgen.
Een live usb van Linux Mint werkt wel gewoon. Aan de usb stick ligt het dus niet.
Mijn moederbord (Kontron D3644-B1) meerdere malen default settings.
Secure boot aan of uit
TPM aan of uit. Proberen resetten.
CMOS reset
EFI folder 'aan of uit' gezet
Moederbord ondersteund UEFI dus daar verwachtte ik geen probleem omdat Unraid dat ook gewoon ondersteund.
Moederbord heeft ook de laatste BIOS update gehad.
Uiteindelijk kwam ik erachter dat de usb ingesteld stond als GPT. Wat goed is voor UEFI dacht ik dan.
Als laatste poging heb ik dit omgezet naar MBR en je verwacht het niet maar Unraid start dus gewoon op.
Kan iemand me uitleggen waarom het met MBR wel lukt maar niet met GPT?
Het moederbord ondersteunt gewoon UEFI.
De Linux Mint Live CD werkte wel gewoon onder UEFI. Waarom Unraid dan niet?
Hoewel je moederbord UEFI ondersteunt, maakt dat niet zoveel uit omdat Unraid expliciet een MBR-geformatteerde USB verwacht. Heeft niks met je hardware te maken maar hoe Unraid is ontworpen.Asterion schreef op donderdag 4 september 2025 @ 10:45:
Kan iemand me uitleggen waarom het met MBR wel lukt maar niet met GPT?
Het moederbord ondersteunt gewoon UEFI.
- Unraid gebruikt een hybride bootmethode waarbij de USB-stick bootable moet zijn via syslinux, die werrkt met de BIOS en MBR.
- Ook als je in UEFI-mode opstart, verwacht Unraid nog steeds dat de stick een MBR-partitietabel met een FAT32-partitie bevat en dat de EFI-bootbestanden op de juiste plek staan.
- Als de stick GPT-geformatteerd is, dan herkent de Unraid bootloader de stick meestal niet als geldig opstartmedium, zelfs als de EFI-structuur technisch gezien correct is.
Linux Mint (en vrijwel alle moderne Linux-distributies):Asterion schreef op donderdag 4 september 2025 @ 10:45:
De Linux Mint Live CD werkte wel gewoon onder UEFI. Waarom Unraid dan niet?
- Gebruiken GRUB of systemd-boot, die goed werken met GPT en UEFI.
- Hebben een volledig uitgewerkte UEFI-bootstructuur, inclusief een geconfigureerde EFI-partitie met bootloaders.
- Zijn ontworpen om op allerlei soorten systemen en BIOS/UEFI-configuraties te werken, inclusief secure boot (soms met handmatige ondertekening).
- Is gebaseerd op Slackware en gebruikt nog syslinux in plaats van GRUB.
- Heeft beperkte UEFI-ondersteuning en verwacht een traditionele BIOS/MBR-structuur, ook als UEFI wordt gebruikt.
- Is minder flexibel dan moderne Linux distro’s wat betreft het detecteren van GPT-partities of niet-standaard bootmethodes.
Dit is een bekend probleem met Sandisk USB-sticks en goed om even te checken voordat je begint. Voor sommige modellen geldt: Dat ze geen geen unieke GUID of serienummer rapporteren aan het systeem, waardoor de Unraid USB Creator Tool denkt dat het geen geldige stick is.Asterion schreef op donderdag 4 september 2025 @ 10:45:
Hoe kan het dat de USB geen GUID had volgens de Unraid USB Creator Tool, maar toch werkte via de handmatige methode?
Bij de handmatige installatie kun je die check omzeilen, maar je kunt dan later tegen problemen aanlopen bij het activeren van je licentie.
Ik ben zelf bezig met het toevoegen van twee nieuwe servers. 1 voor interne backup en 1 voor het high available maken van Pi-Hole en Home Assistant (vooral om ervoor te zorgen dat 'het huis het blijft doen'
). Ik wil ze eigenlijk beide truenas laten draaien om op die manier ook dat wat te leren kennen.
- De backup server is/wordt redelijk straight forward. Elke nacht wordt die door WoL aangezet om vervolgens intern een backup te draaien en deze backup ook meteen naar de cloud door te zetten. Deze server wordt dus mijn 2 en 1 van de 3, 2, 1 methode.
- De HA server heb ik nog niet helemaal helder, hoe ik dat voor elkaar moet krijgen. Hoe ga ik de twee instances van Pi-Hole en Home Assistant in sync houden? Hoe kun je het best de failover regelen? Doorgeven van de zigbee controller aan twee systemen?
Je kan voor Home Assistant in ieder geval een MySQL backend gebruiken, die kan je prima laten repliceren. Maar met Home Assistant is er veel meer ellende als je met dingen als Zigbee & ZWave aan de gang wilt. Ik zou het vooral als VM draaien en die laten repliceren zodat je die snel kan booten als t echt mis is ..Flans schreef op vrijdag 5 september 2025 @ 07:13:
Ik ben zelf bezig met het toevoegen van twee nieuwe servers. 1 voor interne backup en 1 voor het high available maken van Pi-Hole en Home Assistant (vooral om ervoor te zorgen dat 'het huis het blijft doen'). Ik wil ze eigenlijk beide truenas laten draaien om op die manier ook dat wat te leren kennen.
Het lijkt erop alsof hetgeen ik wil niet kan en ik zou eigenlijk over moeten stappen op iets als proxmox. Zijn er mensen hier die dit al werkend hebben en wat insight kunnen delen?
- De backup server is/wordt redelijk straight forward. Elke nacht wordt die door WoL aangezet om vervolgens intern een backup te draaien en deze backup ook meteen naar de cloud door te zetten. Deze server wordt dus mijn 2 en 1 van de 3, 2, 1 methode.
- De HA server heb ik nog niet helemaal helder, hoe ik dat voor elkaar moet krijgen. Hoe ga ik de twee instances van Pi-Hole en Home Assistant in sync houden? Hoe kun je het best de failover regelen? Doorgeven van de zigbee controller aan twee systemen?
Owner of DBIT Consultancy | DJ BassBrewer
@Flans , benieuwd welke hardware je gebruik voor die nieuwe servers. Voor Pi-hole kan je eventueel gebruik maken van keepalived maar idealiter hebben je dan best 3 pi-hole instances nodig. Geen idee of dat ook lukt met HA, vermoed van wel. Zelf nog geen ervaring mee.
Doe je je back-up van de ene server naar de andere, via rsync of iets anders?
Zelf een door mijn broer geschonken Lenovo M70S in gebruik genomen als een altijd-aan Unraid server zodat zijn grote broer meer idle of in slaap kan staan en ook alleen nog media Docker containers zal draaien. Pi-hole, Nextcloud, Bitwarden, Speedtesttracker, NPM, ... verhuizen allemaal naar deze Lenovo.
Er zit nu een NVME van 1TB in die Lenovo (zat er reeds in, dus ook gratis, dank u wel broer 🙂) en ook een SATA SSD, wou er nog een andere SATA SSD in stoppen, maar natuurlijk weer een typische eigen Lenovo SATA power oplossing die ik nodig heb met 4 pinnen op het moederbord, en daar vragen ze snel $40 voor. Zal dus een extra NVME worden op een PCI insteekkaart.
Doe je je back-up van de ene server naar de andere, via rsync of iets anders?
Zelf een door mijn broer geschonken Lenovo M70S in gebruik genomen als een altijd-aan Unraid server zodat zijn grote broer meer idle of in slaap kan staan en ook alleen nog media Docker containers zal draaien. Pi-hole, Nextcloud, Bitwarden, Speedtesttracker, NPM, ... verhuizen allemaal naar deze Lenovo.
Er zit nu een NVME van 1TB in die Lenovo (zat er reeds in, dus ook gratis, dank u wel broer 🙂) en ook een SATA SSD, wou er nog een andere SATA SSD in stoppen, maar natuurlijk weer een typische eigen Lenovo SATA power oplossing die ik nodig heb met 4 pinnen op het moederbord, en daar vragen ze snel $40 voor. Zal dus een extra NVME worden op een PCI insteekkaart.
@Flans Beter laat dan nooit, maar ik draai wat diensten, o.a. AdGuard Home HA. Ik heb een primaire instantie op mijn primaire server draaien (duh
), maar tegelijkertijd draait mijn oude NUC ook nog met een secundaire instantie.
Home Assistant HA is met o.a. hardware koppelingen nogal lastig. Er zijn wel custom components die meerdere Home Assistant instanties kunnen syncen, maar dat was geloof ik niet bijster stabiel. Althans, er kwamen nogal eens wat breaking changes.
In mijn setup heb ik 1 instantie van Home Assistant op mijn primaire machine draaien, maar de hardware koppelingen draaien op mijn secundaire machine. Dat is een geluk bij een ongeluk, omdat er een bug in de Intel chipset zit van mijn primaire machine. Door deze bug gebruikt elk full speed USB apparaat zoals een Zigbee dongle, meteen 5W en gaat de processor niet meer naar de lagere C-states. Mijn Zigbee en Z-Wave netwerken blijven hierdoor dus door werken zonder Home Assistant.
Home Assistant HA is met o.a. hardware koppelingen nogal lastig. Er zijn wel custom components die meerdere Home Assistant instanties kunnen syncen, maar dat was geloof ik niet bijster stabiel. Althans, er kwamen nogal eens wat breaking changes.
In mijn setup heb ik 1 instantie van Home Assistant op mijn primaire machine draaien, maar de hardware koppelingen draaien op mijn secundaire machine. Dat is een geluk bij een ongeluk, omdat er een bug in de Intel chipset zit van mijn primaire machine. Door deze bug gebruikt elk full speed USB apparaat zoals een Zigbee dongle, meteen 5W en gaat de processor niet meer naar de lagere C-states. Mijn Zigbee en Z-Wave netwerken blijven hierdoor dus door werken zonder Home Assistant.
Sinds een paar weken kon ik - ogenschijnlijk - na een Windows update ineens niet meer bij de Samba shares van mijn Unraid machine komen. Het is stom toeval dat dat ook de enige SMB shares zijn die in mijn netwerk hangen. Ik had al van alles geprobeerd om dit te verhelpen. Van netwerk profielen tot group policies en firewalls. Maar niets leek het op te lossen.
In een soort van wanhoopspoging heb ik daarom maar de Samba service op Unraid herstart:
Waarna het direct weer werkte
.
Geen idee wat er precies mis is gegaan, maar niet alle problemen liggen blijkbaar bij Windows Updates
.
In een soort van wanhoopspoging heb ik daarom maar de Samba service op Unraid herstart:
/usr/local/etc/rc.d/rc.samba restart
Waarna het direct weer werkte

Geen idee wat er precies mis is gegaan, maar niet alle problemen liggen blijkbaar bij Windows Updates
Mag ik vragen hoe jij de twee instanties van HA hebt opgezet en in sync houdt? Na wat ik las was dit vrij ingewikkeld en leek mij alleen maar meer werk qua onderhoud. Hoe sync jij bijvoorbeeld de database? Ik heb zelf Unraid draaien krachtig systeem (I7 12600K, Kontron moederbord), maar ik ben met HA overgestapt naar een kleine intel QOTOM pc i5.alex3305 schreef op woensdag 24 september 2025 @ 19:58:
@Flans Beter laat dan nooit, maar ik draai wat diensten, o.a. AdGuard Home HA. Ik heb een primaire instantie op mijn primaire server draaien (duh), maar tegelijkertijd draait mijn oude NUC ook nog met een secundaire instantie.
Home Assistant HA is met o.a. hardware koppelingen nogal lastig. Er zijn wel custom components die meerdere Home Assistant instanties kunnen syncen, maar dat was geloof ik niet bijster stabiel. Althans, er kwamen nogal eens wat breaking changes.
In mijn setup heb ik 1 instantie van Home Assistant op mijn primaire machine draaien, maar de hardware koppelingen draaien op mijn secundaire machine. Dat is een geluk bij een ongeluk, omdat er een bug in de Intel chipset zit van mijn primaire machine. Door deze bug gebruikt elk full speed USB apparaat zoals een Zigbee dongle, meteen 5W en gaat de processor niet meer naar de lagere C-states. Mijn Zigbee en Z-Wave netwerken blijven hierdoor dus door werken zonder Home Assistant.
Ik heb geen last van directe hardware koppelingen omdat ik de volgende ZigBee adapter heb: https://smartlight.me/sma...r1-multiradio-coordinator.
Misschien had ik het niet helemaal duidelijk verwoord, maar ik heb dus maar één instantie van Home Assistant draaien en dat dus op mijn primaire machine. Op mijn secundaire machine staat dan Zigbee2MQTT en Z-WaveJS. En daar zitten dan ook de desbetreffende adapters op aangesloten. Ik heb er de tijd en energie niet voor over om twee HA instanties draaiend te houdenMuVo schreef op donderdag 25 september 2025 @ 11:17:
[...]
Mag ik vragen hoe jij de twee instanties van HA hebt opgezet en in sync houdt? Na wat ik las was dit vrij ingewikkeld en leek mij alleen maar meer werk qua onderhoud. Hoe sync jij bijvoorbeeld de database? Ik heb zelf Unraid draaien krachtig systeem (I7 12600K, Kontron moederbord), maar ik ben met HA overgestapt naar een kleine intel QOTOM pc i5.

Maar goed, omdat Zigbee2MQTT en Z-WaveJS dus apart draaien, kan ik dus bijvoorbeeld ook automations daar koppelen in plaats van in Home Assistant. Bijvoorbeeld met clusters. Dat verminderd de eventuele afhankelijkheid. Alleen is dat hier off-topic